박은혁 교수 연구실은 32명의 학생을 보유한 중규모 연구실입니다.
포항공과대학교 컴퓨터공학과
Machine Learning, Computer Architecture, Efficient AI, HW/SW Co-design
Machine Learning Lab
eh.park@postech.ac.kr
Efficient Computing Group @ Machine Learning Lab (ECo Lab). The lab is actively looking for self-motivated and prospective graduate and undergraduate students interested in joining the research group.
LLM Optimization research focuses on making enormous language models more efficient, adaptable, and practical. This includes techniques to compress models, merge knowledge from multiple specialized models, and extend their context lengths without sacrificing performance.
Visual Generative Model Acceleration research is about speeding up image and video generation without compromising output quality. Modern generative models like diffusion models and autoregressive image transformers can create stunning visuals but often require lengthy sequential computations.
Efficient Embodied Intelligence research develops AI policies that let robots and embodied systems act naturally and reliably in complex real-world environments, while making the most of limited computational resources.
Performant System Design for AI Applications research focuses on the hardware-software co-design needed to run modern AI models at peak efficiency. This research area addresses how to redesign systems and algorithms together.
Robust and Reliable AI research aims to ensure that AI systems not only perform well under ideal conditions but also maintain their integrity and trustworthiness in the wild. As AI is deployed in high-stakes domains, it must be resilient to noisy inputs and adversarial perturbations.
GraLoRA: Granular Low-Rank Adaptation for Stable Fine-Tuning
AMQ: Enabling AutoML for Mixed-Precision Weight-Only Quantization of Large Language Models
HOT: Hadamard-based Optimized Training
QEFT: Quantization for Efficient Fine-Tuning of LLMs
Outlier-Aware Weight Quantization for Efficient Fine-Tuning of LLMs
Grouped Speculative Decoding for Autoregressive Image Generation
Picard Consistency Model for Fast Parallel Sampling of Diffusion Models
PTQ4VM: Post-Training Quantization for Visual Mamba
FRDiff: Feature Reuse for Training-Free Acceleration of Diffusion Models
Temporal Dynamic Quantization for Diffusion Models
Retrieval-Based Demonstration Refinement for Robot Manipulation
Improving Generative Behavior Cloning via Self-Guidance and Adaptive Chunking
Automated Resource Allocation for Efficient Training and Inference
Cost-Effective Extension of DRAM-PIM for Group-wise LLM Quantization
Fast Performance Prediction for Efficient Distributed DNN Training
PruneCD: Contrasting Pruned Self Model to Improve Decoding Factuality
SEAL: Scaling to Emphasize Attention for Long-Context Retrieval
Merge-Friendly Domain Adaptation via Model Merging
출처: 연구실 홈페이지
현재 재학생
32명
최근 5년 졸업
0명
재학생 출신대학 분포: Unknown 32명
본 페이지는 연구실 규모 파악을 위한 집계 통계(구성원 수, 진로 카테고리, 출신대학 카테고리)만 제공하며, 개별 학생의 이름·전적·취업처 등은 표시하지 않습니다. 분포는 k≥5 익명성 조건을 충족할 때만 공개됩니다 (PIPA §58-2·§28-2 + 대법원 2014다235080).
수집 중
수집 중
논문 데이터가 수집되면 연구 키워드가 자동 추출됩니다
컴퓨터공학 분야 617개 연구실 중
2026벤치마킹: 국제 학술지(IF) 논문 수 0, 상위 100%
Top 100%
벤치마킹: 피인용 수 0, 상위 100%
Top 100%
벤치마킹: 평균 Impact Factor 수집 중
박은혁 교수 연구실은 32명의 학생을 보유한 중규모 연구실입니다.
포항공과대학교 컴퓨터공학과 박은혁 교수 연구실에 대해 제공된 데이터에는 최근 5년간의 논문 실적, 키워드 변화, 연구비 및 학생 현황 등 구체적인 정보가 포함되어 있지 않습니다. 수집된 지표상 논문 건수는 0건으로 기록되어 있으며, 최근 게재 일자 및 키워드 변화 이력 또한 확인되지 않습니다. 이에 따라 연구 주제의 변화 방향, 성과 추이, 연구실 규모의 변동 등을 서사적으로 서술하기 위한 근거 데이터가 현재로서는 부재한 상태입니다. 향후 관련 데이터가 확보될 경우, 보다 구체적인 변화 흐름과 발전 방향을 종합적으로 분석할 수 있을 것입니다.