Efficient and low-complexity variable-to-variable length coding for DNA storage
DNA 저장을 위한 가변길이-가변길이 부호화 방법을 제안합니다. 이 방법은 미리 정의된 짧은 수열의 연결에 의존하지 않으면서 거의 최적에 가까운 부호율을 달성합니다.
We study discrete token diffusion for language generation to understand sampling behavior, convergence, and model dynamics. Publications emphasize how discrete diffusion reveals new insights into text modeling.
We develop training methods that protect data and reduce harmful outputs. Our work combines differential privacy, robust training, and safety-aligned model design.
Large language models must be made efficient for real-world use. We focus on low-bit quantization, compression-aware training, and model scaling that preserves performance.
We investigate learning dynamics, optimization landscapes, and theoretical foundations of deep networks. This research helps connect empirical results with principled understanding.
출처: 연구실 홈페이지
현재 재학생
28명
최근 5년 졸업
16명
졸업생 진로 분포: 학계 4명, 산업체 5명, 스타트업 1명
재학생 출신대학 분포: Unknown 28명
본 페이지는 연구실 규모 파악을 위한 집계 통계(구성원 수, 진로 카테고리, 출신대학 카테고리)만 제공하며, 개별 학생의 이름·전적·취업처 등은 표시하지 않습니다. 분포는 k≥5 익명성 조건을 충족할 때만 공개됩니다 (PIPA §58-2·§28-2 + 대법원 2014다235080).
DNA 저장을 위한 가변길이-가변길이 부호화 방법을 제안합니다. 이 방법은 미리 정의된 짧은 수열의 연결에 의존하지 않으면서 거의 최적에 가까운 부호율을 달성합니다.
논문 데이터가 수집되면 연구 키워드가 자동 추출됩니다
컴퓨터공학 분야 602개 연구실 중
2026벤치마킹: 국제 학술지(IF) 논문 수 1, 상위 8.5%
Top 8.5%
벤치마킹: 피인용 수 2, 상위 8.6%
Top 8.6%
벤치마킹: 평균 Impact Factor 수집 중