Pattern Recognition and Machine Learning
Winter School 2026

  • Smaller Yet Smarter: Knowledge Distillation, Quantization, and Pruning
  • 일시: 2026. 02. 11(수) - 13(금)
  • 주최: 한국정보과학회 인공지능소사이어티

초대의 글

한국정보과학회 인공지능소사이어티에서는 2026년 2월 11일(수)부터 13일(금)까지 3일 동안, "2026년 패턴인식 및 기계학습 겨울학교"를 온라인으로 개최합니다. 이번 겨울학교에서는 "Smaller Yet Smarter: Knowledge Distillation, Quantization, and Pruning"이라는 주제로 모델 압축·경량화 방법론에 대해 심도있게 공부하는 시간을 마련했습니다. 국내 최고 권위의 연사들이 주제 관련 최신 연구와 동향을 소개합니다. 학교 정규 과정에서 다루지 못한 내용을 습득하고 빠르게 변화하는 기계학습/딥러닝 학습기법에 대한 통찰을 얻을 수 있는 훌륭한 기회가 될 것으로 기대합니다.

대회장
최용석 교수(한양대)
조직위원장
신현정 교수(아주대)
조직위원
김은솔 교수(한양대), 송길태 교수(부산대), 조성배 교수(연세대), 김지희 교수(동국대), 배창석 교수(대전대), 이상국 교수(가톨릭대), 주재걸 교수(KAIST), 최재식 교수(KAIST), 감진규 교수(부산대), 한경식 교수(한양대), 송경우 교수(연세대), 최승진 소장(Intellicode)

일정

시간 강연
  • Day 1
  • 2월 11일 (수)
10:00-12:00 Knowledge Distillation: Old and New
이재호 교수 (POSTECH)
좌장: 신현정 교수 (아주대학교)
14:00-16:00 Acceleration techniques for efficient DNN inference
송현오 교수 (서울대학교)
좌장: 송길태 교수 (부산대학교)
  • Day 2
  • 2월 12일 (목)
10:00-12:00 Agentic AI
황성주 교수 (KAIST)
좌장: 송경우 교수 (연세대학교)
14:00-16:00 Hardware-Aware Model Compression: Optimizing AI for Accelerators
김 현 교수 (서울과학기술대학교)
좌장: 감진규 교수 (부산대학교)
  • Day 3
  • 2월 13일 (금)
10:00-12:00 Adaptive Computing in Large Language Models
윤세영 교수 (KAIST)
좌장: 김은솔 교수 (한양대학교)
14:00-16:00 Quantization and Compression Techniques for Efficient LLM Inference
최정욱 교수 (한양대학교)
좌장: 최용석 교수 (한양대학교)

프로그램

이재호

이재호

POSTECH

Knowledge Distillation: Old & New

10:00 am - 12:00 pm

Abstract

Knowledge distillation is a simple yet powerful technique that transfers supervisory signals from a teacher model to a student model. It has played a key role in a wide range of machine learning applications, from edge vision to on-device large language models. This talk provides a brief overview of knowledge distillation and its use in modern AI systems, followed by a discussion of open theoretical and computational challenges. Through this, this talk aims to clarify the evolving role of knowledge distillation and its importance in shaping the next generation of AI models.

Bio

  • 2022-현재 POSTECH 전자전기공학과 조교수
  • 2025-현재 POSTECH 극한효율기계학습 연구센터 센터장
  • 2023-2025 Google 연구과학자 – Model Optimization Team
  • 2019-2022 KAIST 정보전자연구소 박사후연구원
  • 2013-2019 UIUC 전기컴퓨터공학과 공학석사/공학박사
송현오

송현오

서울대학교

Acceleration techniques for efficient DNN inference

2:00 pm - 4:00 pm

Abstract

In this talk, I will present recent research from the SNU Machine Learning Laboratory (MLLAB) on lossy acceleration methods for efficient deep neural network inference. We explore how accuracy–efficiency trade-offs can be optimized through techniques such as KV cache compression, mixed-precision quantization, and layer merging. These methods target both large language models and convolutional architectures, achieving substantial inference speedups with minimal performance degradation. Some of this work is presented at NeurIPS 2025, and others were featured at ICML 2024.

Bio

  • 2014 University of California, Berkeley, Computer Science 박사
  • 2014-2016 Stanford University (Postdoctoral fellow)
  • 2016-2017 Google Research (Research Scientist)
  • 2017-현재 서울대학교 컴퓨터공학부, 전임교수
황성주

황성주

KAIST

Agentic AI

10:00 am - 12:00 pm

Abstract

에이전틱 인공지능이란, 대규모 언어 모델을 기반으로 목표를 설정하고 계획을 수립하며, 실행과 기억, 에이전트 간 상호작용을 통해 과업을 수행하고 경험을 바탕으로 스스로 발전하는 자율 지능 시스템을 의미한다. 본 강의는 에이전틱 인공지능을 구성하는 핵심 요소인 계획, 실행, 기억, 상호작용, 자기 개선 메커니즘을 중심으로 그 구조와 동작 원리를 다룬다. 또한 에이전틱 인공지능의 한계와 도전 과제를 분석하고, 연구개발 에이전트 및 금융·건설 등 다양한 기업 환경에서의 실제 활용 사례를 살펴본다.

Bio

  • 2018-현재 카이스트 김재철 AI 대학원 / 전산학부 부교수
  • 2014-2017 유니스트 전자및컴퓨터공학부 조교수
  • 2013-2014 디즈니 리서치 박사후연구원
  • 2010-2013 University of Texas at Austin 공학박사
김 현

김 현

서울과학기술대학교

Hardware-Aware Model Compression: Optimizing AI for Accelerators

2:00 pm - 4:00 pm

Abstract

This talk introduces why AI semiconductors matter and frames today’s accelerator challenges through a hardware-aware lens. It focuses on hardware-aware model compression, covering quantization, structured sparsity, low-rank approximation, pruning, and attention-specific optimizations designed to map efficiently onto accelerators. Using arithmetic intensity and roofline analysis, we explain performance and energy bottlenecks in on-device vision and long-context LLM workloads. On the hardware side, we discuss power-efficient NPUs and low-power memory systems, including near/in-memory computing, to minimize data movement. The talk concludes with a practical co-design playbook for deploying compressed models on accelerators to achieve low-latency, energy-efficient on-device AI.

Bio

  • 2018-현재 서울과학기술대학교 전기정보공학과 조교수/부교수
  • 2025-현재 빅웨이브로보틱스 사외이사
  • 2022-2023 서울과학기술대학교 산학협력단 부단장
  • 2022-2023 서울과학기술대학교 LINC 3.0 사업단 부단장
  • 2021-현재 대한전자공학회 상임이사
  • 2024-현재 반도체공학회 상임이사
  • 2015-2018 서울대학교 BK21+창의정보기술인재양성사업단 Post-Doc/조교수
  • 2011-2015 서울대학교 전기컴퓨터공학부 공학박사
  • 2009-2011 서울대학교 전기컴퓨터공학부 공학석사
  • 2005-2009 서울대학교 전기컴퓨터공학부 공학사
윤세영

윤세영

KAIST

Adaptive Computing in Large Language Models

10:00 am - 12:00 pm

Abstract

This talk introduces adaptive computing methods that reduce inference cost in large language models by allocating computation according to difficulty. We cover token-level approaches such as early exiting and speculative decoding, query-level routing that selects among models of different capacities, and reasoning-level strategies that adjust the length or number of reasoning rollouts. Together, these perspectives highlight how LLMs can think efficiently—using more computation only when needed—while maintaining reliability and performance.

Bio

  • 2017-현재 KAIST 김재철AI대학원 부교수
  • 2016-2017 Los Alamos National Lab(미국) 박사후연구원
  • 2015-2016 Microsoft Research Cambridge(영국) 방문연구원
  • 2014-2015 MSR-INRIA Joint Center(프랑스) 박사후연구원
  • 2013-2014 KTH (스웨덴) 박사후연구원
  • 2006-2012 KAIST 전기및전자공학과 박사
  • 2002-2006 KAIST 전기및전자공학과 학사
  • 2025-2025 INRIA Paris (프랑스) 방문연구원
  • 2025-2025 LSE (영국) 방문연구원
  • 2021-현재 AI기상예측연구센터 센터장
최정욱

최정욱

한양대학교

Quantization and Compression Techniques for Efficient LLM Inference

2:00 pm - 4:00 pm

Abstract

딥러닝 압축 기술은 처음에는 딥 뉴럴 네트워크의 효율성을 향상시키기 위한 하나의 옵션으로 제안되었지만, 생성형 AI 기술의 발전과 수십억 개의 매개변수를 포함하는 모델의 확장으로 그 중요성이 크게 증가했다. 메모리 사용량과 계산 복잡성을 줄이는 압축 기술은, 특히 제한된 메모리 용량을 가진 휴대용 기기에서 대규모 언어 모델을 실행하는 데 필수적이 되었다. 이 강의에서는 대규모 언어 모델 추론 효율성을 개선하기 위한 최신 압축 연구를 소개하며, 기술 발전의 미래 방향에 대해 논의할 것이다.

Bio

  • 2024-현재 한양대학교 융합전자공학부 부교수
  • 2019-2024 한양대학교 융합전자공학부 조교수
  • 2015-2019 Research Staff Member at IBM T. J. Watson Research Center
  • 2010-2015 Ph. D. at University of Illinois at Urbana-Champaign

등록

Early Registration
(~ 2월 10일)
Late Registration
Academy 교수 25만원 30만원
학생 15만원 20만원
Industry 25만원 30만원
  • 등록 바로가기
  • 사전등록 마감일: 2026년 2월 10일 (화) 24시
  • 참가등록하신 분에 한하여 행사 전에 Zoom 링크를 이메일로 보내드립니다.
  • 등록 문의: 한국정보과학회 최희수 과장 (hschoi@kiise.or.kr)
  • 수료증 발급 문의: aisociety@naver.com