정보 기술의 발전과 더불어 다양한 형태의 데이터들이 기하급수적으로 생성되고, 융합 학문의 중요성과 더불어 복잡한 데이터의 분석에 대한 필요성이 여러 학문 분야에서 부각되고 있습니다. 이러한 기술적 요구와 더불어 기계학습 및 패턴인식에 대한 관심이 그 어느 때 보다도 높습니다. 이에 한국정보과학회 인공지능소사이어티에서는 2017년 7월 11일-12일 2일에 걸쳐 “2017년 패턴인식 및 기계학습 여름학교”를 개최합니다.

다양한 분야에서 패턴인식 및 기계학습을 연구하고 계시는 국내 최고 권위의 연사들을 모시고, 알찬 강의를 준비해 보았습니다. 최근 인공지능 시대를 맞아 다양한 알고리즘들이 생성/응용되고 있습니다. 그렇지만 이들의 뿌리가 되는 핵심 개념에 대한 이해가 부족하여 알고리즘을 설계하거나 제대로 응용하는데 부족함이 있습니다. 따라서 이번 여름학교는 기계학습의 기본 개념 및 원리에 대한 기초 지식을 심도있게 정립하는데 중점을 두었습니다.

2017년 5월 13일
한국정보과학회 인공지능소사이어티 교육부회장 신현정 (아주대학교)
한국정보과학회 인공지능소사이어티 수석부회장 최승진 (POSTECH)
한국정보과학회 인공지능소사이어티 회장 김  선 (서울대학교)

Expectation-maximization (EM)

강사

김 선 교수

내용

Expectation-maximization (EM) is a very efficient iterative optimization technique for model parameter estimation when latent variables are involved. To understand EM correctly, we will review basic machine learning concepts such as likelihood, prior probability, and posterior probability. Then the general framework of an EM algorithm, expectation step and maximization step, will be explained using the widely used Gaussian mixture clustering problem. To clarify how to define latent variables or hidden data, we will use Baum-Welch algorithm for model parameter estimation for hidden Markov models and then we will explain the motif finding algorithm in the expectation-maximization setting. The goals of this tutorial are (1) to help understand EM with examples and (2) clarify how to define and use the latent variables.

약력

  • 2011-현재 : 서울대학교 컴퓨터공학부 교수
  • 2011-현재 : 서울대학교 생물정보연구소 소장
  • 2009-2011 : 미국 인디애나대학교 School of Informatics and Computing 부교수
  • 1998-2001 : 미국 듀퐁중앙연구소 선임 연구원

홈페이지

http://biohealth.snu.ac.kr

강의자료

pdf file

Deep Generative Models for Density Estimation

강사

최승진 교수

내용

Density estimation is a core problem in machine learning, the goal of which is to construct an estimate, based on observed data, of an unobservable underlying probability density function. Generative models have played a critical role for density estimation. In this talk, I begin with linear generative models where some conditional independence structures are imposed on parameterized distributions in linear model to build a problem-specific density which is learned from a training dataset. Then, I explain rather recent advances in deep generative models where deep neural networks incorporate encoder or decoder in generative models. Two important categories are emphasized in terms of prescribed models or implicit models, including variational autoencoders and generative adversarial nets.

약력

  • 2001-현재 : POSTECH 컴퓨터공학과 교수
  • 1990-1996 : Ph. D in. EE, University of Notre Dame

Convex Optimization for Machine Learners

강사

신현정 교수

내용

Convex optimization is an important enough topic that everyone who learns machine learning should know at least little bit about it. Many problems in machine learning are based on finding parameters that minimize some objective function. Very often, it is a weighted sum of two components: a cost term and a regularization term. If both of these components are convex, then the problem is a convex optimization problem. There are great advantages to recognizing or formulating a problem as a convex optimization problem. Most importantly, if a function is strictly convex, it is guaranteed to have a unique global minimum, and it can be solved, very reliably and efficiently, using standard methods. There are also theoretical or conceptual advantages that the associated dual problem, for example, often has an interesting interpretation in terms of the original problem, and sometimes leads to an efficient method for solving it. Typical examples of convex optimization problems in machine learning include support vector machines, semi-supervised learning, ridge regression with Tikhonov regularization, whereas neural networks, maximum likelihood mixtures of Gaussians are non-convex problems. In this talk, we give an overview of mathematical optimization, focusing on the special role of convex optimization, and then describe the convex programming formulations of widely known machine learning algorithms.

약력

  • 2017-현재 : 한국정보과학회 기계학습연구회 회장
  • 2017-현재 : 한국정보과학회 인공지능소사이어티 교육부 회장
  • 2014-현재 : 서울대 의과대학 유전체/임상/정보분석 전문가과정 강사
  • 2013-현재 : 대한 의료정보학회 정보의학인증의 운영진 및 강사
  • 2011-현재 : 국민건강보험 심사평가원 검사 심의위원회 부위원장
  • 2007-현재 : 한국 BI 데이터마이닝 학회 등기이사
  • 2006-2006 : 서울대학교 의과대학 연구교수
  • 2005-2006 : Friedrich-Mierscher-Lab, Max-Planck-Institute(독일) 수석연구원
  • 2004-2005 : Max-Planck-Institute for Biological Cybernetics(독일) 연구원
  • 2000-2005 : 서울대학교 공과대학 (산업공학/데이터마이닝) 공학박사

강의자료

pdf file

Reinforcement Learning

강사

김기응 교수

내용

본 강의는 기계학습의 한 분야인 강화학습(Reinforcement Learning)을 다룬다. 비교적 널리 알려져 있는 패턴인식과 같은 지도/비지도 학습 문제들과 달리, 강화학습에서는 기계가 지능적으로 판단하고 행동하는 문제들을 다룬다. 강화 학습의 전통적 기법들에 해당하는 Q-Learning, SARSA, TD(λ), Policy Search 등에 대해 다루고, 실제 적용하면서 일어나는 강화학습의 고유 문제들에 대해 살펴본다. 아울러, 최근 많은 연구자들이 관심을 갖는 베이지안 강화학습, 역강화학습 및 도제학습에 대하여 살펴본다.

약력

  • 2006-현재 : KAIST 전산학과 부교수
  • 2004-2006 : 삼성종합기술원 전문연구원
  • 2001-2004 : 삼성 SDS 책임연구원
  • 2001 : Brown University Computer Science 박사

Non-Asymptotic Bounds

강사

노영균 교수

내용

본 강의에서는 데이터의 통계적 처리와 관련된 추정 함수의 집중도(concentration)의 기본 개념을 다룬다. 추정 함수가 데이터의 수가 증가함에 따라 원하는 값으로 수렴하는지, 또한 수렴하는 정도가 어떻게 되는지 아는 것은 기계학습 알고리즘의 특성을 이해하는 중요한 이론적 도구이다. 본 강의에서는 convergence in probability, almost sure convergence 등의 점근적 수렴(asymptotic convergence) 증명 방법을 간단히 설명하고 Markov inequality, Chebyshev inequality에서부터 Efron-Stein inequality까지의 비점근적 부등식(non-asymptotic inequality)을 설명한다.

약력

  • 2015 - 현재 : 서울대학교 기계항공공학부 BK조교수
  • 2013 - 2014 : KAIST 전산학과 연구조교수
  • 2011 : 서울대학교 인지과학 협동과정 박사
  • 2007 - 2012 : 펜실베니아대학 GRASP 연구실 방문연구원

홈페이지

http://machinelearning.snu.ac.kr

강의자료

pdf file

Probabilistic graphical model

강사

손경아 교수

내용

확률 그래프 모델은 확률 변수들 간의 복잡한 관계를 그래프로 표현하여 (representation) 변수 간의 확률적 관계를 정의해 주는 파라미터들을 추론하고 (learning), 관심의 대상이 되는 변수들의 조건부 분포를 추론(inference)하여 활용할 수 있게 해 주는 통계적 기계학습 방법론이다. 본 강의에서는 확률 그래프 모델의 기초와 대표적인 모델들, 특히, Latent Dirichlet Allocation, Hidden Markov Model 등 Bayesian network (directed graphical model), Restricted Boltzmann Machine 등 Markov random field (undirected graphical model)에 관해 설명한다. 이들 모델과 인공 신경망 기반 딥러닝 모델과의 연계성 및 최신 응용 연구 동향에 관해서도 간략히 소개한다.

약력

  • 2013-현재 : 아주대학교 부교수
  • 2012 : 서울대학교 의과대학 연구조교수
  • 2011 : Carnegie Mellon University Computer Science 박사
  • 2003-2005 : 삼성종합기술원 연구원
등록비 일반 학생
사전등록 250,000 150,000
현장등록 300,000 200,000

참가등록 바로가기

  • 등록인원은 300명까지이며, 선착순 마감될 수 있습니다.
  • 사전등록 마감일: 2017년 7월 4일

서울대학교 글로벌공학교육센터 520호

Top