2017년 7월 11일(화) – 12일(수), 서울대학교
정보 기술의 발전과 더불어 다양한 형태의 데이터들이 기하급수적으로 생성되고, 융합 학문의 중요성과 더불어 복잡한 데이터의 분석에 대한 필요성이 여러 학문 분야에서 부각되고 있습니다. 이러한 기술적 요구와 더불어 기계학습 및 패턴인식에 대한 관심이 그 어느 때 보다도 높습니다. 이에 한국정보과학회 인공지능소사이어티에서는 2017년 7월 11일-12일 2일에 걸쳐 “2017년 패턴인식 및 기계학습 여름학교”를 개최합니다.
다양한 분야에서 패턴인식 및 기계학습을 연구하고 계시는 국내 최고 권위의 연사들을 모시고, 알찬 강의를 준비해 보았습니다. 최근 인공지능 시대를 맞아 다양한 알고리즘들이 생성/응용되고 있습니다. 그렇지만 이들의 뿌리가 되는 핵심 개념에 대한 이해가 부족하여 알고리즘을 설계하거나 제대로 응용하는데 부족함이 있습니다. 따라서 이번 여름학교는 기계학습의 기본 개념 및 원리에 대한 기초 지식을 심도있게 정립하는데 중점을 두었습니다.
2017년 5월 13일
한국정보과학회 인공지능소사이어티 교육부회장 신현정 (아주대학교)
한국정보과학회 인공지능소사이어티 수석부회장 최승진 (POSTECH)
한국정보과학회 인공지능소사이어티 회장 김 선 (서울대학교)
7월 11일 (화) | 7월 12일 (수) | |
---|---|---|
10:00-12:00 |
김선 (서울대학교) Expectation Maximization |
김기응 (KAIST) Reinforcement Learning |
12:00-13:30 | Lunch Break | |
13:30-15:30 |
신현정 (아주대학교) ML Optimization |
노영균 (서울대학교) Non-Asymptotic Bounds |
15:30-16:00 | Coffee Break | |
16:00-18:00 |
최승진 (POSTECH) Deep Generative Models |
손경아 (아주대학교) Probabilistic Graphical Model |
강사김 선 교수내용Expectation-maximization (EM) is a very efficient iterative optimization technique for model parameter estimation when latent variables are involved. To understand EM correctly, we will review basic machine learning concepts such as likelihood, prior probability, and posterior probability. Then the general framework of an EM algorithm, expectation step and maximization step, will be explained using the widely used Gaussian mixture clustering problem. To clarify how to define latent variables or hidden data, we will use Baum-Welch algorithm for model parameter estimation for hidden Markov models and then we will explain the motif finding algorithm in the expectation-maximization setting. The goals of this tutorial are (1) to help understand EM with examples and (2) clarify how to define and use the latent variables.약력
홈페이지http://biohealth.snu.ac.kr강의자료pdf file |
강사최승진 교수내용Density estimation is a core problem in machine learning, the goal of which is to construct an estimate, based on observed data, of an unobservable underlying probability density function. Generative models have played a critical role for density estimation. In this talk, I begin with linear generative models where some conditional independence structures are imposed on parameterized distributions in linear model to build a problem-specific density which is learned from a training dataset. Then, I explain rather recent advances in deep generative models where deep neural networks incorporate encoder or decoder in generative models. Two important categories are emphasized in terms of prescribed models or implicit models, including variational autoencoders and generative adversarial nets.약력
|
강사신현정 교수내용Convex optimization is an important enough topic that everyone who learns machine learning should know at least little bit about it. Many problems in machine learning are based on finding parameters that minimize some objective function. Very often, it is a weighted sum of two components: a cost term and a regularization term. If both of these components are convex, then the problem is a convex optimization problem. There are great advantages to recognizing or formulating a problem as a convex optimization problem. Most importantly, if a function is strictly convex, it is guaranteed to have a unique global minimum, and it can be solved, very reliably and efficiently, using standard methods. There are also theoretical or conceptual advantages that the associated dual problem, for example, often has an interesting interpretation in terms of the original problem, and sometimes leads to an efficient method for solving it. Typical examples of convex optimization problems in machine learning include support vector machines, semi-supervised learning, ridge regression with Tikhonov regularization, whereas neural networks, maximum likelihood mixtures of Gaussians are non-convex problems. In this talk, we give an overview of mathematical optimization, focusing on the special role of convex optimization, and then describe the convex programming formulations of widely known machine learning algorithms.약력
강의자료pdf file |
강사김기응 교수내용본 강의는 기계학습의 한 분야인 강화학습(Reinforcement Learning)을 다룬다. 비교적 널리 알려져 있는 패턴인식과 같은 지도/비지도 학습 문제들과 달리, 강화학습에서는 기계가 지능적으로 판단하고 행동하는 문제들을 다룬다. 강화 학습의 전통적 기법들에 해당하는 Q-Learning, SARSA, TD(λ), Policy Search 등에 대해 다루고, 실제 적용하면서 일어나는 강화학습의 고유 문제들에 대해 살펴본다. 아울러, 최근 많은 연구자들이 관심을 갖는 베이지안 강화학습, 역강화학습 및 도제학습에 대하여 살펴본다.약력
|
강사노영균 교수내용본 강의에서는 데이터의 통계적 처리와 관련된 추정 함수의 집중도(concentration)의 기본 개념을 다룬다. 추정 함수가 데이터의 수가 증가함에 따라 원하는 값으로 수렴하는지, 또한 수렴하는 정도가 어떻게 되는지 아는 것은 기계학습 알고리즘의 특성을 이해하는 중요한 이론적 도구이다. 본 강의에서는 convergence in probability, almost sure convergence 등의 점근적 수렴(asymptotic convergence) 증명 방법을 간단히 설명하고 Markov inequality, Chebyshev inequality에서부터 Efron-Stein inequality까지의 비점근적 부등식(non-asymptotic inequality)을 설명한다.약력
홈페이지http://machinelearning.snu.ac.kr강의자료pdf file |
강사손경아 교수내용확률 그래프 모델은 확률 변수들 간의 복잡한 관계를 그래프로 표현하여 (representation) 변수 간의 확률적 관계를 정의해 주는 파라미터들을 추론하고 (learning), 관심의 대상이 되는 변수들의 조건부 분포를 추론(inference)하여 활용할 수 있게 해 주는 통계적 기계학습 방법론이다. 본 강의에서는 확률 그래프 모델의 기초와 대표적인 모델들, 특히, Latent Dirichlet Allocation, Hidden Markov Model 등 Bayesian network (directed graphical model), Restricted Boltzmann Machine 등 Markov random field (undirected graphical model)에 관해 설명한다. 이들 모델과 인공 신경망 기반 딥러닝 모델과의 연계성 및 최신 응용 연구 동향에 관해서도 간략히 소개한다.약력
|
등록비 | 일반 | 학생 |
---|---|---|
사전등록 | 250,000 | 150,000 |
현장등록 | 300,000 | 200,000 |