이주호
KAISTStochastic processes are often used as a prior distribution over functions in statistical machine learning. This tutorial first covers the basic concepts about stochastic processes and then describes Gaussian processes, probably the most popular stochastic processes that are widely used for regression, latent variable modeling, and Bayesian optimization. Then the tutorial introduces neural processes, a data-driven stochastic process implicitly defined with neural networks. Unlike the traditional stochastic processes assuming a particular class of functions to describe before actually seeing data, neural processes assume minimal things and let the model learn from data. This tutorial will describe some basic and advanced variants of neural processes, demonstrate some applications, and show how they compare to Gaussian processes.
이근배
POSTECH본 발표는 최근의 자연어처리 연구에 있어서 심층신경망을 이용한 여러 연구접근에 대해서 설명하고자 한다. 도입에서는 자연어처리의 여러 응용분야 및 다루어야 할 단위 task 즉 문장분류, 품사태깅, 개체명태깅, 구문분석, 동시참조처리, 자동요약등의 문제에 대해 설명하고 왜 이러한 문제들이 기술적으로 어려운지 애매성 및 여러 예시를 들어 설명한다. 이후 이러한 task를 처리하기 위한 심층학습의 기본원리와 심층기계학습을 이용한 시퀀스처리에 대해 설명한다. 이는 향후 자연어에 있어 단어열을 처리하는 기본 원리가 된다. 자연어처리에서 가장 다루기 힘든 어휘 단계의 애매성을 처리하기 위한 워드임베딩 기본 원리를 설명하고 이를 확장한 문맥 기반 워드 임베딩에 대해 기본 원리와 응용을 설명한다. 이러한 문맥 기반 워드 임베딩을 만들기 위한 가장 각광을 받는 모델로 트랜스포머 구조와 응용을 설명하고 이를 이용한 버트 및 GPT 사전학습 구조를 다룬다. 이후 기계번역등 자연어처리의 여러 시퀀스태깅의 기본 문제 및 대표적 응용들인 자연어 기계독해와 자연어 챗봇 대화 시스템에 대해 하나의 심층신경망 모델로 전체 학습 가능한 모델에 대해 설명하고 본 발표를 요약하고자 한다.
신현정
아주대학교In classical kernel methods, kernel embedding can be viewed as a generalization of the individual data-point feature mapping as done in support vector machines and other kernel methods. Recently, it has meanwhile been extended to the embedding of distributions into infinite-dimensional feature spaces that can preserve all of the statistical features of arbitrary distributions, while allowing one to compare and manipulate distributions using Hilbert space operations such as inner products, distances, projections, linear transformations, and spectral analysis. We begin with a brief introduction to a reproducing kernel Hilbert space (RKHS) in which the key arsenal of kernel methods. Then positive definite kernels which forms the backbone of this research area are explained followed by introduction to various kernels proposed for various data types which are vectors, strings, graphs, images, time series, sequences, manifolds, and other structured objects. Then we gear up to simple embedding techniques such as kPCA, kCCA, kICA, etc. Next, we discuss the embedding of distributions which enables us to apply RKHS methods a wide range of applications such as sample testing and domain adaptation. Lastly, we discuss relationships between kernel embedding and other related areas.
최승진
BARO AIRandom projection is a probabilistic dimensionality reduction method where a high-dimensional data point is projected onto a column space of a random matrix to construct a low-dimensional representation. What is good about this is that the projection matrix does not have to be learned from data, unlike most of dimensionality reduction methods such as principal component analysis or Fisher’s discriminant analysis. In other words, random projection is a data-independent method. What is even awesome characteristics of random projection is that it guarantees an epsilon-distortion distance preserving embedding into a lower-dimensional space, which is well justified by the celebrating Johnson-Lindenstrauss (JL) lemma. It has been extensively studied in machine learning and theoretical computer science. In the first half of this tutorial, I will begin with the linear projection and will review the random projection and JL lemma. The second half of the talk will be on nonlinear random projection. Of particular interests are random Fourier features which scales up kernel machines. A successful example is the ‘random kitchen sinks’ which scales up the kernel regression as well as deep neural networks, via randomized feature map instead of optimizing feature representations. If time allowed, I will also mention a method of speeding up random kitchen sinks, which is known as ‘fastfood’.
홍승훈
KAISTVideo forecasting aims to predict the future of the frames conditioned on the few observed frames in the past. Being able to forecast visual future is one of the key components of human intelligence, and is demanded in various applications such as Reinforcement Learning, Whether Forecasting, Robotics, etc. Compared to the low-dimensional sequences (e.g., natural languages), however, predicting the future frames is much more challenging due to the complex spatio-temporal dynamics of pixels in high-dimensional space. This talk aims to introduce some of the cutting edge techniques in video prediction based on deep generative models, and discuss some promising approaches in this direction.
김동우
POSTECH소셜 네트워크나 분자 그래프와 같은 다양한 그래프 형태의 데이터는 일반적인 순방향 신경망 및 컨볼루션 신경망으로 학습이 불가능하다. 최근 몇년간 이러한 문제들을 해결하기 위해 다양한 그래프 신경망 기법들이 소개되었다. 본 강연에서는 심층 신경망 모델을 일반화하여 구조화된 데이터를 그래프로 표시하는 그래프 신경망(GNN)의 핵심 아이디어를 시작으로 초창기 그래프 신경망들이 가지는 문제점들을 해결하기 위해 제안된 최신의 그래프 신경망 모형들에 대해 다루는 것을 목표로 한다. 또한 이러한 그래프 신경망이 적용된 추천 시스템 및 자연어 처리 등의 응용 분야에 대해서 살펴보도록 한다. 또한 이러한 그래프 신경망을 활용한 생성적 그래프 신경망과 그 응용분야에 대해서도 다룰 것이다.
김세훈
Kakao BrainGenerating high-quality images from text prompts is a very interesting task and has many potentials in various applications. After OpenAI’s DALL-E, many attempts have been proposed to show that generative models from hundreds of millions of image-text pairs can create impressive images highly coherent with text prompts. In this talk, I will introduce the basic idea of autoregressive (AR) models in image generation tasks, and how to combine AR models with vector quantization approaches for generating high-resolution natural images given text prompts. Then, I will also introduce the fundamental ideas of diffusion-based models and recently proposed architectures including GLIDE. Lastly, I will cover our approaches to improve the performance of text-to-image generation models.
김은솔
한양대학교본 발표에서는 self-supervised learning 기법 중 하나로 최근 활발하게 사용되고 있는 contrastive learning을 소개한다. 2000년대 초반에 제안된 contrast loss를 시작으로 최근 MoCo, SimCLR, NCE loss 등이 제안된 흐름을 살펴보고, 그 방법들의 특성을 이론적으로 살펴본다. 또, 실제 문제에서 contrastive learning으로 학습할 때의 문제점과 해결 방법을 공유하며 대용량 비디오 데이터를 constrastive learning 기법으로 학습한 실험 결과를 소개한다.
Early Registration (~ 2월 14일) |
Late Registration (2월 15일 ~ 18일) |
||
---|---|---|---|
Academy | 교수 | 20만원 | 30만원 |
학생 | 10만원 | 20만원 | |
Industry | 20만원 | 30만원 |