한국정보과학회 인공지능 소사이어티에서는 “The AI KOREA” 행사를 2018년 7월 26, 27일 양일간 코엑스에서 개최합니다. 인공지능 소사이어티는 국내 인공지능분야 최상위 연구자들의 학술 단체로서 인공지능 시대의 도래와 이에 따른4차 산업 혁명에 대비하고자 이번 행사를 기획하였습니다.

다가올 인공지능 시대가 어떤 모습일지는 누구도 알 수 없지만, 아마 많은 분들이 궁금해하시는 사항에 대해 정보를 교류하고, 논의할 수 있는 행사가 될 것으로 기대합니다. 준비한 각 세션 정보는 다음과 같습니다.

Section 1
국내외 최신 인공지능 기술의 수준은 어느 정도일까요?
인공지능 분야에서 최고 권위를 갖는 국제 학술대회 및 학술지에 최근 논문을 발표한 연구자들이 한 자리에 모였습니다.
Section 2
급변하는 인공지능 기술을 따라가기 어려우신가요?
패턴인식 및 기계학습 여름학교에서는 국내 최고 연구자들이 인공지능 기술의 이론과 응용을 심도있게 강의합니다.
Section 3
인공지능 분야에 입문하시고 싶으신가요?
알기 쉬운 인공지능 여름학교에서 시작해보시면 어떨까요.
Section 4
국내 산업계 인공지능 기술 현황이 궁금하신가요?
인공지능 산업체 세션에서 다양한 분야의 기술 적용사례를 체험해 보십시요.

많은 관심, 참여, 조언을 부탁드립니다.

AI KOREA 2018 조직위원회

2018.7.26 (목)
시간내용
9:20 - 9:50Registration
9:50 - 9:55개회 인사말
김 선 (서울대) / 인공지능 소사이어티 회장
Chair: 김진형 (AIRI)
9:55 - 10:00축사
김진형 / Artificial Intelligence Research Institute (AIRI) 원장
Chair: 김진형 (AIRI)
10:00 - 10:30Keynote Speech 317호
장병규 4차 산업혁명위원회 위원장
Chair: 김진형 (AIRI)
10:30 - 10:40Coffee Break
10:40 - 11:50 세션1 317호
(Invited TALKS)
윤성로 / 조성배
Chair: 김기웅 (KAIST)
세션4 327호
(산업체 인공지능 세션)
이준영 / 김의중 / 최준기
Chair: 배창석 (대전대)
11:50 - 13:20Lunch Break & Poster 세션
13:20 - 14:30 세션1 317호
(Invited TALKS)
신진우 / 양홍석
Chair: 조성배 (연세대)
세션2 318호
(패턴인식/기계학습 1)
노영균(서울대)
Chair: 윤성로 (서울대)
세션3 327호
(알기 쉬운 인공지능 1)
최용석(한양대)
Chair: 조근식 (인하대)
14:30 - 14:50Coffee Break
14:50 - 16:00 세션1 317호
(Invited TALKS)
강재우 / 김선
Chair: 채희준 (숙명여대)
세션2 318호
(패턴인식/기계학습 2)
신현정(아주대)
Chair: 오현석 (광주과기원)
세션3 327호
(알기 쉬운 인공지능 2)
최용석(한양대)
Chair: 이병한 (서울과기대)
16:00 - 16:10Break
16:10 - 17:20 세션2 318호
(패턴인식/기계학습 3)
황성주(KAIST)
Chair: 노영균 (서울대)
세션3 327호
(알기 쉬운 인공지능 3)
주재걸(고려대)
Chair: 박운상 (서강대)
17:20 - 18:00Keynote Speech 317호
Daniel D. Lee 삼성리서치 부사장 & Cornell Tech
Chair: 김선 (서울대)
2018.7.27 (금)
시간내용
9:30 - 10:00Registration
10:00 - 10:40 세션1 317호
(Invited TALKS)
오성회 / 이성환 / 황형주
Chair: 최호진 (KAIST)
세션4 327호
(산업체 인공지능 세션)
이재준 / 김선희 / 장세영 / 엄재홍
Chair: 이상국 (가톨릭대)
10:40 - 12:00 세션2 318호
(패턴인식/기계학습 4)
송현오(서울대)
Chair: 신현정 (아주대)
12:00 - 13:30Lunch Break & Poster 세션
13:30 - 14:50 세션1 317호
(Invited TALKS)
황성주 / 양은호
Chair: 김은솔 (카카오브레인)
세션2 318호
(패턴인식/기계학습 5)
최재식(UNIST)
Chair: 오일석 (전북대)
세션3 327호
(알기 쉬운 인공지능 4)
김인중(한동대)
Chair: 이태헌 (중앙대)
14:50 - 15:10Coffee Break
15:10 - 16:30 세션1 317호
(Invited TALKS)
곽수하 / 김건희
Chair: 노영균 (서울대)
세션2 318호
(패턴인식/기계학습 6)
최승진(POSTECH)
Chair: 최재식 (UNIST)
세션3 327호
(알기 쉬운 인공지능 5)
우운택(KAIST)
Chair: 김인철 (경기대)
16:30 - 16:40Break
16:40 - 18:00 NVIDIA DEEP LEARNING COMMUNITY
  • NVIDIA ACADEMY PROGRAM
  • HPC + AI Framework
317호
Chair: 최승진 (POSTECH)
Everyone Welcome!
세션3 327호
(알기 쉬운 인공지능 6)
우운택(KAIST)
Chair: 이지형 (성균관대)
18:00 - 19:30 저녁식사 및 네트워킹 209호
Invitation Only — Seatings are limited
  • 이 프로그램은 사정에 따라 변경될 수 있습니다

Keynote Speech

장병규 / 4차 산업혁명위원회 위원장
한국의 인공지능 R&D 전략
인공지능은 단순한 신기술이 아니라 각국 경제 성장에 비약적인 파급효과를 불러일으키는 경제‧사회 대변혁의 핵심 동력으로, 국민들의 삶의 질과 국가 경쟁력 제고를 위해 적극적이고 능동적 대응이 필수적이다. 현재 우리나라의 인공지능과 관련된 대응은 美‧中 대비 취약하지만 인공지능의 기반이 되는 ICT 산업이 두루 발전되어 있고, 분야별로 상당한 데이터가 축적되어 있기 때문에 다른 나라에 비해 여건이 나쁘지 않은 편이다. 또한, 아직 많은 산업분야가 인공지능 적용을 시작하는 단계로, 한국이 전략적으로 빠르게 대응한다면 경쟁력 확보가 가능하다. 이러한 문제의식 아래, 우리 정부는 지난 5월 글로벌 인공지능 경쟁력 강화를 위한 전략을 발표하였다. 본 강연에서는 ‘인공지능 R&D 전략’에 대해 소개하고, 한국정부의 인공지능 정책방향에 대해 알아보고자 한다.
Daniel D. Lee / Executive Vice President at Samsung Research and Professor at Cornell Tech
Machine Learning in Autonomous Systems: Theory and Practice
Current AI systems for perception and action incorporate a number of techniques: optimal observer models, Bayesian filtering, probabilistic mapping, trajectory planning, dynamic navigation and feedback control. In order to model data variability due to pose, illumination, and background changes, low-dimensional manifold representations have long been used in machine learning. But how well can such manifolds be processed by neural networks? I will briefly describe and demonstrate some of these methods for autonomous driving and for legged and flying robots, and contrast these models with neural representations and computation.

Section 1

조성배/연세대학교
Hybrid Deep Learning for Anomaly Detection
In the field of deep learning, a generative model via an adversarial process gets a great attention due to the amazing demonstration of performance. It can simultaneously train a generative model to capture the data distribution, and discriminative model to estimate the probability that a sample came from the training data. In this talk, I will present a new method of transfer-generative adversarial network (tGAN) with auto-encoders to detect anomaly in malicious software (malware) for computer security. The proposed method of malware detection treats zero-day attacks by generating fake malware and learning to distinguish it from real malware. The data generated from a random distribution are similar but not identical to the real data: it includes modified features compared with real data. The detector learns various malware features using real data and modified data generated by the tGAN based on a deep auto-encoder (DAE), which stabilizes the GAN training. Before training the GAN, the DAE learns malware characteristics, produces general data, and transfers this capacity for stable training of the GAN generator. The trained discriminator passes down the ability to capture malware features to the detector, using transfer learning.
김선/서울대학교
CNN models for biological sequences and genetic interaction
Deep learning technologies are being used in analyzing molecular biology data such as biological sequences and gene expression analysis data. A major difficulty in analyzing molecular biology data is that features distinguishing class labels are not easily detectable. Thus, use of convolutional neural networks (CNN) is attractive since CNN can make a good abstraction of data while identifying localized patterns from big data. Unfortunately, availability of molecular biology data is limited, thus use of CNN and other deep learning technologies is not trivial. In this talk, we will present two successful cases of applying CNN to the analysis of biological sequence analysis and genetic interactions among breast cancer subtypes. The first topic is how to model protein families using biological sequences. The state of the art method for modeling protein families is to use profile hidden Markov models (pHMM) that utilize position specific modeling of characters in sequences. However, use of position specific modeling techniques makes the technique computationally slow. Use of k-mers in the hope of developing faster modeling methods has not been successful due to the poor prediction accuracies. DeepFam (ISMB 2018), the CNN model that we developed, achieves better prediction accuracies than pHMM while retaining computational efficiencies of the k-mer approaches. The second work (IJCAI 2018) that we developed recently is to model genetic interactions in breast cancer subtypes using graph CNN together with relation learning techniques. Our method achieves significantly better prediction accuracies than existing methods for the classification of breast cancer subtypes using gene expression data from The Cancer Genome Atlas (TCGA), capturing complex interaction information among genes. Joint work with Sungmin Rhee, Seokjun Seo, Minsik Oh and other students in BHI lab @ SNU.
윤성로/서울대학교
Deep Learning for Sequential Data Understanding
In this talk, I will present recent research outcomes from my lab on applications of deep learning to sequential data modeling and prediction. I will cover quantized memory-augmented neural networks for question-answer tasks. These neural networks outperform conventional recurrent neural networks (RNNs) in terms of learning long-term dependency, allowing them to solve intriguing AI tasks that would otherwise be hard to address. Another topic will be on applications of deep learning to biochemical data such as predictions of genome editing efficiency and drug-drug interaction. In our studies, carefully designed deep learning-based approaches significantly outperform conventional methodologies.
오성회 / 서울대학교
Sparse Markov Decision Processes
In this talk, I will introduce a sparse Markov decision process (MDP) with novel causal sparse Tsallis entropy regularization. The proposed policy regularization induces a sparse and multi-modal optimal policy distribution of a sparse MDP. The optimality condition of a sparse MDP and sparse value iteration will be discussed and compared to existing methods. The convergence and optimality of sparse value iteration will be presented. Interestingly, it can be shown that the performance error of a sparse MDP has a constant bound, while the error of a soft MDP increases logarithmically with respect to the number of actions. In addition, I will introduce a maximum causal Tsallis entropy (MCTE) framework for imitation learning which can efficiently learn a sparse multi-modal policy distribution from demonstrations and describe its properties. Experimental results on reinforcement learning and inverse reinforcement learning problems will be discussed.
김건희/서울대학교
MemoryGAN: Learning Unsupervised GANs with Memory Networks
We propose an approach to address two issues that commonly occur during training of unsupervised GANs. First, since GANs use only a continuous latent distribution to embed multiple classes or clusters of data, they often do not correctly handle the structural discontinuity between disparate classes in a latent space. Second, discriminators of GANs easily forget about past generated samples by generators, incurring instability during adversarial training. We argue that these two infamous problems of unsupervised GAN training can be largely alleviated by a learnable memory network to which both generators and discriminators can access. Generators can effectively learn representation of training samples to understand underlying cluster distributions of data, which ease the structure discontinuity problem. At the same time, discriminators can better memorize clusters of previously generated samples, which mitigate the forgetting problem. We propose a novel end-to-end GAN model named memoryGAN, which involves a memory network that is unsupervisedly trainable and integrable to many existing GAN models. With evaluations on multiple datasets such as Fashion-MNIST, CelebA, CIFAR10, and Chairs, we show that our model is probabilistically interpretable, and generates realistic image samples of high visual fidelity. The memoryGAN also achieves the state-of-the-art inception scores over unsupervised GAN models on the CIFAR10 dataset, without any optimization tricks and weaker divergences.
이성환 / 고려대학교
Deep Reinforcement Learning in Continuous Action Spaces Under Uncertain Environment: Curly
대부분의 인공지능 기반 시스템에 대한 연구는 주로 가상 환경 또는 실험실 환경에서 진행되어 왔다. 본 연구진에서는 스스로 경기 상황을 인식한 후 경기 전략을 수립하는 컬링 인공지능 기능과 함께, 실제 컬링장의 아이스 시트에서 경기 수행이 가능한 인공지능 컬링 로봇인 ‘컬리(Curly)’를 개발 중에 있다. 컬링 인공지능은 크게 컬링 경기 대용량 DB, 빙판의 마찰 변화 및 스위핑 효과 등의 표현이 가능한 사실적 컬링 시뮬레이션, 컬링의 불확실성을 반영한 딥러닝 기반의 전략 수립 기술, 경기 중에 변하는 빙질에 따라 실시간으로 적응하는 강화학습 기반의 빙질 상태 예측 기술 등으로 이루어져 있으며, 최종적으로 컬링 로봇이 경기 상황과 실제 환경에 맞는 최적의 컬링 전략을 수립하고 경기를 수행할 수 있도록 하였다. 본 강연에서는 현재까지 개발된 인공지능 컬링 로봇 기술에 대해서 소개한다.
강재우/고려대학교
빅데이터와 기계학습기반 정밀의료
정밀의료는 매우 도전적인 빅데이터와 기계학습 문제이다. 멀티오믹스 실험데이터, 환자 의료 기록, 생명의료분야 과학 문헌과 같은 대규모의 복잡한 이종 데이터로부터 파생 된 정보를 통합, 분석 및 해석해야하기 때문이다. 이 문제를 해결하기 위해 다양한 생명의료 빅데이터의 정보를 추출하고, 지식을 구조화하기 위해 정보를 연결하며, 이를 기반으로 새로운 지식을 추론하고 검증 가능한 가설을 생성하고, 데이터 기반 예측을 할 수 있는 새로운 컴퓨팅 플랫폼을 개발해야한다. 이번 강연에서는 이 목적을 달성하기 위해 본 연구팀에서 현재 진행 중인 몇 가지 프로젝트를 소개하고, 최근에 참여한 두 개의 DREAM Challenge 컴피티션 (약물조합시너지예측과 프로티오지노믹스)에서의 경험을 공유 하고자 한다.
황성주/KAIST
Dynamically Expandable Networks
In this talk, I will introduce a novel deep network architecture for lifelong learning referred to as Dynamically Expandable Network (DEN), that can dynamically decide its network capacity as it trains on a sequence of tasks, to learn a compact overlapping knowledge sharing structure among tasks. DEN is efficiently trained in an online manner by performing selective retraining, dynamically expands network capacity upon arrival of each task with only the necessary number of units, and effectively prevents semantic drift by splitting/duplicating units and timestamping them. We validate DEN on multiple public datasets under lifelong learning scenarios, on which it not only significantly outperforms existing lifelong learning methods for deep networks, but also achieves the same level of performance as the batch counterparts with substantially fewer number of parameters. Further, the obtained network fine-tuned on all tasks obtained significantly better performance over the batch models, which shows that it can be used to estimate the optimal network structure even when all tasks are available in the first place.
양은호/한국과학기술원
Some recent advances in statistical learning with sparsity
In this talk, we consider high-dimensional estimation problems where the number of variables p exceeds the number of observations n. In this regime, consistent estimation can be achieved by imposing low-dimensional structural constraints on the estimation parameters. Sparsity is a prototypical structural constraint, where at most a small set of parameters can be non-zero. A key class of sparsity-constrained estimators is based on regularized M-estimators using convex penalties, with the L1 penalty by far the most common. However recently, there has been significant interest in M-estimators with non-convex penalties, including SCAD and MCP penalties. We discuss the theoretical properties of diverse regularizers and briefly look at their practical usages including some applications in deep learning.
황형주/POSTECH
Mathematical approach to Machine learning algorithm: GAN and Optimal control problem
We introduce mathematical approaches to machine learning algorithms with focus on GAN and some optimal control problem among many other problems, which can be investigated by various mathematical methods.
We first discuss dynamical system approach to generative adversarial networks (GAN). We aim to analyze the convergence property of GAN by using dynamic system approach on simultaneous gradient descent. By this approach, we further seek the unified theory on regularizers and its methods of GAN with suitable conditions, which can explain the convergence properties of various regularization methods.
We next discuss the fixed-final time optimal control problem with nonlinear cost function using the artificial neural network (ANN) solution. The method sequentially follows to derive time-varying Hamilton-Jacobi-Bellman (HJB) equations and to apply the ANN solution in order to determine the weights of the ANN. Also, we provide a result that the ANN solution converges to the optimal control problem when the number of neurons goes to infinity. 
Finally we discuss on possibility of integrating new mathematical methodologies into various machine learning and deep learning algorithms.
곽수하 / POSTECH
Learning Semantic Segmentation with Minimum Supervision
Semantic segmentation is a visual recognition task aiming to estimate pixel-level class labels in images. This problem has been recently handled by Deep Convolutional Neural Networks (DCNNs), which achieve impressive performance on public benchmarks. However, learning a DCNN demands a large number of annotated data for training, while segmentation annotations in existing datasets are significantly limited in terms of both quantity and diversity due to the heavy annotation cost. Weakly supervised approaches have been proposed to handle this issue by leveraging weak annotations such as bounding boxes and scribbles as supervision since they are readily available or easily obtained compared to the segmentation annotations thanks to their low annotation costs. In this talk, I will introduce our recent approaches to weakly supervised semantic segmentation, which exploit as supervision image-level class label, the minimum supervision indicating only presence or absence of a certain semantic entity in image. We tackled this challenging problem by employing (1) unsupervised techniques revealing low-level image structures, (2) web-crawled videos as additional data sources, and (3) DCNN architectures appropriate for learning segmentation with incomplete pixel-level annotations. I will conclude this talk with a few suggestions for future research directions worth to investigate for further improvement.
양홍석/KAIST
확률적 프로그래밍
기계 학습 모델을 쉽게 표현할 수 있는 프로그래밍 언어를 만들고, 이러한 언어로 작성한 모델에 사용할 수 있는 범용 통계 추론 알고리즘을 만들자는 것이 확률적 프로그래밍의 기본 아이디어입니다. 확률적 프로그래밍이 제대로 발전한다면, 추론 알고리즘을 딱히 개발할 필요가 없어져서, 초보자도 손쉽게 기계 학습 모델을 만들어 데이터를 분석할 수 있고, 전문가는 더욱 복잡한 모델을 개발하고 사용할 수 있습니다. 이러한 장점 때문에, 기계 학습, 통계학, 확률론, 프로그래밍 언어, 컴파일러 등 다양한 분야의 연구자들이 현재 관심을 가지고 확률적 프로그래밍을 연구하고 있습니다. 특히 최근에는 심층 신경망과 확률적 프로그래밍의 장점을 결합하는 연구가 활발하게 진행되고 있고, 이러한 연구 결과에 기반한 Edward나 Pyro와 같은 확률적 프로그래밍 언어가 개발되고 있는 상황입니다. 본 강연을 통해 이러한 확률적 프로그래밍과 현재 연구 동향을 소개하려고 합니다. 또한 제가 수행하는 연구에 대해서도 간략하게 설명할 계획입니다.
신진우/한국과학기술원
Detecting Abnormal Samples for Deep Neural Networks
The problem of detecting whether a test sample is from in-distribution (i.e., training distribution by a classifier) or out-of-distribution sufficiently different from it arises in many real-world machine learning applications. However, the state-of-art deep neural networks are known to be highly overconfident in their predictions, i.e., do not distinguish in- and out-of-distributions. Recently, to handle this issue, several threshold-based detectors have been proposed given pre-trained neural classifiers. However, the performance of prior works highly depends on how to train the classifiers since they only focus on improving inference procedures. In this paper, we develop a novel training method for classifiers so that such inference algorithms can work better. In particular, we suggest two additional terms added to the original loss (e.g., cross entropy). The first one forces samples from out-of-distribution less confident by the classifier and the second one is for (implicitly) generating most effective training samples for the first one. In essence, our method jointly trains both classification and generative neural networks for out-of-distribution. We demonstrate its effectiveness using deep convolutional neural networks on various popular image datasets.

Section 2

노영균/서울대학교
Non-Asymptotic Bounds
본 강의에서는 데이터의 통계적 처리와 관련된 추정 함수의 집중도(concentration)의 기본 개념을 다룬다. 추정 함수가 데이터의 수가 증가함에 따라 원하는 값으로 수렴하는지, 또한 수렴하는 정도가 어떻게 되는지 아는 것은 기계학습 알고리즘의 특성을 이해하는 중요한 이론적 도구이다. 본 강의에서는 convergence in probability, almost sure convergence 등의 점근적 수렴(asymptotic convergence) 증명 방법을 간단히 설명하고 Markov inequality, Chebyshev inequality에서부터 Efron-Stein inequality까지의 비점근적 부등식(non-asymptotic inequality)을 설명한다.
신현정/아주대학교
Convex Optimization for Machine Learners
Convex optimization is an important enough topic that everyone who learns machine learning should know at least little bit about it. Many problems in machine learning are based on finding parameters that minimize some objective function. Very often, it is a weighted sum of two components: a cost term and a regularization term. If both of these components are convex, then the problem is a convex optimization problem. There are great advantages to recognizing or formulating a problem as a convex optimization problem. Most importantly, if a function is strictly convex, it is guaranteed to have a unique global minimum, and it can be solved, very reliably and efficiently, using standard methods. There are also theoretical or conceptual advantages that the associated dual problem, for example, often has an interesting interpretation in terms of the original problem, and sometimes leads to an efficient method for solving it. Typical examples of convex optimization problems in machine learning include support vector machines, semi-supervised learning, ridge regression with Tikhonov regularization, whereas neural networks, maximum likelihood mixtures of Gaussians are non-convex problems. In this talk, we give an overview of mathematical optimization, focusing on the special role of convex optimization, and then describe the convex programming formulations of widely known machine learning algorithms.
황성주/KAIST
Advances in Deep Learning
Deep neural networks have large number of parameters, which helps with its learning capacity but also hinders its scalability and practicality due to memory / time inefficiency and overfitting.
To tackle this challenge, researchers have explored various approaches to reduce the number of parameters in deep neural networks.
In this talk, I will go over some recent advances in network pruning, sparsification, and quantization to obtain compact, lightweight networks deployable to large-scale systems or low-power computing environments.
송현오/서울대
Representation learning with deep metric learning and Efficient end-to-end learning for quantizable representations
Learning to measure the similarity among arbitrary groups of data is of great practical importance, and is used in a variety of tasks in machine learning such as feature based retrieval, clustering, near duplicate detection, verification, feature matching, domain adaptation, weakly supervised learning, etc. In this talk, we'll walk through some of the recent methods in deep metric learning and discuss how we can learn efficient quantizable representations for hashing. The work is accepted as a long oral presentation and to appear at ICML2018 and the preprint is available on arXiv at https://arxiv.org/abs/1805.05809
최재식/UNIST
Sequence/Time Series Prediction
Recent advances in artificial intelligence have changed our daily lives dramatically. Recently, a management consulting firm, McKinsey, expected that automation of knowledge work could impact $5-7 trillion worth of labor market across a wide range of industry sectors in 2025. This tutorial will introduce basic concepts and recent advances in time series data prediction. This tutorial will cover linear models, deep neural networks such as Recurrent Neural Network (RNN) and Long-Short Term Memory (LSTM) and non-parametric Bayesian methods including Gaussian Processes and Hawkes Processes. Moreover, this tutorial also presents recent advances which provide the reasons of time series prediction in a human readable form. More specifically, this tutorial will introduce the Relational Automatic Statistician and its application to financial time series prediction.
최승진/POSTECH
Bayesian Optimization and Bandits
We often encounter a problem in practice, where the objective to be optimized is a black-box function, i.e., a closed-form expression of which is not given but expensive evaluations at query points are available. Exemplary problems include hyperparameter optimization in deep learning and algorithm selection for automated machine learning. Bayesian optimization provides an efficient approach to the black-box optimization, in terms of the number of function evaluations required. Bayesian optimization employs the Bayesian technique, placing a prior over the objective function and combining it with the likelihood to calculate the posterior function. This permits determining where next to sample from the objective function, which is done by the acquisition function maximization, balancing exploration and exploitation. This tutorial outlines the estimation of the surrogate function via GP regression and a few different methods for acquisition function maximization.

Section 3

최용석/한양대학교
인공신경망의 기초
본 강좌에서는 딥러닝 모델의 기반이 되는 인공신경망의 기초 이론에 대하여 다룬다. Perceptron 및 Multi-layered Feedforward Network의 기본 구조를 살펴보고 이에 대한 학습을 위한 Error-backpropagation Learning Algorithm을 설명한다. 아울러 고전적 연상 메모리 모델인 Hopfield Memory 및 비지도학습 모델인 Self-organizing Map의 구성 및 응용에 대하여 살펴본다. 마지막으로 고전적 인공신경망 모델을 확장한 형태인 딥러닝 모델에 대하여 핵심적인 개념 및 특성을 중심으로 소개한다. 따라서 본 강좌는 딥러닝의 기반이 되는 인공신경망의 기본 원리를 이해하고자 하는 입문자에게 적합한 내용을 중심으로 진행된다.
주재걸/고려대학교
All about Attentions
Attention models are becoming crucial components in many of the recent deep neural network architectures across diverse applications including computer vision and natural language processing domains. In this talk, I will discuss basic attention models as well as advanced, self-attention and co-attention models, along with their applications. This lecture assumes the basic level of prior knowledge of an audience on convolutional neural networks and recurrent neural networks (e.g., long short-term memory).
김인중/한동대학교
Fundamentals of Convolutional Neural Networks
Convolutional neural networks (CNNs) are the most promising deep learning architectures in recognition, transform, and synthesis of visual data. CNNs are also frequently used in other fields including NLP and speech processing. This tutorial provides a comprehensive introduction to CNNs. First, I'll explain core concepts, structures, and major operations of CNNs and widely used layers. Then, I'll summarize recent advances in structures and learning algorithms as well as success stories in various fields.
우운택/KAIST
Augmented Reality and Augmented Human
Virtual reality and augmented reality (VR / AR) are back! Recently, VR/AR are attracting attention again. In some sense, both VR and AR are both sides of the coin. While the author's imagination, immersion, and interaction are the three main components of VR, the connection of virtuality and reality, accurate three-dimensional registration, and ‘virtuality-reality-user’ interaction are the three key elements of AR. In this lecture I introduce the basic concepts of VR / AR and discuss VR / AR as a new media or platform that extends human capabilities beyond time and space. In particular, I explain the potential of VR / AR combined with IoT (Internet of Things), Big Data, Artificial Intelligence (AI) and 3D maps, and introduce various possible applications in everyday life where 'reality and virtual' coexist and discusses possible future directions. Finally, I will look at the future of Human in VR/AR era and share my view on possible Augmented Human (AH) broadening human’s physical, intellectual and social capacities.

Section 4

이준영 / 넷마블
AI Transformation of Game Business with Columbus
많은 기업들이 인공지능 기술을 통해 기존의 산업을 혁신하고, 새로운 시장을 찾기 위한 노력을 기울이고 있다. 이제 인공지능 기술은 기업에게 ‘선택’이 아닌 ‘필수’ 요소가 되어가고 있는 것이다.
넷마블에서는 게임에 탑재 할 지능형 게임 외에도, 게임 사용자 패턴 분류, 라이프타임밸류 예측, 퍼포먼스광고에 대한 광고수익률(ROAS) 예측, 광고 사기 적발 등 운영 측면에서 효율성을 끌어올릴 수 있는 AI 기술(Columbus Project)를 적용하고 있다.
본 강연에서는 AI기술이 게임 산업에 어떤 영향을 미치고 있는지를 살펴보고, 특히 콜럼버스 프로젝트를 중심으로 게임 업계의 AI 기술의 발전 방향을 소개한다. 또한 기업에서의 AI Transformation 위한 기술 전략과 실제적인 결과로 이어지기 위한 핵심 요소가 무엇인지 소개한다.
김의중/㈜아이덴티파이
First Step to AGI
지난 2016년 3월, 알파고가 몰고 온 인공지능의 파고는 생각보다 높았다. 이 사건은 이미 서구에서는 본격화되고 있었지만 아직까지 인공지능의 변방이었던 우리나라에 인공지능의 잠재력을 선보이는 계기가 되었다. 또한 다른 세계 여러 나라에도 이 사건을 통해 다시 한번 인공지능의 파괴력을 인지하게 되었다. 인공지능 기술은 이제 바둑과 같은 게임뿐만이 아니라 자동차를 스스로 운전하기도 하고 환자의 건강 유무를 진단한다. 전화를 걸어 식당이나 미용실 예약을 하기도 하고 사람의 질문을 알아 듣고 가장 정확한 정보를 제공한다. 최근 기술기업에 투자하는 VC(Venture Capitalist)들은 인공지능 기술로 사업하는 업체에 투자를 결정할 때 인공지능 솔루션이 사람보다 뛰어난 지를 먼저 물어본다. 이제 인공지능 기술은 한 특정(Narrow) 분야에서 사람보다 뛰어난 ANI(Artificial Narrow Intelligence) 범위를 점차 넓혀가고 있다. 최근 선진 IT업체들과 연구소들은 사람과 모든 면에서 대등한 AGI(Artificial General Intelligence) 개발에 들어갔다. AGI는 사람보다 100배 1,000배 월등한 ASI(Artificial Super Intelligence) 바로 앞 단계로 AGI가 완성이 되면 ASI까지 도달은 아마 순식간에 벌어질 것이다. 많은 전문가들은 AGI는 4차 산업혁명과 차원이 다른 인류의 마지막 발명(“The Last Invention”)이 될 것이라고 예견하고 있다.
본 발표에서는 현재 지구 곳곳에서 벌어지고 있는 인공지능 기술의 개발 및 적용 현황을 살펴보고 특히 AGI에 대한 세계적인 연구동향을 소개하고자 한다. 그리고 AGI를 지향하는 아주 작은 첫걸음으로 아이덴티파이가 준비하고 있는 몇 가지 연구들을 간략하게 소개할 예정이다.
최준기 / KT
GiGA Genie 서비스 소개 및 확장전략
KT는 2017년 최초의 인공지능 TV 기가지니를 출시한 이후, 기가지니2, 기가지니LTE 등의 새로운 상품과 서비스를 출시하였음. 특히, 인공지능 TV의 경우 2018년내 150만에 달하는 고객을 확보할 것으로 기대하고 있음. 본 강연에서는 KT AI사업단이 기가지니를 통하여 고객에게 제공하고자 하는 주요 서비스를 소개하고, 서비스 생태계 확장을 위해서 준비 중인 플랫폼과 기반 기술을 소개해 드리고자 합니다.
이재준 / 엔씨소프트
엔씨소프트 AI R&D 소개
엔씨소프트는 AI를 ‘문제를 해결하는 기술도구’로 정의하고, AI 기술을 통해 기존보다 더 나은 해결책을 제공하며 사용자가 새로운 가치를 경험할 수 있도록 노력하고 있습니다. 이를 위해 지난 2011년부터 인재를 꾸준히 모으며 AI 기반 기술을 확보하는 가운데 현업에서 고민하는 좋은 문제를 발굴, 이를 해결하는 AI기술 연구 개발을 진행하고 있습니다. 게임 분야를 중요시하지만, 여기에 국한하지 않고 IT 전체 영역을 대상으로 AI 기술을 통한 혁신과 새로운 가치 창출에 도전하고 있습니다.
본 발표에서는 게임 AI, 음성(Speech) AI, 컴퓨터 비전 AI, 언어(Language) AI, 지식(Knowledge) AI 등 엔씨소프트 AI R&D의 5가지 기술 영역과 진행 과제, 성과 등을 소개하고자 합니다.
김선희/네이버㈜
Clova AI: Future of NAVER & LINE
클로바는 한국의 검색포털 네이버와 일본의 대표 메신저 라인이 함께 만드는 인공지능 플랫폼으로, 네이버와 라인이 연구해온 세계 최고 수준의 검색, 언어처리, 대화, 음성, 이미지, 비전, 추천 등의 인공지능 기술과 네이버와 라인이 보유한 수많은 콘텐츠와 서비스를 하나의 플랫폼으로 제공합니다. Clova AI Research 는 네이버와 라인이 함께 만드는 오감인지 AI플랫폼을 더욱 스마트하게 만들기 위한 머신러닝/딥러닝 기반의 AI 선행 기술을 연구하고 개발합니다. 또한, 클로바 플랫폼을 활용하여 인공지능 서비스를 만들 수 있게 하여 사용자나 다양한 파트너들과 함께 AI 생태계를 만들고 더 편리한 세상을 함께 만들어 나가는 것을 목표로 하고 있습니다. 본 발표는 네이버와 라인에서 현재 제공되고 있는 인공지능 기반 서비스와 인공지능 핵심 기술을 소개합니다.
장세영/머니브레인
대화형 인공지능 기술
최근에 대화형 인공지능 기술은 일상으로 많이 들어와 있으며, 인공지능 스피커와 같은 서비스가 많은 사용자들의 관심을 받으며 인공지능 기술이 생활속에 접목 되고 있다. 대화형 인공지능 기술은 딥러닝 기술을 바탕으로 Intent분석, Entity 분석, Sentiment 분석 등에 기본적으로 사용되고 있다. 이러한 문장 단위의 딥러닝 기술에서 더욱더 발전하여, Context 인식, Multi-Sentence Analysis 등 더욱더 고도화된 연구들이 진행되고 있다. UI/UX관점에서는 이러한 기술들이 챗봇을 통하여 사용자에게 제공되고 있다. 페이스북 등과 같은 메신져를 통하여 많은 챗봇 들이 제공되고 있다. 이러한 챗봇의 제공 영역은 금융, 의료, 고객상담등 다양한 분야로 확대가 되고 있다. 이번 세션에서는 대화형 인공기술의 기술적인 부분을 다뤄보고, 산업계에 적용되고 있는 사례들을 살펴보는 시간을 갖기로 한다.
엄재홍 / SK Telecom
인공지능 비서의 현재와 미래
인공지능의 주요 기술들이 발전함에 따라 최근 이를 이용한 여러 가지 서비스들이 만들어지고 있다. 이러한 서비스들은 이미 예전에 만들어졌던 서비스의 고도화이거나, 또는 전혀 새롭게 만들어진 서비스와 제품이 결합한 형태로 나타나는 등 그 외양적 변화도 다양화되고 있다.
본 강연에서는 “인공지능 비서” 서비스를 중심으로 이러한 변화에 대해 살펴본다. 먼저, 서비스의 출현 배경과 국내외 인공지능 비서의 최근 동향을 살펴보고, 인공지능 비서 서비스들은 어떻게 만들어지는지, 그리고 어떠한 과정이 필요한지에 대해 기술을 포함한 주요 요소들에 대해 살펴본다.
또한, 독립 서비스 제품과 결합한 형태의 인공지능 서비스를 개발하면서 경험적으로 살펴본 현실적 장애 요소들이 무엇인지 살펴보고, 이를 극복하기 위한 협력적 방안과 앞으로의 발전 방향에 대해 살펴본다.
  • 온라인 등록방법 : 온라인 등록 홈페이지에서 정보 작성 후 등록
    온라인 등록 홈페이지
  • 등록비는 현금 및 카드결제 가능
    입금 계좌 : 우리은행 792-067857-13-018 (예금주: (사)한국정보과학회)
    사전 등록사전 등록 후
    일반30만원35만원
    학생15만원20만원
  • 등록비에는 점심 제공이 포함됩니다.
  • 기타사항
    1. 납입증명서, 참가확인서가 필요하신 경우, 최희수 주임에게 메일 주시기 바랍니다.
    2. 참가확인서는 행사종료 후 발급가능합니다.
    3. 지방소재 대학 학생 travel grant 선별적 지원 (당일 현장 등록데스크 문의)
  • 지하철 2호선 삼성 역 하차 (6번 출구)
  • 지하철 9호선 봉은사 역 하차 (7번출구)
  • 일반버스 : 146번, 301번, 401번, 351번, 2415번, 3217번
Top