Post-AI를 대비한 인공지능 융합 심포지엄 
- 뇌로부터 첨단 응용에 이르는 차세대 AI 기술 -
서울대학교 글로벌 컨벤션 프라자 (512, 513호)   /   2018년 10월 18일~2018년 10월 19일

강연요약

강연자 강연 내용
신진우 교수
(KAIST)
Anytime neural prediction: application to video streaming
 
 최근 심층신경망의 구조는 인식률을 높이기 위해서 레이어 수를 늘리고, 각 레이어의 구조를 더욱 크고 복잡하게 디자인 하고 있는 추세이다. 하지만 이러한 딥 러닝 알고리즘은 많은 파라미터를 요구함에 따라 메모리 요구량과 처리 속도가 증가하는 단점이 있다. 최근에는 딥 러닝 레이어의 수, 파라미터 수를 줄이면서도 유사한 성능을 내기 위한 연구가 시도되고 있지만, 이러한 정적인 알고리즘 구조는 근본적으로 높은 성능을 얻는 데에 한계가 있고, 많은 응용들에서는 동적인 구조를 요구한다. 본 강의에서는 심층신경망의 구조를 동적으로 조절하면서 성능을 최대한 유지하는 새로운 기법을 소개하고, 비디오 실시간 전송에서의 응용을 설명한다.
강인호 박사
(네이버)
Clova: Put AI Everywhere
 
  한국의 검색 1위 사업자인 네이버와 일본을 중심으로 세계적 메신저 사업자인 라인이 Clova 라는 AI 플랫폼을 만들기 위해서 힘을 합쳤다. AI 플랫폼이 되기 위해서는 PC와 모바일 검색에서뿐만 아니라 스마트스피커, IoT, 자동차 내비게이션 등 어느 곳에서나 어떤 순간에도 사용자의 의도를 만족시키는 기술 개발이 필요했다. 다양한 입력 수단과 출력 방식을 지원하는 것에 더해서 ​점점 더 똑똑하게 사용자 의도를 만족시키기 위해서 장비에 따른 사용자의 문맥을 잘 파악하는 기술과 기존 관련 문서를 나열하는 수준이 아닌 사용자가 쉽게 이해가 가능하도록 답변 부분만을 찾아 요약하는 기술 개발이 특히 필요했다. 본 강의에서는 AI 플랫폼을 개발하고 사업을 하는데 있어서 당면하는 기술적인 이슈들과 개발과 서비스를 통해 획득한 경험을 공유하려고 한다.
홍태화 수석
(삼성전자)
모바일 AI 현황 및 전망(Bixby Vision 사례 중심)
 
  딥 러닝 기술의 획기적인 발전과 모바일 프로세서의 딥러닝 가속 프레임워크의 도입으로 인해 모바일 환경에서도 많은 AI 기술이 사용자에게 소개되고 있다. 삼성전자 모바일 카메라에 탑재된 'Bixby Vision'과 같은 Visual Search 기능에서 이미 그러한 연구 및 적용이 시작되었고 다양한 기술과 시나리오들이 준비되어 있는 상황이다. 본 발표에서는 Bixby Vision을 중심으로 모바일 환경에서 AI 기술이 어떻게 활용되고 향후 어떤 전망을 갖고 있는 지 다루고자 한다.
김진섭 박사
(한국뇌연구원)
Neural Computations Help Understand Neural Computations
 
  퍼셉트론에서 심층신경망에 이르는 인공신경망은 동물 신경회로의 작동 기전에서 힌트를 얻어 발전해왔다. 예를 들어, 고양이 시각 피질에서 발견된 신경세포들의 작동 방식에서 비롯한 합성곱 신경망(convolutional neural network)은 특히 영상 처리에 장점이 있는 심층신경망의 큰 축이다. 이는 특정 문제 해결을 위한 인공신경망을 설계하기 위해서는 해당 신경회로를 모방하는 것이 유리하며, 인공지능의 발전을 위해 신경과학으로부터의 영감이 필요하다는 근거가 된다. 한편, 신경과학과 인공지능의 발전은 한 방향으로만 일어나지 않는다. 현대 신경과학 실험에서 산출되는 대규모 데이터는 인공지능을 이용한 분석을 필요로 한다. 이 강의에서는 전자현미경으로 촬영된 고해상도 대용량 신경 영상을 합성곱 신경망 인공지능과 크라우드 소싱을 활용하여 분석함으로써 신경회로의 구조를 파악하고 신경연산(neural computation) 기전을 밝혀낸 연구를 소개한다. 또한 이를 확장하여 인공지능과 신경과학이 양의 되먹임 순환 구조를 갖고 발전하는 연구 체제를 전망해보기로 한다.
Chan Chee Seng 교수
(University of Malaya)
Conditional Synthesis of Natural Image and Artwork with Generative Adversarial Network
 
  Recently, Goodfellow et al. proposed an interesting features learning model called Generative Adversarial Networks (GAN) by employing two neural networks that are adversarially trained. Unlike the traditional deep discriminative models, the representations learned by GAN can be visualized through the generator in GAN in the form of synthetic images. Since then, many extensions of GAN have been introduced and showed excellent performance in generating random photo-realistic images, inferring that GAN is able to learn better visual representations compared to other generative models. However, limited attention has been given to learn visual representations and generate samples from the more abstract artworks. This presentation will discuss a series of new approaches to improve GAN for conditional image synthesis and in particularly, it will focus on ArtGAN. One of the key innovation of ArtGAN is that, the gradient of the loss function w.r.t. the label (randomly assigned to each generated image) is back-propagated from the categorical discriminator to the generator. With the feedback from the label information, the generator is able to learn more efficiently and generate image with better quality. Empirical results showed that ArtGAN outperformed the state-of-the-art results on CIFAR-10 in terms of Inception score. Qualitatively, ArtGAN demonstrated that it is able to generate plausible-looking images on Oxford-102 and CUB-200, as well as able to draw realistic artworks based on style, artist, and genre.
송진우 교수
(연세대학교)
Hardware Acceleration of Neural Network Computing
 
  The advance of computing systems and explosive growth of data production have sparked unprecedentedly rapid evolution of machine learning. A family of neural networks (NN) provide state-of-the-art accuracy among machine learning algorithms, and general purpose graphics processing units (GPGPU) have paved the way for it. However, GPUs have critical drawbacks in that they cannot deliver desirable performance per watt. Developing specialized hardware for NN computing, a.k.a. neural network accelerators or neural network processing units (NPU), emerges in this context. This presentation overviews recent races for the development of neural network accelerators, encompassing field-programmable gate arrays (FPGAs), application-specific integrated circuits (ASICs), and conventional processing units such as CPUs and GPUs.
박용운 수석
(국방과학연구소)
인공지능기술의 국방 활용 및 도전
(Application and Future Challenge of AI Technology for Military Systems)
 
  국방 분야에서도 최근 인공지능 기술의 적용을 통하여 지능화 및 자율화에 노력을 경주하고 있다. 우선 단기간에 효과를 극대화하기 위한 국방 분야의 인공지능 연구현황을 소개하고, 후반부는 미래 국방 무기체계를 위한 연구개발 방향을 소개한다. 주요 진행 연구 부분은 기존에 개발된 알고리즘을 인공지능 기반으로 개선하는 무인로봇연구, 무인차량 강화학습용 Photorealistic 시뮬레이터 개발, 다수의 드론을 인공지능 기술로 대응하는 연구, 수중물체를 인공지능으로 탐지하는 연구, 가상데이터 획득을 통하여 학습데이터를 확보하는 연구, 기타 감시정찰적용 연구 등이 포함된다. 후반부는 인공지능 기술의 적용을 통하여 국방의 다양한 분야에서 운용 및 성능의 혁신이 요구되는 도전분야에 대해서 간략하게 소개한다.
김래현 박사
(한국과학기술연구원)
 
-컴퓨터 인터페이스 기술의 현황 및 전망
 
  뇌-컴퓨터 인터페이스(BCI, Brain-Computer Interface)는 사람의 뇌 활동을 측정하여 생각, 의도, 감정 등을 분석하고, 이러한 정보를 명령으로 변환하여 다양한 외부기기를 제어하거나 사용자의 의사, 의도를 외부에 전달하기 위한 기술을 말한다. BCI 기술은 처음에는 사지마비 환자가 외부와의 의사소통을 위한 기술로 시작되었지만, 이후 정신질환의 진단 및 치료, 노약자와 장애인의 재활 및 생활 보조 기술로 확대되고 있다. 향후 BCI 기술은 인공지능과 IoT 기술 등과 융합되어 일상생활에서 사용되는 가전이나 원격로봇 같은 주변 기기의 제어에도 널리 활용되리라 기대되고 있다. 본 강의에서는 뇌-컴퓨터 인터페이스의 기술의 최근 적용사례를 중심으로 기술현황과 전망을 살펴본다. 추가적으로 현재 수행중인 뇌-컴퓨터 인터페이스 관련 연구들도 소개한다.
정혜동 센터장
(KETI)
세상을 연결하는 가교로서의 인공지능 컴패니언
 
  인공지능은 기존의 전문가 시스템과 더불어 실생활에 적용 가능한 인공지능 기술로 발전하고 있다. 특히 사용자의 생각과 의도를 이해하고 공감하여 반응하는 지능형 에이전트 기술인 인공지능 컴패니언 기술은 많은 사람들이 늘 곁에 두고 활용하고 싶어하는 대표적 인공지능 기술이다. 이러한 인공지능 컴패니언 기술은 특히 일상생활의 불편함이 있는 사용자에게 다양하고 실질적인 도움을 줄 수 있어 그 연구 가치와 공익성이 높다고 할 수 있다. 본 강의에서는 청각장애인을 위한 인공지능 수어 인식 컴패니언 기술을 중심으로 인공지능이 세상을 연결하는 가교로서의 역할과 그 미래에 대해 소개하도록 한다.
김종환 교수
(KAIST)
디지털 동반자를 위한 기계지능학습
 
   기계지능(MI)을 구성하는 핵심 요소는 능동적인 지식 획득과 적응적인 지식 적용이다. 이 기계지능은 인공지능(AI)과 연산지능(CI)을 기반으로 하여 기계학습을 통해 구현되며 학습된 결과는 장기메모리에 기억된다. 장기메모리인 일화, 의미, 절차 및 감성 기억들의 설계 방법과 이들의 통합 구현 및 이 기계지능에 인간 수준의 지능을 부여하기 위한 기계지능학습(MIL)을 제시한다. 이 MIL은 인간 지능을 모사하는 학습 기법으로, 개인화된 (Personalized) 학습이고, 성장형(Developmental)이며, 새로운 것을 배울 때 이미 배운 것을 잊지 않는 연속(Continual) 학습으로 강화학습이 통합된 빠른(Rapid) 학습기법이다. 기계지능은 지능운영아키텍쳐(iOA)를 통해 구현되며, 이는 다양한 알고리즘들을 unified system으로 구성할 수 있다. 기존의 기계학습은 주어진 영역에서 특정 목적으로 개발되어 적용되었으나, 이러한 알고리즘들을 iOA에 통합하여 종합적인 지능을 보인다. 본 연구의 유효성을 보이기 위하여, 3D 에이전트를 내장한 스마트폰 데모 실험과 KAIST RIT 랩에서 개발한 Mybot에 적용한 실험 동영상을 소개한다.
이민호 교수
(경북대학교)
디지털 동반자를 위한 맥락정보를 이해하는 지능형 인터랙션 기술
 
  디지털 동반자를 구현하기 위해서는 사용자의 주변 상황과 의도를 이해하고 적절한 순간에 최적의 방법으로 필요한 서비스를 제공하는 새로운 인터랙션 기술이 필요하다. 인공지능 스피커나 스마트 폰에 탑재되어 이용되고 있는 현재의 지능형 에이전트들은 사용자의 요구나 명령에 따라 필요한 자료를 검색하고, 관련 서비스를 제공하는 정도의 인터랙션에 머물러 있다. 개발하고자 하는 새로운 지능형 인터랙션 기술은 사용자가 어떤 서비스를 요구하기 전에 자발적이고 선제적으로 필요한 서비스를 제공하는 보다 능동적이며 지능적인 인터랙션을 제공한다. 사용자의 의도를 제대로 파악하기 위해서는 환경에 따른 사용자의 상태를 맥락 정보를 포함하여 종합적으로 상황을 이해하는 새로운 인공지능 기술이 필요하며, 이 발표에서는 맥락을 이해하는 새로운 딥러닝 기반 인공지능 모델을 소개하고, 현재까지 구현된 시스템의 성능을 실험적으로 보인다.
이수영 교수
(KAIST)
감성과 윤리의식을 이해하고 표현하고 반응하는 대화 에이전트
 
  인공지능의 주요 응용 제품으로 Smart Speaker 등 대화 에이전트가 꼽히고 있지만, 인간의 진정한 디지털 동반자로 인정받기 위해서는, 스스로 내면상태를 가지고 사람의 내면상태를 이해하며 반응하는 능력이 필요하다. 다양한 내면상태 중에서, 특히 감정과 윤리의식이 인공지능 디지털 동반자에게 중요하다. 본 과제는 "감성적 대화를 통해 정서적 공감대를 형성할 수 있는 디지털 동반자용 감성지능 개발"을 목표로 학제적 멀티모달 연구를 수행한다. 먼저, 사용자 특성(나이대, 성별, 이름 등)은 물론, 감정과 윤리의식을 이해하기 위하여 대화문과 음성, 비디오를 융합하여 인식한다. 또한, 에이전트 자체가 개성과 감정, 윤리의식을 가지고 적절한 대화문을 생성하고, 음성합성(TTS)과 얼굴표정으로 표현한다. 감정구분은 널리 사용되는 7가지 감정과 2차원 감정공간을 활용한다. 윤리의식은 비윤리언어와 딜레마 문제 이외에도, 최근 활발히 연구되기 시작한 알고리즘 형평성(algorithmic fairness 또는 bias) 문제를 해결하고자 한다. 궁극적으로는 인간과 다양한 인공지능(자율주행차, 지능로봇, 인공비서 등) 사이의 인터페이스로 활용되기를 기대한다.
이윤근 그룹장
(ETRI)
ETRI 인공지능 연구현황 및 핵심기술 소개
 
 ETRI 지능정보연구본부에서는 국내 지능정보 산업 활성화를 위해 Technology Enabler를 목표로 하며, 4차 산업혁명 시대를 견인할 핵심 기술인 언어지능, 음성지능, 시각지능, 스마트 데이터 분야를 연구한다. 다양한 인공지능 영역들 중에서 선택과 집중을 통해 지능정보 핵심요소 기술을 확보하며, 확보된 기술을 오픈 API 플랫폼을 통해 공급 및 확산함으로써 산업 생태계 활성화를 지원한다. 본 강의에서는 현재 ETRI에서 진행하고 있는 인공지능 연구 중 중요한 핵심 기술과 이를 이용한 서비스 사례를 소개한다.
김기응 교수
(KAIST)
딥 강화학습
 
  최근 강화학습으로 훈련된 알파고 등이 인간 고유의 영역이라고 여겨졌던 바둑과 같은 난제들을 성공적으로 해결해내는 모습을 보이면서, 강화학습에 대한 일반인들의 관심이 집중되고 있다. 강화학습은 기계학습의 한 분야로서, 인식과 판별의 지능이 아닌 행동의 지능을 다룬다. 본 강의에서는 강화학습의 전통적 접근법에서부터 출발하여, 최근 딥 신경망을 활용한 딥 강화학습의 방법론들과 성공 사례들을 살펴본다. 그리고 이러한 기술들을 활용한 모방학습에 대해서도 다루도록 한다. 마지막으로, 강화학습의 한계점들을 짚어보고 앞으로 연구되어야 할 중요한 주제들을 소개하도록 한다.
최재식 교수
(UNIST)
시계열 데이터 분석을 통한 의사결정 이유를 설명하는 인공지능
 
  최근 발전한 인공지능 기술은 복잡한 모델이 융합되어 있거나 내부에 수많은 매개변수를 담고 있어서, 그 내부의 의사결정 과정을 이해하기가 어렵다. 이런 인공지능 기술이 최근 금융, 국방, 의료 등 중요한 작업(mission critical)에 사용되기 시작하면서, 그 의사 결정 과정의 투명성과 설명성이 중요하게 되었다. 최근 EU에서 발효된 일반정보보호 규정은 이런 자동화된 의사 결정에 대한 설명성을 법적으로 요구하게 되었다. 본 강의에서는 딥러닝을 설명하는 최근 연구 동향을 설명하고, 시계열 데이터를 설명할 수 있는 설명가능 인공지능 연구를 소개한다.
유창동 교수
(KAIST)
비디오 튜링 테스트(Video Turing Test): 인간 수준의 비디오 이해
 
  비디오 이해를 위한 이벤트-상황 지식체계 학습 및 이벤트인식/관계추론 기술 개발로 인식 분야에서 현재의 인공지능 기술이 갖고 있는 근본적인 한계를 극복할 수 있는 새로운 딥러닝 아키텍쳐 기반의 인식기술과 이벤트-상황 지식체계를 학습하고 개발하는 것을 목표로 비디오튜링 테스트를 수행한다. 이를 위하여, 드라마 비디오로부터 빅데이터와 딥모델을 기반으로 상황에 맞는 인식기술을 개발하고 문맥에 맞는 인식의 결과를 도식화하며 질의에 대한 답변을 추론 가능할 수 있는 연구 내용을 소개한다.

ALL CONTENTS COPYRIGHT 2018 THE INSTITUTE OF ELECTRONICS AND INFORMATION ENGINEERS
사업자등록번호:220-82-01685 (우) 06130 서울특별시 강남구 테헤란로7길 22 (역삼동, 과학기술회관) 신관 907호
(사)대한전자공학회 대표: 백준기 / 전화: (02) 553-0255~7 FAX: (02) 552-6093 / E-mail: ieie@theieie.org