장학퀴즈 압승, 토종 AI ‘엑소브레인’ 남은 과제는

Printer-friendly versionPrinter-friendly versionSend by emailSend by email
정답률 88%, 수능 만점자에 160점 앞선 510점
Wednesday, November 23rd, 2016
AC

사진/ EBS 캡처

바둑 대국에서 인공지능(AI)에 인간이 패배한 충격이 가실 즈음 또 하나의 흥미로운 두뇌게임이 펼쳐졌다. 세 살 된 국산 AI '엑소브레인(Exo-brain)'과 인간 퀴즈왕과의 대결.

충분히 예측 가능한 결과였다. 이세돌 9단은 슈퍼컴퓨터 1천202대가 연결된 최신 알고리즘 의 알파고를, 인간 퀴즈왕은 도서 12만권 분량에 해당하는 지식을 담고 있는 엑소브레인을 대적해야 했다. 승부는 필연적으로 엑소브레인의 승리로 끝났다.

지난 18일 대전 ETRI 대강당 특설무대에 마련된 장학퀴즈 ‘대결! 엑소브레인’에서 국내 기술로 개발한 AI ‘엑소브레인’이 600점 만점 중 510점을 받으며 인간 퀴즈왕 네 명을 상대로 완승했다.

2시부터 3시간 30분 동안 진행된 이 퀴즈 대결에는 2016년 수능시험에서 만점을 받은 윤주일 씨(서울대 인문학부 1학년)를 비롯해 방송사 두뇌게임 프로그램에서 준우승한 오현민 씨(KAIST 수리과학과 휴학), 장학퀴즈 시즌1 우승팀 김현호 군(안양 동산고 3학년), 시즌2 우승팀 이정민 양(대원외고 2학년) 등이 참가해 치열한 두뇌 싸움을 보여줬다.

대결은 국어와 역사, 경제 상식 등의 문제를 듣고 15초 안에 답을 쓰는 방식으로 치러졌다.

엑소브레인은 전체 주·객관식 30문제 가운데 25문제의 정답을 맞힌 반면 객관식과 주관식 각각 2개 문제, 심층 주관식 1개 문제 등 총 5개 문제를 놓쳤다. 정답률은 88%. 2011년 미국 제퍼디쇼에 나온 IBM의 AI ‘왓슨’(70%)보다 높은 수준이다. 2등은 350점을 기록한 윤주일 씨에게 돌아갔다.

초반부터 다른 참가자들과 60점 이상 차이를 보이며 앞서나간 엑소브레인이 답을 찾는 방식은 인간이 추론을 하는 과정과 비슷하다. 자연어 문장을 문법적인 방법으로 분석해 뜻을 파악한 뒤 미리 학습한 방대한 데이터베이스에서 핵심어가 많이 들어 있는 후보 답 수백 개를 골라내고 다시 최종 답을 유추하는 방식이다.

물론 오답이 없었던 것은 아니었다. ‘재즈와 블루스에서만 사용되는 독특한 음계’를 묻는 주관식 문제의 정답은 ‘블루노트’였지만 엑소브레인은 ‘태주’라는 답을 내놨다. P파와 S파 등 지진파를 고르는 객관식 문제에서는 영어 P와 S로 문장을 잘못 인식해 답을 찾지 못했다.

이 프로젝트 총괄책임자인 박상규 ETRI 박사는 “엑소브레인은 일반 PC급 서버 41대를 병렬로 연결해 복잡한 질문을 해석한 뒤 정답 후보를 수백 개 뽑아 계산하고 최우선의 답을 찾는다”며 “오답을 낸 것은 문제 이해를 잘못했거나 정답이 영어인 데 따른 것으로 보인다”고 설명했다. 엑소브레인은 아직 영어 수준이 높지 않은 상태이다.

AS

이미지/ ETRI

한편 ETRI가 2013년 10년 연구기간 목표로 개발에 들어간 엑소브레인의 핵심기술은 머신러닝과 딥러닝 방법을 통한 자연어 이해, 자연어 질의응답 기술이다. 즉 인간 수준으로 문장의 문법을 분석할 수 있는 ‘한국어 분석 기술’에 여러 문장으로 구성된 질문을 이해하고 정답을 추론하는 ‘자연어 질의응답 기술’을 갖추고 있다.

특히 알파고처럼 딥러닝을 이용해 텍스트로 된 빅데이터를 스스로 학습하고 저장하는 ‘지식 축적 및 탐색 기술’까지 갖추고 있다. 지난 3년간 엑소브레인이 공부한 백과사전과 한자사전, 상식사전만 12만권에 달하며 시사 상식을 보충하기 위해 9월 말까지 20개에 이르는 신문을 매일 읽기도 했다.

ETRI는 이제 1단계 프로젝트를 마친 엑소브레인을 2022년까지 연구 개발할 계획이다. 2020년까지 응용기술 개발에 전력, 상담·법률·특허 등 전문지식을 습득시키고, 2022년까지 영어로 기술된 전문지식에 대해서도 질의응답이 가능한 한국어/영어 전문지식 QA 솔루션을 개발할 방침이다.

 

 

Comments

hyundai eng