주메뉴바로가기 본문바로가기

비즈한국 BIZ.HANKOOK

전체메뉴
HOME > Target@Biz > 아젠다

[사이언스] AI 대가들의 '카이스트 보이콧', 못 다한 이야기

'AI 무기 개발' 보도에 학자들 화들짝…세계 연구자와의 교류 한계도 노출

2018.04.06(Fri) 14:49:35

[비즈한국] 0. 지난 4일 세계의 저명한 AI(인공지능) 학자들이 ‘전쟁살상무기’를 연구한다는 KAIST(카이스트·한국과학기술원)를 비난하며 ‘앞으로 KAIST와는 어떠한 협력도 않겠다’는 공개서한을 보냈다(원문 Open Letter to Professor Sung-Chul Shin, President of KAIST). 이 서한에 서명한 학자들의 면면만 봐도 딥러닝 대가들(힌톤, 벤지오), 머신러닝 대가들(스콜코프, 가하라마니) 로봇 대가들(시실리아노, 나카무라) 등 정말 학계를 대표하는 쟁쟁한 사람들이었다.

 

지난 4일 세계의 저명한 AI(인공지능) 학자들이 ‘전쟁살상무기’를 연구한다는 KAIST(카이스트‧한국과학기술원)를 비난하며 ‘앞으로 KAIST와는 어떠한 협력도 않겠다’는 공개서한을 보냈다. 사진=CIAIR 캡처 및 KAIST 로고 합성


1. 발단은 국내 한 연구소에서 시작됐다. 지난 2월, KAIST가 한화시스템과 함께 ‘국방 인공지능 융합연구센터’를 개소했는데, 그곳에서 내세운 ‘인공지능을 국방기술에 접목시킨다’에 외국 학자들이 발끈한 것이다. 정확히는 이 연구센터의 개소를 알린 한 영자신문의 ‘Hanwha, KAIST to develop AI weapons’라는 기사에 세계 연구자들이 화들짝했다.

 

2. 사실 이 센터의 개소는 다른 여느 산학협력과 크게 다르지 않은 평범한 소식이었을 뿐이었다. 이 연구소를 세운다고 갑자기 우리나라의 국방 로봇 수준이 확 올라가는 것도 아니다. 한국 인공지능·로봇계가 방향을 틀어 군사 국가를 건설하는데 일조하겠다는 것도 아니다. 솔직히 말해 이러한 연구소 개소는 기업 입장에선 공동 연구(라 쓰고 하청이라 읽는다)로 나온 논문으로 향후 과제 수주에 유리한 위치를 점하기 위해(+연구에 참여하는 인재를 영입하기 위해), 교수들의 입장에서는 안정적인 연구비를 확보를 위해 매우 자연스럽게 일어나는 일이다. 

 

3. 굳이 이 연구소가 아니더라도, 우리나라는 이미 국방과학연구소와 여러 군수업체의 협력 하에 다양한 국방 무인화기기들을 개발하고 있다. 견마로봇, 무인항공기, 드론, 정찰로봇 등 명백히 로봇의 형태를 갖춘 것들도 있지만 미사일 같은 전통 무기 역시 발사 버튼만 누르면 적기의 조종석 위치를 파악해 정밀 타격하는 것과 같이 많은 자동화·무인화 기술이 이미 이식되고 있다. 그리고 이러한 변화는 미국을 포함해 많은 나라와 기업들이 ‘앞서서’ 하고 있는 일이다. 늘 그렇듯, 우리는 그저 ‘한국형 패스트 팔로어’일 뿐이다.

 

4. 만약 인공지능·로봇기술의 전쟁기술 접목에 ‘보이콧 철퇴’를 때리자면 미국 방위고등계획국 DARPA(Defense Advanced Research Projects Agency)부터 먼저 맞아야 한다. 사실 그들이 없었다면 우린 팔로잉 할 대상도 없다. 3년 전 카이스트 ‘휴보’가 우승해 많이 알려진 DARPA 로봇챌린지와 같이, 그들은 풍부한 자금을 밑바탕으로 전 세계 연구자들을 지원하며 로봇 기술을 크게 끌어올리고 있다. 자선단체가 아닌 그들이 이렇게 풍부한 자금을 푸는 속내엔 그렇게 개발된 핵심 기술들을 미국 국방무인화기술로 흡수하겠다는 의도가 깔려있다. 어떤 미국의 로봇 연구실 홈페이지를 가보면 ‘우리는 DARPA 등 전쟁과 관련한 어떠한 펀드도 받지 않습니다’라고 선언한 멋쟁이 교수님들을 볼 수 있는데, 사실 그런 분들은 소수고 많은 로봇 연구는 DARPA의 지원에 취하지 않을 수가 없다. 

 

5. 그렇다면, 그럼에도 불구하고 왜 DARPA가 아닌 갑자기 우리나라 KAIST가 대표로 폭격을 맞은 것인가. 그 원인 중 하나는 우리나라가 좋아하는 ‘인공지능을 넣은 센세이셔널 한 제목 짓기’에 있다. 우리는 기사나 홍보자료에서 ‘인공지능이 XXX를 대체한다!’ ‘인공지능 OOO 나온다!’ 등등의 호들갑을 많이 봤다. 연구과제에서도 요즘엔 ‘인공지능’을 넣지 않으면 계획서가 받아들여지지 않을 정도다. 이번에도 이러한 제목 짓기, ‘develops AI weapons(AI 무기 개발)’가 문제였다. 이런 제목은 마치 ‘내가 너를 죽일 거야’ 같은 노골적인 느낌인데, 힘이 센 DARPA도 자신들이 ‘그랜드 챌린지’를 열고 있다고 하지 대놓고 ‘로봇 무기’를 개발한다고 하지 않는다. 

 

6. 나는 전쟁에 반대하고 전쟁기술 발달에 반대한다. 그리고 많은 인공지능·로봇 학자들이 실제 그러한 입장을 취하고 있다. 하지만 그들이 개발한 기술이 우리의 삶에만 도움이 되고, 전쟁에는 도움이 되지 않는 다는 건 어불성설이다. 예를 들어 딥러닝 기반 사물인식 알고리즘인 YOLO(You Only Look Once) 기술은 자율주행에서 보행자를 검출하는 데 요긴하게 쓰이지만, 전쟁에서 적군 병사를 식별하는데도 쓰일 수 있다. 그리고 사람을 향해 총구를 겨냥하는 일은, 사람을 피해 복잡한 카페에서 커피를 나르는 일보다 훨씬 쉬운 일이다. 

 

7. 많은 학자들이 반대 입장을 내긴 하지만 전쟁기술 악용을 100% 막을 수 있는 사람은 아무도 없다. 대신 이렇게 말한다. 나는 전쟁을 위한 어떠한 연구도 하지 않겠다고. 사실 오픈소스가 보편화된 지금 시대에서 이 말은 ‘나의 재료들은 사람을 돕는 데도, 사람을 해치는 데도 쓸 수 있지만 나는 사람을 해치는 최종 제품을 만드는데 관여하지 않겠어’라는 말과 같다. 그리고 보통 그런 최종 제품을 만드는 일은 각 나라의 국방연구소에서 비밀리에 진행하고 있다. 어떤 교수들은 국방연구소에서 펀드를 받으며 좀 더 가까이 그곳들과 일하고 있는데, KAIST의 이 연구실이 딱 그러한 경우였다.

 

8. KAIST가 했던 일은 어느 나라에서나 다 벌어지고 있는 연구 활동이다. 문제는 자극적인 홍보가 아니었나 싶다. 만약 DARPA가 MIT(매사추세츠공과대학)와 나서서 “우리는 AI 무기를 개발할 거야!”라고 외쳤다면 아마 전 세계가 우려했을 터, 마찬가지 느낌이었을 거다. ‘우린 국방 관련 연구비를 받지 않습니다’가 큰 명예인 것처럼 ‘우린 AI weapon을 만들 겁니다’는 이름 있는 대학으로선 큰 불명예다. 우리가 연구비가 없지 ‘가오’가 없나….

 

9. 한편으로 이 사태는 우리나라 학계의 고립된 모습을 보여주기도 했다. 우리나라의 인공지능 연구는 꾸준히 세계 학계를 두드리고 있고, 로봇 쪽은 이미 세계 학계의 큰 축 중 하나다. 논문 제출이나 발표에 있어서 우리나라의 연구는 전혀 고립되지 않았다. 하지만 국제적으로 활발히 사교활동을 하는 교수들의 수는 그리 많지 않다. 로봇학회를 하면 주로 서구와 한·중·일, 이런 식으로 미묘한 벽이 보이는데, 이번에 4명의 아시아인과 46명의 미국·유럽인이 주축이 된 성명도 그들의 ‘사교그룹’에 우리가 껴있었다면 개인적인 연락들로 끝났을 수도 있지 않았을까 싶다. 미국 대학에서 이랬다면? 독일 대학에서 이랬다면? 아마 이렇게 공개서한까지는 가지 않았을지 모른다. 

 

10. 아울러 이번에 성명을 낸 AI 대가들에게도 따끔한 한마디 하고 싶다(보고 있나). 이번에 낸 성명의 주요 근거는 단 하나, 한국 영자신문의 기사 1건이었다. 그리고 장담하건데, 이 성명에 참가한 50명의 교수들 중 대부분은 KAIST의 새 연구소가 뭐하는 곳인지도 모르고 ‘인공지능을 무기를 만드는데 쓴다고? 당연히 반대해야지’라고 했을 것이다. 어쩌면 한편의 ‘쇼잉’. 이메일 몇 통이나, 학회장에서 실제 대화를 해보고 사실관계를 정확히 파악한 뒤에 성명을 발표해도 늦지 않았을 텐데, 이번 성명이 매우 성급했다는 인상을 지울 수 없다. 마치 “우리는 전쟁무기 개발에 반대한다”는 말을 하기위해 KAIST라는 만만한 상대의 뒤통수를 때리는 것처럼 말이다. 

 

요약. 이번 일은 누구나 쉬쉬하며 하는 인공지능과 국방 무기를 접목하는 연구를, 아직까지는 신성하다고 여기는 대학의 이름을 걸고 공개적으로 했다는 점에서 세계의 학자들이 비난하고 나선 일이다. 그 배경엔 한국의 부적절한 홍보문구 선정과 한국 학계의 사교력 부족이 있었으며, 성명을 발표하고 나선 주도자들의 성급한 포퓰리즘적 행위도 비판하지 않을 수 없다. 본질적인 연구 내용을 보자면 비난을 하고 있는 국가들이나 우리나라나 국방연구에 큰 차이가 있는 것은 아니다. 연구자들도 ‘무기를 만드는 최종 제품에 얼마나 가까이 있느냐’의 차이일 뿐이다. 

 

사족. 많은 이들이 인공지능 기술과 전쟁의 결합을 우려하지만 이는 학자들만의 자정작용만으론 제어할 수 없는 흐름이다. 전쟁기술과 아닌 기술의 구분이 애매하고, 따라서 콕 집어 전쟁기술을 억제하는 것도 불가능하기 때문이다. 보스톤다이나믹스의 ‘빅독’은 군수물자 수송을 위해 개발되었지만 총만 얹으면 바로 살인 로봇이 되는 것이고, 일본의 활발한 재난 로봇 연구는 언제 ‘재난 같은 전쟁 로봇 연구’로 바뀔지 모를 일이다(이미 만들었을 수도 있다). 결국 이러한 전쟁 억제는 마치 전 세계가 화학무기를 금지하는 것과 같이 기술이 아닌 국제 정치로 풀어야 할 문제다. 

 

필자 엄태웅은 서울대학교 기계항공공학부에서 로봇을 전공한 후 LIG Nex1과 KIST에서 국방로봇과 의료로봇을 개발했다. 현재는 캐나다 워털루대학에서 헬스케어를 위한 딥러닝을 연구 중이다.

엄태웅 워털루대학 연구원​ writer@bizhankook.com


[핫클릭]

· [CEO 라이벌 열전] 헬스앤뷰티 시장의 '1강 2약' 올리브영·랄라블라·롭스
· '재활용 쓰레기 대란' 중에도 커피점 일회용 컵 관리 '역주행'
· [CEO 라이벌 열전] '연륜이냐, 패기냐' 유한양행 이정희 vs 녹십자 허은철
· [단독] 아이카이스트 영국 상장 로비 뒤에 정윤회 동생 있었다
· [사이언스] 굿나잇 앤드 굿럭


<저작권자 ⓒ 비즈한국 무단전재 및 재배포 금지>