이대열 존스홉킨스대학교 교수 겸 뉴로게이저 공동창업자 및 CSO
[시사저널e=김용수 기자] 시리야~, 빅스비?, 클로바!, 아리아 등. 한번쯤은 인공지능 스피커나 스마트폰을 다정히 부르며 인공지능 비서와 대화를 해본 일이 있을 것이다. 그들은 내 질문에 척척 대답을 해낸다. 때로는 “제가 잘 이해를 하지 못했다”고 정중하게 사과를 하기도 한다. 마치 사람은, 그러나 인간은 아닌 인공지능. 이들은 어떻게 이렇게 인간처럼 대화하는 걸까? 인간의 뇌와 인공지능은 어떤 점이 같고 다를까?
뇌과학자인 이대열 존스홉킨스대 교수는 31일 시사저널e와의 인터뷰에서 “인간의 뇌와 AI는 기능적·구조적으로 차이점이 많다”라면서도 “인간의 뇌가 작동하는 원리를 잘 이해하게 된다면 더욱 강력한 AI를 개발하는 데 중요한 단서를 발견할 수 있을 것”이라고 말했다.
이 교수는 존스홉킨스대학교에서 신경과학과 및 심리학·뇌과학과 교수와 블룸버그 특훈교수를 겸임하고 있다. 아울러 2014년 동생 이흥열 대표와 공동 창업한 뇌 분석 서비스 기업 뉴로게이저에서 최고과학책임자(CSO)를 맡고 있다.
다음은 이 교수와의 일문일답.
뇌과학 분야를 30년 이상 연구해온 걸로 알고 있는데, 관심을 갖게 된 배경은 무엇인가
원래 학부 전공은 경제학이었다. 10대 시절 물리학과 철학에 관심이 많았는데, 대학 진학 당시 복잡한 사회현상을 이해하려면 경제학 관점의 분석이 중요하다고 막연하게 생각했다. 그 생각이 전공 선택에 큰 영향을 줬다. 하지만 대학 입학 다양한 분야의 학문을 접하고 인간의 심리 과정과 행동을 과학적으로 이해하기 위해 뇌를 공부하는 것이 가장 좋은 방법이라고 생각하게 됐다. 그 당시 서울대에 이춘길 심리학과 교수와 김경진 동물학과 교수 등 뇌 전공 교수가 두명 있었다. 우연히도 두명 모두 미국 일리노이 대학에서 박사학위를 받았고 추천으로 일리노이대학에서 신경과학을 공부하게 됐다.
AI와 인간의 뇌는 어떻게 다른가
AI는 인간의 일을 대신하기 위해 인간이 개발했기 때문에, 과제를 수행하는 방식도 당연히 인간의 행동을 닮았다. 하지만 AI와 인간의 뇌는 기능적으로나 구조적으로 다른 점들이 많다. 일단, 인간의 뇌는 생존과 종족 보존을 목적으로 다양한 환경에서 가장 적합한 행동을 선택하도록 기능한다. 반면 AI는 인간이 자신의 목적을 보다 적은 노력으로 달성하기 위해 만들어낸 도구다. 인간의 유전자가 스스로 해결하지 못하는 문제들을 해결하기 위해 뇌를 진화시켜 온 것과 마찬가지로, 인간의 뇌는 자신이 해결해야 하는 문제들을 좀 더 쉽게 해결하기 위해 AI를 개발하고 있다고 볼 수 있는 것이다.
이와 같은 분업 관계를 경제학은 ‘본인과 대리인의 문제’라고 부른다. 이것을 문제라고 부르는 이유는 본인과 대리인이 추구하는 목적이 항상 일치하지 않기 때문이다. 구조적으로도 생존과 관련된 모든 생물학적인 문제들을 동시에 해결해야 하는 뇌와, 인간이 제공하는 에너지를 사용해 문제의 해결법을 찾도록 디자인된 AI는 여러 가지 측면에서 큰 차이가 있다.
최근 AI 분야에서 흥미로운 사건 또는 트렌드가 있다면
지난 10년간 AI 기술 중에서 가장 눈부신 활약을 한 것은 ‘심층학습(Deep :earning)’과 ‘강화학습(Reinforcement Learning)’, 그리고 그 두 가지 알고리듬이 결합된 ‘심층 강화학습(Deep Reinforcement Learning)’과 같은 기술이다. 대중들에게도 비교적 잘 알려진 딥마인드의 ‘알파고’나 인간의 언어와 구별하기 힘든 언어능력을 보여준 오픈 AI의 ‘GPT-3’ 등이 모두 이에 해당한다.
또한 인간 프로그래머가 일일이 문제해결 방식을 구체적으로 지정해야 했던 전통적인 ‘상징적 AI’에 비하면, 심층학습을 하는 신경망은 인간의 대뇌가 정보를 처리하는 방식과 유사한 면이 있는 것이 사실이다. 하지만 인간의 뇌는 심층학습 신경망처럼 단순하게 단계적으로 신호를 한 층에서 다음 층으로 전달하는 방식으로 작동하는 것이 아니고, 수많은 신경세포들이 순환적으로 정보를 처리한다고 볼 수 있다. 최근엔 그와 유사한 ‘순환적(recurrent) 신경망’에 대한 연구가 매우 빠른 속도로 진행되고 있다.
최근 관련 분야에서 큰 반향을 일으킨 ‘GPT-3’의 성능 또는 본질적 역량은 어느 정도 수준인지
인간의 언어능력을 모방하기 위해 개발된 GPT-3와 몇 개의 문답을 주고받고 있으면, 과연 상대가 인간인지 AI인지 구별하기 어렵다. 하지만 GPT-3는 인터넷에 존재한 방대한 문헌을 학습하고 그에 따라 주어진 질문에 가장 적합한 답변을 제시하는 역할을 하고 있을 뿐, 인간이 언어를 이용해서 달성하고자 하는 구체적인 이유를 이해하지 못한다. 예를 들어, GPT-3는 토스트기가 주인에게 보내는 매우 감동적인 연애편지를 쓸 수는 있지만, 자신이 왜 그런 작문을 하고 있는지 전혀 이해하지 못한다. 따라서 매우 뛰어난 언어능력을 가지고 있지만, 사물과 인간의 심리를 이해하는 능력은 전적으로 결여돼 있다고 볼 수 있다.
AI는 인간이 만들어낸 도구들과 근본적으로 다르지 않다고 했는데 차세대 AI, 초거대 AI 등 진보된 기술로 인한 부작용은 없나
인간이 도구를 사용하는 진정한 이유는 원하는 일을 적은 노력을 들이고 더 빨리 끝내기 위한 것이지만, 모든 도구를 사용하는 데는 항상 잠재적인 위험이 따른다. 간단한 예로 전동 테이블 톱을 사용하면 수동 톱을 사용할 때보다 큰 목재를 더욱 정확하고 신속하게 절단할 수 있지만, 안전 수칙을 따르지 않으면 큰 부상을 초래할 수 있다.
지금보다 더욱 진보된 AI 기술이 등장한다면, 비록 그 AI의 능력이 인간의 전반적인 사고능력에 많이 뒤진다고 할지라도, 그에 따른 부작용은 전동톱과는 비교도 할 수 없이 심각할 것이다. 노동자들이 새로운 기술을 학습하고 그에 적응하는 것보다 더욱 빠른 속도로 기업이 AI와 로봇을 도입하기 시작하면 지금보다 경제적 불평등이 더 심각해지고 사회가 불안정해질 것이므로 그에 대한 대책을 미리 찾아 두어야 한다.
저서 ‘지능의 탄생’에서 “인간의 뇌를 완전히 대체하는 기술적 특이점은 당분간은 발생하지 않을 것”이라고 주장한 바 있는데, ‘당분간’이라는 단서를 단 이유가 있을지. 현재 시점에선 어떻게 보고 있는지
그와 같은 일이 ‘당분간’ 일어나지 않을 것이라고 한 이유는 AI가 인간을 완전히 대체하기 위해선 AI가 우선 다른 생명체와 마찬가지로 스스로 자기복제를 할 수 있는 능력을 획득해야 하기 때문이다. 지능은 생명체가 자기복제를 위해 마주치는 다양한 문제를 해결하는 능력이라고 봐야 한다. 그렇지 않으면 문제가 해결됐는지 아닌지를 결정할 수 있는 객관적인 기준이 없기 때문이다. 언젠가는 인간이 자기복제를 하는 기계를 만들 수 있는 날이 올지도 모른다. 하지만 아마 ‘당분간’은 어려울 것이다.
현재 국내외 전 산업에서 AI 기술을 적용한 사례가 많아졌다. 우리 사회가 AI 영향으로 긍정적이든 부정적이든 어떻게 변화해갈지 예측하고 대비하기 위한 방법이 있을지.
AI에 대한 맹신이나 막연한 두려움을 갖지 않도록 하는 것이 중요하다. 사회 구성원 모두가 AI가 원래 의도한 것이 무엇이고, 비록 모든 것이 빠르게 변하고 있다고 하더라도, 그 현재와 미래의 한계가 무엇인지를 알기 위해 많은 노력을 해야 한다.
또한 AI와 로봇이 보편화되는 사회에서 발생하게 될 경제적 분배 및 정치적 평등의 문제에 대해서 많은 생각을 해 두는 것이 중요하다.
수많은 AI 앱과 응용 분야가 생겨나는 과정에서 개별 AI의 성능을 평가할 수 있는 기준을 정립하는 것도 급하게 해결해야 할 문제다. 이와 같은 문제들이 소수의 대기업에 의해서 해결되는 것을 막으려면, 사회 구성원 대다수가 AI와 더욱 친숙해질 수 있는 기회들을 많이 만들어내야 한다. 이것도 정부가 해야 하는 일이라고 생각한다.
올해 초 국내에선 ‘스캐터랩’이란 스타트업의 AI 챗봇서비스 이루다가 차별, 혐오적인 발언을 해 ‘AI 기술의 신뢰성’이 도마에 오른 바 있다. 기술 및 서비스를 개발하는 기업 입장에서 신뢰성에 대한 대비를 완벽하게 하기란 힘들 뿐더러 사업 개시 시간을 지체할 가능성이 커 대응하기 힘들 것으로 보인다. 특히 이번 사례처럼 스타트업의 경우 더 힘들 것으로 보이는데, 어느 정도 수준까지 AI 신뢰성 개발에 힘을 써야 할지
챗봇이 보이는 문제들은 사실 챗봇이 개발된 과정을 주의 깊게 살펴보면 충분히 예측할 수 있는 것이었다. 챗봇이 학습하는 과정에서 사용된 문장들이 특정한 사회의 구성원들이 내뱉은 모든 말들이고 그 대화의 내용들이 항상 상대방을 존중하는 상황에서 발생한 것이 아니라면, 챗봇은 마치 매일 부부싸움만 하는 부모를 보면서 말을 배운 아이처럼 항상 공손한 언어를 구상할 수는 없는 것이다.
AI의 활용이 늘어나면서 커지는 윤리 문제를 해결하기 위한 방안이 있을지
AI가 비윤리적인 방식으로 일을 처리해서 문제가 발생한다면, 반드시 그 AI를 사용한 인간에게 책임을 물어야 할 것이다. 그러면 AI로 인해서 발생하는 윤리적 문제를 많이 줄일 수 있을 것이다. 그리고, AI를 사용하려는 인간의 동기를 분석해보면, 그로 인해 발생할 수 있는 윤리적 문제도 예측할 수 있다. 예를 들어 안면 인식 기술을 활용하기 위해서 설치해야 하는 카메라의 수와 장소, 그리고 그로부터 획득한 정보를 누가 어떻게 사용할 것인지를 결정해야 하는데, 이 과정에서 발생하는 윤리적인 문제를 해결하는 데 사회구성원들의 의견이 민주적으로 반영될 수 있는 시스템을 만들어 가야 할 것이다.
뇌과학 연구는 AI 연구의 핵심적 기반이 된다는 의견이 있는데
뇌과학이 AI 연구의 기반이 되는 이유는 AI의 궁극적인 목적이 인간의 뇌가 하는 일을 대신하려는 것이기 때문이다. 혹자는 더 진보된 AI를 개발하기 위해서 반드시 뇌의 작동방식을 이해할 필요가 없다고 주장하기도 한다. 하지만 이제까지 AI 개발의 역사를 보면 뇌와 AI의 연구가 밀접한 관계를 유지해온 것을 쉽게 알 수 있다. 물론 AI 연구의 모든 부분이 뇌과학의 발전에 얽매일 필요는 없겠지만, 인간의 뇌가 작동하는 원리를 더 잘 이해하게 된다면 더욱 강력한 AI를 개발하는데 중요한 단서를 발견할 수 있을 것이다.
뇌과학과 AI가 시너지를 낸 사례가 있나
이 두 분야 사이의 시너지는 매우 큰데 그중 최근 주목받는 분야는 순환적 신경망을 이용한 ‘뇌-기계 접속기술(brain-machine interface)’이다. 최근에 발표된 한 연구는 ‘인자분석(factor analysis)’과 같은 전통적인 통계학 기법보다 순환적 신경망과 같은 AI 기법을 사용하면, 영장류나 인간의 뇌에서 측정한 신경세포의 활동으로부터 더욱 정확한 정보를 추출할 수 있단 것을 입증했다. 이 연구를 지휘한 데이비드 수실로는 미국 컬럼비아 대학에서 신경과학으로 박사학위를 받고 현재 구글 뇌연구팀에 소속돼 있다. 그처럼 뇌과학과 AI의 두 분야에 모두 능통한 학자들의 수가 점점 늘어나고 있다. 마찬가지로 뇌 분석 서비스 기업 뉴로게이저도 AI 기술을 활용해서 인간의 뇌영상을 분석하고 그로부터 인간의 성장 과정과 위험인자들에 관한 다양한 정보를 찾아내고 있다.
AI 및 뇌과학에 관심이 있는 국내 독자들을 위해 전하고 싶은 말은
과거에는 AI와 뇌과학 그 어느 쪽도 전문지식을 쉽게 쌓을 수 있는 분야가 아니었다. 하지만 지금은 AI와 뇌과학 각각의 분야를 쉽게 풀어놓은 좋은 교양서적 및 교과서를 비롯해 흥미로운 온라인 대중강연들도 많이 있어서, 누구나 관심이 있다면 두 분야의 많은 정보를 열람할 수 있다. AI 또는 뇌과학에 관심이 있다면 두 분야가 서로 어떻게 영향을 주고받고 있는지를 살피는 것도 큰 도움이 될 것이다.
시사저널e는 ‘제 7회 인공지능국제포럼(AIF)2021, 산업계에 스며든 인공지능’ 행사를 열어 국가 미래산업이며 전 세계 경제환경을 바꿀 인공지능을 이해할 수 있는 자리를 마련하고자 합니다. 전 세계 인공지능 기술과 시장 변화와 함께 국내 제조, 금융, 의료 등 대표 산업들의 기술 적용을 소개할 예정입니다. 비 IT 전문가들도 인공지능을 편하고 쉽게 이해할 수 있는 행사로 꾸몄습니다. 행사 참여는 온오프믹스를 통해 신청할 수 있으며 9월 9일 시사저널e 유튜브 채널을 통해 생중계됩니다.