최병호 고려대 인공지능연구소 교수 “인공지능 시대 인문학 중요성 커져”

최병호 고려대 인공지능 연구소(Human-inpsired AI & Computing 연구소) 산학협력중점 교수가 7일 고려대 인근 카페에서 사회문제 해결의 중요성을 강조하고 있다. / 사진=변소인 기자
최병호 고려대 인공지능 연구소(Human-inpsired AI & Computing 연구소) 산학협력중점 교수가 7일 고려대 인근 카페에서 사회문제 해결의 중요성을 강조하고 있다. / 사진=변소인 기자

최병호 고려대 인공지능 연구소(Human-inpsired AI & Computing 연구소) 산학협력중점 교수는 인공지능(AI)을 이야기하면서 사회문제 해결을 더욱 강조했다. AI 관련 연구자들도 기술만을 보기 전에 심각한 사회 문제 해결에 얼마나 기여할 수 있을지 고민해야 한다고 강조한다. 최 교수도 인공지능 도입에는 사회적 합의가 필요하다고 설명했다. 7일 고려대 인근 카페에서 최 교수를 만나 현재 AI를 두고 벌어지는 갈등에 대해 물었다.

인공지능이 지속가능한 성장을 하려면 무엇이 필요할까.
사회문제가 무엇이냐를 보고 접근하는 것이 필요하다. 지금은 너무 기술 위주로 흘러가고 있다. 오히려 사회문제 쪽을 먼저 보면 접근할 수 있는 것들이 많다.

인공지능이 가진 맹점이 있다면.
사람을 100년 넘게 연구했지만 우리는 여전히 사람을 잘 모른다. 잘 모르는 사람을 모델링 한 것이 인공지능이니 인공지능도 모를 수밖에 없다. 따지고 보면 사람과 인공지능이 비슷하다는 말 자체가 틀린 말이다. 그저 사람의 행동을 벤치마킹 한 것이다. 최근에 등장한 숱한 문제가 인공지능을 모르는 데서 발생한다. 인간이 통제할 수 있는 것은 데이터인데 이 데이터에서 윤리 문제가 발생한다. 데이터를 입력하는 사람의 가치관이 고스란히 반영될 수밖에 없다. 여기에 세계적인 합의가 필요하다.

인공지능 관련 문제는 어떤 것이 있나.
인공지능 문제가 연구실 내에서 발생했거나 작은 범위라면 문제가 안 된다. 챗봇이 콜센터를 대체하는 것은 인류에게 큰 문제 생기지 않는다. 챗봇에 쓰인 인공지능 기술은 단순하다. 일자리가 사라지는 것이 문제이긴 하지만 심각한 윤리 문제가 발생하지는 않는다. 문제는 AI 면접에서 발생한다. AI 면접은 말투, 시선처리, 표정, 땀, 사용 어휘 등으로 실시간 지적 수준 및 점수가 나온다. 나아가 응시자의 SNS를 찾아서 성적 취향, 나이, 법률 문제 등도 파악할 수 있다. 이럴 경우 오판일 가능성도 높기 때문에 문제가 된다. AI에는 동성애 개념이 없는데 만약 동성애를 싫어하는 개발자가 그러한 데이터를 입력하거나 동성애를 혐오하는 CEO가 그런 내용을 거르는 데이터를 넣게 되면 동성애자는 탈락하게 된다.

국내에서도 AI 윤리 관련 사례가 있나.
학교 폭력 문제가 있다. 한국도 도입하려고 시도하고 있다. 학교에서 폭력 행동을 파악하면 안면인식을 동원해서 가해자를 가려내는 시스템 적용에 대해 논의하고 있다. 표정, 말투, 행동 등으로 특정 지을 수 있겠지만 이 역시 오판될 가능성이 있다. 학생 인권에도 배치되는 부분이다. 효율성을 높이는 기술 외에 사회에 직간접적 의사결정하는 AI 시스템이 도마에 오르기 시작했다.

기존 사람이 판단할 때와 어떤 차이가 있나.
그동안은 사람이 했기 때문에 문제가 보였다. 하지만 인공지능은 결론만 보인다. 차별이 은폐될 수 있다는 얘기다. 패권이 은폐돼버리면 권력 행위가 가능해진다. 사람이 개입해서 데이터를 조작하거나 특정인을 몰아가기 위한 데이터만 학습시키면 의도된 결과를 도출하기 쉽다.

이런 문제를 해결하기 위한 움직임이 있다면.
국제적 협약이 필요하다. 적어도 AI 데이터 윤리 문제를 검토할 수 있다. 인공지능 시대에는 인문학이 필수 요소다. 의사결정이나 정책은 공학이 아니다. 완전 자동화가 아니라 적응형 자동화라는 개념을 통해 인간을 소외시키지 않도록 인공지능을 도구라고 인식할 수 있어야 한다.

쉽지 않아 보이는데.
협의체가 있어야 하고 사회적 합의가 있어야 한다. 그러기 위해서 공론화가 돼야 하는데 엔지니어와 일반인들의 언어는 많이 다르다. 이런 것들을 중간에서 잘 번역해줄 번역자도 필요하다. 엔지니어는 모르는 사람한테 쉽게 설명하기도 어렵고 그럴 필요성도 잘 못 느낀다. 중간에 오해 없이 잘 통역할 수 있는 역할이 필요하다. 그래서 어려운 기술을 대중적으로 풀어줘야 한다. 원천 기술을 하는 사람, 중간 통역 역할, 정책 결정하는 사람이 다 유기적으로 움직여야 한다. 지금은 그 역할이 모두 부족하다.

연구자들에게 어떻게 사회문제를 각인시키나.
시민활동 하는 사람이나 사회적 기업에게 그들의 목소리를 낼 수 있는 자리를 마련해 준다. 엔지니어들이 사회문제라는 것을 알 수 있도록 테이블 위에 올리는 역할을 한다. 그러다보니 창의적인 발상도 필요하다. 사회적 기업과 기술자들의 접점을 만들어 나가야 한다.

중도입국 청소년의 한국어 습득 향상법을 연구하고 있는데.
학교에서 중도입국 청소년을 거절할 수 있다. 학생을 안 받는 것은 심각한 문제다. 한국 국적이든 아니든 한국에서 살려고 들어온 것이기 때문에 방치해서는 안 된다. 여기서 AI 기술이 쓰일 수 있다. 한국어 수준별 매핑이 가능하다. 인공지능은 맞춤형 학습을 잘하기 때문이다. 수준이 상당히 높아서 상용화 직전이다.

우리나라에서도 AI의 사회문제 해결에 대한 논의가 활발한 편인가.
활발하다. 과기정통부는 내년 사회문제 해결형 R&D에 630억원을 편성하기도 했다. 정부부처답지 않은 접근이기도 하다. 그러나 이해관계자들의 입장 차이는 크다. AI 원천 기술을 연구하는 쪽에서는 기술만 연구하고 어떻게 활용할지는 크게 관심이 없다. 관심이 있다하더라도 이해관계가 복잡해 관여하고 싶어하지 않는 경우가 많다.

세계적인 추세는 어떤가.
국가마다 차이가 있겠지만 마찬가지로 사회문제에 관심이 많다. 특히 독일은 적응형 자동화 개념을 사용했다. 다수 국민들을 위해 해고하는 것이 아니라 사람을 더 채용하고 인공지능을 도입해서 경기를 활성화 시키자는 전략이다. 직업을 잃지 않도록 하는 것이 핵심이다. 반면 미국과 일본은 완전 자동화를 강조한다. AI가 인간을 대체하는 방향으로 간다. 사회적 합의가 더 잘 이뤄진 쪽은 독일인 것 같다.

국제적인 사회적 합의가 실제로 가능할까.
UN이 할 수 있다. 표준 가이드를 만드는 역할을 해야 한다. 강제조항은 아니겠지만 권고사항은 만들 수 있다. 권고사항에 동의하게 되면 각국에서는 강제조항을 만들게 된다. 인공지능을 무기로 사람을 죽이지 않겠다고 동의하면 각국에서 법의로 발의가 돼야 한다.

저작권자 © 시사저널e 무단전재 및 재배포 금지