유용한 제품‧기업 지원‧사회문제 해결 등 AI 궁극적 목표 3가지 밝혀
구글이 인공지능(AI)을 연구하는 궁극적인 목표를 발표했다. 구글은 앞으로도 인공지능을 최우선에 두고 개발할 뜻을 밝히며, 모든 분야에 인공지능이 적용될 수 있도록 하겠다는 포부를 드러냈다.
구글은 28일 일본 도쿄에서 개최한 ‘메이드 위드 AI(인공지능)’ 행사에서 구글 제품부터 헬스케어, 환경 등 사회문제에 이르는 분야에서 인공지능이 어떻게 활용되는지 소개했다.
이날 구글 인공지능 조직을 이끄는 제프 딘 구글 시니어 펠로우는 구글의 인공지능이 추구하는 궁극적인 목표를 제시했다. 그는 “인공지능과 머신러닝을 사용해서 구글 제품을 유용하게 만드는 것, 다른 기업들이 혁신하는 것을 도와주고, 인류가 당면한 의료·환경문제 등을 해결하는 것이 구글 인공지능의 목표”라고 밝혔다.
구글은 예전 인공지능이 직접 코딩을 해서 하는 방식이었다면 최근 10~20년 동안은 기계 학습기술인 머신러닝을 통해서 직접 규칙을 일반화하고 예측할 수 있도록 했다고 설명했다. 이는 사람이 세상을 살아가면서 패턴을 인식하는 것과 비슷한 원리다. 직접 코딩하는 것보다 훨씬 더 진화된 형태다.
구글은 앞으로도 인공지능을 최우선할 방침을 분명히 했다. 구글은 인공지능을 검색, 번역, 포토뿐만 아니라 데이터를 정확히 이해하고 처리하는 기능이 필요로 하는 모든 영역에 적용할 계획이다.
비지도학습에 대한 설명도 이어졌다. 구글은 최근 유튜브 영상을 인공지능에게 랜덤으로 계속 보여주면서 인공지능 스스로 패턴을 학습하도록 하는 비지도학습 트레이닝을 하고 있다. 이 학습을 통해 인공지능이 고양이가 포함된 유튜브 영상을 잘 인지하고 패턴을 알아차리게 됐다. 단지 많은 정보에 노출시키는 것만으로도 학습이 가능해지게 된 것이다.
구글의 인공지능이 주요하게 쓰이는 영역으로는 구글 인공지능 음성비서인 구글어시스턴트를 꼽았다. 구글은 전 세계 3억명이 난청 등 청취에 어려움을 겪고 있다는 점에 주목해 유튜브 동영상에 10개 언어로 자동 자막을 지원하는 기능을 선보였다고 소개했다. 음성인식 기술이 개선되면서 정확도는 50%에 달한다고 밝혔다.
린 하 구글 리서치 프로그램 디렉터는 “음성인식이 앞으로 방언도 지원할 것”이라고 전망했다. 현재는 표준어만 겨우 알아듣는 수준이지만 향후에는 본인만의 강세와 언어습관, 방언도 알아듣는 수준의 음성인식을 개발할 계획이다. 그는 “답변도 비슷한 소리로 나올 수 있도록 하기 위해서는 방언의 데이터와 소리까지 필요하다”고 덧붙였다.
이날 간담회에서는 인공지능이 사회문제 해결에 쓰이는 사례도 소개됐다. 릴리 펭 구글 프로덕트 매니저는 “딥러닝 같은 최신 인공지능 기술이 오래된 의료 문제를 해결하고 있다”며 “2013년에 비해 딥러닝을 의료에 적용한 논문이 20배나 늘었다”고 설명했다.
그는 “멸종위기 동물인 바다소(해우) 사진을 제시하며 해우를 찾기 위해서 그 동안은 배 위에서 비행기나 드론으로 찍은 사진으로 해우 그림자를 찾는 작업을 해왔다. 망망대해의 수많은 사진 속에서 해우 그림자를 찾는 작업은 매우 어려웠다”며 “최근 호주 해양생물학자들이 컴퓨터과학자들과 구글 인공지능을 활용해 자동으로 해우를 찾는 탐지 모델을 개발한 결과 고무적인 결과를 얻어낼 수 있었다”고 밝혔다.
이 모델을 활용하면 해우의 서식지 확인뿐만 아니라 보호 계획을 세우기에도 용이하다.
또 다른 예로 구글 데이터센터 전력 절감 사례를 들었다. 데이터센터는 수많은 컴퓨터와 냉각시스템이 가동되고 있어 엄청난 전력이 소모되는 곳이다. 이 곳에서 구글 딥마인드트임 머신러닝을 적용하면서 에너지 사용량을 미리 측정하고 관리해 에너지 소모량을 크게 낮출 수 있었다. 냉각 시스템에 드는 전력량은 무려 40%나 절감했다.
의료기술에 인공지능이 적용된 예로는 당뇨병성 망막증후군 진단 시스템이 제시됐다. 당뇨병성 망막증후군은 실명 유발의 가장 큰 원인인데 안구 사진 촬영으로 흔적을 찾아 진단할 수 있다. 하지만 의료 인력이 충분치 않은 인도의 경우 환자들의 45%가 진단을 받기 전에 실명하고 있는 상황이다.
구글은 이런 점에 착안해 의료 영상 부문에 머신러닝을 적용했다. 인도의 의료기관, 미국 검사 지원 기관과 협력해 안구 사진으로 머신러닝을 실시했다. 학습된 인공지능은 새 안구 사진을 제시하면 안구 상태를 5단계로 나눠 진단을 할 수 있었고 이미지 10만개에 대해 진단을 내릴 수 있었다.