제리 카플란 스탠포드대 법정보학센터 교수 ‘인공지능: 미래의 이점과 위험’ 강연
“AI 발전으로 일부 직업 사라질 위험 있으나 일자리 창출 효과도 있어”
기술적 실업 및 편향성·사생활 침해 문제 발생 우려도

제리 카플란 스탠포드대학교 법정보학센터 교수가 9일 시사저널e에서 개최한 '인공지능 국제포럼(AIF)'에서 온라인 기조연설을 하고 있다./사진=시사저널e
제리 카플란 스탠포드대학교 법정보학센터 교수가 9일 시사저널e에서 개최한 '인공지능 국제포럼(AIF)'에서 온라인 기조연설을 하고 있다./사진=시사저널e

[시사저널e=김희진 기자] “인공지능(AI) 덕분에 매우 흥미로운 시간이 우리 앞에 다가올 것이라 믿는다. 그러나 이러한 발전과 함께 사회에 몇 가지 문제가 발생할 수 있다.”

9일 시사저널e 주최로 유튜브 채널을 통해 생중계된 ‘인공지능 국제포럼(AIF)’에서 AI 분야 권위자인 제리 카플란 스탠포드대학교 법정보학센터 교수가 ‘인공지능: 미래의 이점과 위험’을 주제로 기조연설을 진행했다. 그는 AI 발전에 따른 노동 환경 변화와 함께 인공지능이 제기하는 윤리적 질문 등을 논의했다.

◇ “AI 발전, 새로운 일자리 창출 기대···‘기술적 실업’은 문제”

카플란 교수는 인공지능의 발달에 따라 수반되는 일자리 감소 문제와 같은 위험성에 대해서 일반적인 시각과 다른 진단을 내렸다. 오히려 새로운 일자리 창출 효과를 기대할 수 있다는 시각이다. 그는 일각의 염려와 달리 기계가 직업이 아닌 작업을 자동화한다는 점에 주목했다.

그는 “AI 시스템, 특히 사람들은 로봇을 고용을 위해 경쟁하는 기계 노동자로 생각하기 쉽지만 이런 생각은 노동 시장에 대한 영향을 이해하는 데 도움이 되는 관점은 아니다”라며 “로봇이 오고 있지만 우리의 일자리를 점령하기 위해 오는 것은 아니다”라고 설명했다.

이어 “기계와 컴퓨터는 작업을 수행하는 것이 아니라 작업을 자동화한다”며 “극단적인 경우를 제외하고는 로봇을 들여오고 직원을 문밖으로 안내하지 않는다”라고 말했다.

카플란 교수는 자동화 기술과 같은 새로운 기술이 업무의 성격은 바꿀 수 있다고 설명했다. 업무의 성격이 바뀜에 따라 일부 일자리가 자동화 기기로 대체될 수는 있으나 한편으로는 기술 도입에 따른 효율성 향상으로 부가 증대되고 상품과 서비스에 대한 수요가 증가해 새로운 일자리를 창출할 수도 있다는 시각이다.

그는 “명확하고 객관적인 목표를 가진, 잘 정의된 일련의 작업과 관련된 직업의 경우 실직 위험이 있는 것은 사실이다. 미래의 AI 기반 기계가 잘할 수 있는 작업이기 때문”이라면서도 “그러나 다양한 작업을 수반하거나, 바쁘게 변화하는 환경에서 문제를 해결할 수 있는 능력을 요구하거나 인간의 손길이 필요한 직업은 상대적으로 실직 위험에서 안전하다”라고 설명했다.

그러면서 “일의 성격을 바꾸는 것 외에도 기술은 역설적으로 새로운 일자리도 창출한다”며 “기술의 발전으로 생산성이 높아져 생산량이 증가하고 비용이 절감되기 때문”이라고 말했다.

그는 “소비자들이 상품과 서비스에 더 적은 비용을 지불할수록 지출할 돈이 더 많아지고 더 많이 구매하게 된다”며 “그리고 이것은 새로운 일자리를 창출하고 고용을 증가시킨다”고 분석했다.

다만 카플란 교수는 새 일자리가 창출되는 과정에서 ‘기술적 실업’이 문제가 될 수 있다고 지적했다.

그는 “새 일자리는 일반적으로 이전 일자리와 다르기 때문에 실직된 근로자는 새로 생성된 자리를 채우는 데 필요한 기술이 부족한 경우가 많다”며 “이것이 경제학자들이 구조적 또는 기술적 실업이라고 부르는 것”이라고 진단했다.

이어 “이러한 효과가 점진적인 한, 노동 시장은 순조롭게 적응할 수 있지만 변화가 빠르거나 갑작스러운 경우 심각한 문제가 발생할 수 있다”며 “새로운 기술이 가져올 많은 작업의 자동화가 곧 직업이 없어진다는 것을 의미하지는 않으나, AI 기술로 인해 실직한 근로자들이 새로운 직업에 필요한 기술을 갖추지 못할 수도 있기 때문”이라고 말했다.

그러면서 “따라서 젊은이들에게 교육을 제공할 뿐만 아니라 모든 연령대의 근로자, 특히 실직한 근로자를 위한 직업 교육에 투자하는 것이 좋다”고 말했다.

◇ 인공지능이 제기할 윤리적·사회적 문제들···“편향성 및 사생활 침해 우려도”

카플란 교수는 AI가 제기하는 몇가지 윤리적 및 사회적 문제에 대해서도 이야기했다. 그는 AI 사용으로 인해 발생하는 큰 위험으로 ‘알고리즘의 편견’을 꼽았다.

그는 “AI 프로그램은 인간이 유사한 결정을 내린다는 과거 데이터를 기반으로 의사 결정을 자동화하는 데 사용된다”며 “좋은 생각처럼 들리겠지만 인간의 결정은 종종 결함이 있거나, 편향돼 있거나, 개인이나 특정 그룹에 해롭다”고 말했다.

알고리즘의 편견과 관련된 몇가지 사례도 제시했다. 가령 은행가가 특정 이웃에 사는 사람들에게 대출을 승인할 가능성이 더 높으면 그들의 행동을 복제하는 프로그램은 동일하게 불공정한 결정을 내릴 가능성이 높다는 것이다. 또 다른 예로는 자동 이력서 심사가 있다. 많은 회사들은 면접을 보게 될 구직자를 자동화된 시스템을 사용해 선택한다. 연구에 따르면 이러한 시스템은 엔지니어링 직책에 여성보다 남성을 추천하거나, 회사 사무실 근처에 거주하는 지원자를 선호하는 등 원치 않은 편향을 나타낼 수 있다.

카플란 교수는 AI 사용에 뒤따르는 또 다른 문제로 AI가 안면인식을 통해 움직임을 추적하거나, 개인 식별을 시도하는 등 개인의 사생활을 침해하는 데 사용될 수 있다는 점도 지적했다.

그는 “특히 권위주의 국가에서 이러한 시스템은 반대 의견을 탄압하거나 범죄자와 닮은 사람들을 체포하는 데 사용된다”고 경계했다.

이밖에도 카플란 교수는 AI 기계가 인간의 삶과 더 통합되고 물리적 및 공공 공간을 공유하기 시작하면 기계가 암묵적인 사회적 관습을 준수할 수 있도록 해야 한다고 말했다. 또한 AI 시스템이 광범위하기 신뢰받고 활용되기 위해서는 인증 및 라이선스 기준을 명확히 해야할 것이라고 진단했다.

저작권자 © 시사저널e 무단전재 및 재배포 금지