김명주 서울여자대 정보보호학과장 인터뷰
”사회 구성원 윤리 의식 고양 없는 입법, 산업계 부작용 초래“

 

[시사저널e=김용수 기자]  “시민이 똑똑해야 한다. 인공지능(AI)에 관한 윤리 의식을 좀 더 많이 갖는 것이, 시대가 바뀔 때 갖춰야 하는 시민 소양의 진전이라고 본다. 딥페이크라든지 요즘 나오는 AI 문제들에 더 많은 관심을 가지면서 본인의 의견을 낼 수 있을 정도로 수준이 올라와야 한다.”

김명주 서울여자대 정보보호학과 교수는 29일 시사저널e와의 인터뷰에서 “윤리는 사회 구성원 전체가 공감하는 일종의 법 정서인데 그것 없이 몇 사람이 부작용을 보면서 법을 만들면 산업 측면의 왜곡이 일어난다”며 이같이 말했다.

김명주 서울여자대학교 정보보호학과장, 바른AI연구센터장. / 사진=김현준 PD
김명주 서울여자대학교 정보보호학과장, 바른AI연구센터장. / 사진=김현준 PD

국내 AI 윤리 분야 석학인 김 교수는 서울대 컴퓨터공학과 학사·석사·박사 학위를 취득하고, 서울여대에서 정보보호학과장과 바른AI연구센터장을 역임 중이다. 또한 과학기술정보통신부 ‘제2기 인공지능 윤리정책 포럼’ 위원장과 디지털 신질서 정립 협의체 위원, 방송통신위원회 ‘디지털 성범죄 피해자 잊힐 권리를 위한 민관협의회’ 위원과 ‘OECD 글로벌 AI 전문가 연대’ 위원으로 각각 활동 중이다.

김 교수는 2018년 과기정통부와 한국지능정보사회진흥원(NIA)이 운영한 정보문화포럼의 윤리위원장을 맡아 국내 최초의 AI 윤리 가이드라인 '지능정보사회 윤리가이드라인'을 제정하기도 했다.

지난달엔 국제인공지능윤리협회(IAAE)의 제2대 회장에 선임됐다. IAAE는 2019년 설립된 과기정통부 허가 비영리 사단법인으로, AI 기술과 AI 윤리의 조화로운 발전을 통해 인간과 인류를 위한 안전하고 윤리적인 AI 구현을 목적으로 연구, 교육, 정책 및 문화 확산 등 다양한 활동을 하고 있다.

다음달 10일로 예정된 제22대 국회의원 선거에 딥페이크가 악용될 우려와 관련 그는 “딥페이크 영상이 가장 큰 문제가 되는 시점은 선거운동 마감 이틀 전 정도로 본다”며 “당사자가 가짜 영상이란 것을 입증해야 하고, 유권자에게 사실이 아니란 확인을 해줘야 하는데 현실적으로 불가능하다. 선거 하루 이틀 전엔 변명할 수 있는 시간이 없다 보니까 선관위에서도 힘을 쓰지 못해 혼란에 빠지지 않을까 싶다”고 지적했다.

다음은 김 교수와의 일문일답.

- 현재 딥페이크 기술의 위험도 수준은.

오바마 미국 대통령, 문재인 전 대통령의 가짜 영상이 만들어지던 때를 기준으로 딥페이크는 기술적으로는 6~7년가량 지났다. 최근엔 기술 수준이 높아져서 육안으로 구분하기가 힘들어졌다. 과거엔 재미로 만들었지만, 최근엔 정치 분야에 활용되면서 더 영향력이 더 커지고 있다.

딥페이크 기술 활용 예시. / 사진=김현준 PD
딥페이크 기술 활용 예시. / 사진=김현준 PD

- 딥페이크를 활용한 음란물이 사회 문제로 부각됐다. 현재 딥페이크 기반 음란물 탐지 역량과 처벌 수준은.

2020년 N번방 사건 당시 성폭력 처벌법을 강화해 딥페이크 영상에 의한 성범죄를 같이 명기해 처벌을 강화했다. 법이 만들어진 지가 벌써 3년이 지났지만, 굉장히 많은 범죄들이 있었음에도 성폭력 처벌법에 따라 처벌된 사람들은 70여건에 그친다. 70건 중에서 30건은 집행유예에 해당한다. 처벌을 좀 약하게 한다. 양형 기준을 강화할 필요가 있다.

- 4월 10일 제22대 국회의원 선거를 앞두고 있다. 딥페이크가 선거에 미치는 영향이 클 것으로 예상된다. 중앙선거관리위원회에서 70여명을 투입한 전담팀을 꾸려 모니터링 중인데, 올초 총 129건이 적발됐다.

딥페이크로 유권자의 판단을 흐리게 하는 영상이 나올 우려가 있다. 지난 선거 당시 특정 지역구에선 200표 차이로 당락이 결정됐다. 200표 정도는 딥페이크 영상을 하나 잘 만들면 얼마든지 뒤엎을 수 있는 수준이지 않냐.

딥페이크 영상이 가장 큰 문제가 되는 시점을 선거운동 마감 이틀 전 정도로 본다. 상대방 쪽에서 가짜 영상이란 것을 입증해야 하고, 유권자에게 사실이 아니란 확인을 해줘야 하는데 현실적으로 불가능하다.

선거 하루 이틀 전엔 변명할 수 있는 시간이 없다 보니까 선관위에서도 힘을 쓰지 못해 혼란에 빠지지 않을까 싶다. 선관위가 1단계는 59명 직원이, 2단계는 소프트웨어 검증, 3단계는 3명의 전문가 등 인적 자원으로는 약 60명을 동원하는데, 전체 선거구 수와 딥페이크가 집중되는 시점을 고려하면 60여명은 부족하다.

- 해외 딥페이크 규제 현황은.

딥페이크를 규제할 때 많이 쓰는 방법은 딥페이크로 만든 영상에 딥페이크 기반 영상이란 표시를 하는 것이다. 흔히 라벨이라고 하기도 하고 법률용어로는 ‘디스클로저(폭로)’라고 하는데 AI로 만든 영상은 AI로 만든 건지 아닌지 식별할 수 있는 워터마크를 붙이라는 취지다.

유럽연합(EU)의 AI 법이 시행하려면 2년이 필요하다. 미국은 작년 10월말 조 바이든 미국 대통령이 AI 행정명령을 발동한 바 있다. 미국에서 행정명령은 법과 다름없는데, 이는 상대적으로 빨리 시행된다.

플랫폼 기업들도 자율규제를 위해 워터마크 등 관련 정보를 영상에 집어넣겠다고 하고 있는데, 전문가들이 떼 낼 수 있기 때문에 의도적으로 딥페이크를 쓰려는 사람들에겐 그런 규제들이 별 의미가 없다. 다만 상징적인 의미가 있다. 모방 범죄 등을 견제할 수 있다.

현재 우리나라 선거는 EU도 미국 법도 다 정해지지 않고 국내법도 지금 올라가 있는데 다 통과가 안 되고 있다. 법적 준비가 미비한 상태에서 선거가 치러지고 있어서 미국 등은 한국 상황을 보고 강력하게 규제해야 할지, 사업자 자율에 의지해도 될지를 결정할 것으로 보인다.

- AI 윤리 관점에서 일반 국민이 견지해야 할 자세.

‘윤리는 바다고 법은 배다’라는 문구를 늘 인용하곤 한다. 윤리라는 바다에 물이 많으면 법이라는 배가 잘 움직이지 않겠냐. 윤리는 사회 구성원 전체가 공감하는 일종의 법정서인데 그것이 없이 몇 사람이 부작용을 보면서 법을 만들면 산업 측면의 왜곡이 일어난다. 즉 산업이 발전하지 못하고 부작용이 생긴다. 궁극적으로 시민이 똑똑해야 한다. AI에 관한 윤리 의식을 좀 더 많이 갖는 것이 시대가 바뀔 때 갖춰야 하는 시민 소양의 진전이라고 본다. 딥페이크라든지 요즘 나오는 AI 문제들에 더 많은 관심을 가지면서 본인의 의견을 낼 수 있을 정도로 수준이 올라와야 한다.

또 개발자 입장에선 규제를 하겠다는 건지, 말겠다는 건지 답답할 때가 많다. 법을 만들 거면 최소한으로, 신속히 만드는 대신 2~3년 뒤 시행하는 방향이 좋다. 모든 국가에 통하는 방향으로 법을 제정했으면 한다. 호환성 있는 법안이 마련됐으면 한다. 그래야 국내 기업들이 리스크가 줄고, 국내 법이 글로벌 스탠다드란 인식을 할 수 있기 때문이다.

저작권자 © 시사저널e 무단전재 및 재배포 금지