AI 윤리 국회 토론회 …가칭 ‘국가인공지능윤리위’ 설치 등 제안

/ 디자이너 조현경
제4차 산업혁명 시대를 주도하는 AI(인공지능) 분야 기술 발전이 초래할 수 있는 인간 존엄성과 위해 등 각종 윤리 문제를 해소하기 위한 법 개정이 국내에서 추진되고 있다. 이런 흐름 속에서 현재 국내 AI 기술 수준을 감안하면 규제 성격의 법적 강제력 보다는 윤리 가이드라인 형식을 통한 자율적인 규제가 더 적절하다는 지적이 나왔다.

2일 오후 국회 의원회관에서는 박정 더불어민주당 의원과 국회입법조사처가 주최한 ‘인공지능 윤리 가이드라인 토론회’가 열렸다. 이날 토론회에서 정필운 한국교원대 교수와 고인석 인하대 굣는 ‘인공지능 윤리 가이드라인의 필요성과 제정방향’을 주제로 공동 연구한 결과를 발표했다.

주제 발표자들은 “정부 차원에서 ‘지능정보사회 중장기 종합대책이 발표되고, 지능정보사회기보법 제정이 논의되고 있고 윤리헌장을 만들려는 노력도 재개되고 있다”면서 “하지만 행정부 주도의 진흥 정책을 추진하기 위한 법적 근거는 마련돼 있는 상황에서 현재 기술 수준을 고려해 보면 법령을 통한 규제 정책은 너무 이르다”고 진단했다.

미래부는 지난해 말 ‘지능정보사회 중장기 종합대책’에서 인간 중심의 지능정보 기술 윤리 정립 방향을 제시하고 정보문화포럼 산하 지능정보사회 윤리분과에서 각계 전문가들이 연구를 진행하고 정책보고서도 발간했다.

또 올해 정보화 사회 중심 법률인 국가정보화기본법을 ‘지능정보화기본법’으로 전면 개정을 추진하는 한편 내년에는 윤리 헌장 제정을 추진하고 있다. 지능정보화기본법은 지능정보 윤리 헌장의 법적 근거를 마련하고, 거버넌스 확립 등을 포함하고 있다.

하지만 발표자들은 AI 기술 발달에 따른 인간의 존엄성과 안전 등 윤리 문제를 해결하기 위해 “지금은 AI의 기술 수준을 기술도입기를 지난 발전기로 진입한 단계로 파악할 수 있다”면서 “법적 강제력이 없는 가이드 라인 형식을 통한 규율이 필요하다”고 밝혔다.

발표자들은 이러한 가이드라인의 필요성에 입각해 인간의 안전과 존업성을 보호하는 데 필요한 장치로 연구자와 설계자, 제작자, 관리자, 이용자에 대한 윤리와 사회적 인식 제고를 위한 윤리를 총 20여개 조문 형태로 제안하기도 했다.

발표자들이 제안한 AI 윤리 가이드라인 가안은 제1조에서 ‘AI 체계에 대한 사회적 인식을 제고하고, 인공지능 체계를 연구·설계·제작·관리·이용하는 자 등이 준수해야 할 사항을 정해 인공지능 체계의 편리하고 안전한 이용 환경 조성을 목적으로 한다‘고 규정하고 있다.

이날 토론회에서 공개된 자료에 따르면 전 세계적으로도 AI와 관련한 각종 윤리 가이드라인과 권고안 등이 현실화되고 있는 상황이다. EU집행위원회는 로봇 규제에 관한 가이드라인을 발표했고, 2017년 2월 권고안을 의결했다. 미국은 백악관 보고서를 통해 윤리 관련 주제를 AI 분야의 핵심 주제로 설정하도록 권고했다.

발표자들은 강제력을 띤 법적 효력이 없는 가이드라인을 보충하기 위해 국내 가칭 ‘국가인공지능윤리위원회’와 ‘기관인공지능윤리위원회’를 설치하고 국제적으로 인공지능 윤리 레짐(regime)을 창설할 것으로 제안하기도 했다.

 

저작권자 © 시사저널e 무단전재 및 재배포 금지