주최=한국지능정보사회진흥원·과학기술정보통신부
주관=과학기술정보통신부
주제=인공지능 위험성 판단과 법적 과제
일시=2022년 1월 26일(수) 오후 2시~4시
방식=한국프레스센터 20층 국제회의장·온라인 생중계(유튜브)
발표=김병필(KAIST 기술경영전문대학원 교수) 이근우(법무법인 화우 변호사)
토론=오병철(연세대 법학전문대학원 교수) 박상철(서울대 법학전문대학원 교수) 남운성(씨유박스 대표) 하정우(네이버 AI LAB 연구소장) 김병필(KAIST 기술경영전문대학원 교수) 이근우(법무법인 화우 변호사)

 

기술발전의 속도를 법과 제도가 따라잡지 못한다. 제4차 산업혁명의 핵심기술인 인공지능이 대표적이다. 지난해 1월, 인공지능 챗봇 이루다 사례로 드러난 윤리적 결함은 기술발전에 대한 사회적 우려를 낳았다. 사회적 약자를 향한 이루다의 혐오 발언이 문제였다.

과학기술정보통신부는 1월 26일 ‘인공지능 위험성 판단과 법적 과제’를 주제로 ‘제4차 인공지능 법제정비단 공개발표회’를 개최했다. 발표회에서는 한국형 위험기반 인공지능 규율체계를 마련해 사람과 인공지능이 공존하는 지능정보사회로 나아갈 필요성을 논의했다.

▲ 김병필 교수가 발표하는 모습(출처=진흥원 유튜브)

첫 발표는 KAIST의 김병필 교수(기술경영전문대학원)가 맡았다. 주제는 인공지능 기술의 위험 동향.

그는 2016년 알파고와 이세돌의 대국을 언급하며 지난 6년간 인공지능이 여러 분야에서 빠르게 발전했다고 말했다. 포털사이트를 포함해 자율주행차, 의료 로봇 등 인공지능은 인간 삶은 물론, 일상에 많은 영향을 미쳤다. 문제는 기술의 편리성만큼 위험성이 높다는 점이다.

김 교수는 인공지능 위험성의 문제를 해결하기 위해 각각의 위험 유형을 알아야 한다고 말했다. 그는 위험 대상을 △ 생명권·신체의 자유 △ 기회의 균등 △ 소득의 분배 △ 적법절차의 원칙 △ 표현의 자유와 민주주의로 나눴다.

인공지능에 오류가 생기면 개인의 생명권과 신체의 자유를 침해할 수 있다. 김 교수는 2016년 포춘지 기사에 인용된 벤츠사 임원의 발언을 사례로 들었다. 자율주행차 모델 개발 시 보행자와 다른 차량 운전자의 안전을 후순위로 고려한다는 발언이 문제였다.

인공지능은 기회의 균등도 무너뜨릴 수 있다. 채용에 활용하는 시스템이 대표적이다. 2018년 미국 아마존이 개발한 인공지능 기반 채용 시스템은 여성 지원자에게 불리한 결과를 낳았다.
세 번째는 소득분배다. 김 교수는 금융계가 인공지능 서비스를 도입해 소득 재분배 효과에 개입한다고 지적했다. 이어 미국 신용카드사 통계자료를 제시하며 금융사가 신용 점수가 낮은 고객으로부터 이익을 많이 거두는 점을 짚었다.

또 미국 정보기술(IT) 기업 노스포인테(Northpointe)가 개발한 콤파스(COMPAS)가 사법부 판결에 활용될 때 적법절차 원칙이 훼손된다고 비판했다. 국가 행정 작용에 데이터 편향성이 개입될 수 있다는 이유에서다.

프로퍼블리카는 콤파스(COMPAS)가 흑인 전과자보다 백인 전과자에게 우호적이라는 내용을 2016년 보도했다. 김 교수는 “국가는 행정 결정의 배경을 설명할 수 있어야 하고, 피 결정권자도 과정에 참여해 의견을 개진해야 한다”고 지적했다.

▲ 이근우 변호사가 발표하는 모습(출처=진흥원 유튜브)

법무법인 화우의 이근우 변호사는 ‘위험성 판단 법적 기준’을 주제로 발표했다. 그는 유럽연합(EU), 독일, 캐나다, 미국의 인공지능 관련 법제를 분석했다.

EU는 지난해 4월 21일 집행위원회를 거친 인공지능법안을 공개했다. 개인의 안전과 기본권을 해치는 인공지능 기술에 규제를 취하는 점을 뼈대로 하는데 “사전 보고와 연구, 의견 수렴 절차를 통해 제정된 선진적 법제”라고 평가했다.

인공지능 기술 자체가 위험하지는 않다. 다만, 발생 가능한 위험을 관리할 법적 기준이 필요하다. 이 변호사가 제시한 기준은 △ 분야 △ 위해성 △ 목적 △ 사용된 데이터의 신뢰성, 투명성 △ 재산권 또는 중요 기본권에 대한 침해 등 5가지다.

이 변호사는 “해외 법에서 기본권에 대한 침해 정도를 위험성 판단 기준으로 삼는다”며 “국내도 기본권 침해가 예상되는 경우를 기준에 포함하는 법령 개정 절차가 필요하다”고 말했다.

토론이 끝나자 참석자들이 자유롭게 의견을 나눴다. 주제는 ‘인공지능 위험성 판단의 기준’과 ‘고위험 인공지능에 대한 적절한 의무 사항.’

박성철 서울대 법학전문대학원 교수는 EU의 인공지능법안이 해결책이 될 수 없다고 지적했다. “과학기술 규제는 비용과 편익을 고려해야 한다. 수많은 위험성 판단 기준 중 하나의 항목에만 해당해도 규제가 적용된다는 점은 기술 중립성을 해칠 수 있다.”

남운성 씨유박스 대표는 인공지능 위험성 판단 기준을 선제적으로 준비하는 데 동의했다. “지능정보화법이나 개인정보화법 등 인공지능 관련 법안이 흩어져 있다. 규제가 필요하다면 위험성의 정의부터 정확하게 잡아야 한다.”

네이버 AI LAB 연구소의 하정우 소장은 위험성 판단 기준을 정하기 전에 기업 입장을 고려해야 한다고 주장했다. “고위험의 기준을 구체화해야 개발자도 준비가 가능하다. 관련 의무를 누구에게 어느 정도 부과해야 하는지 먼저 제시해야 한다.”

남 대표는 고위험군 인공지능에 대한 의무사항으로 등록제를 제시했다. 인공지능 제공 시, 그 목적과 예상되는 결과를 사전에 공급자가 고지하는 절차다.

토론의 좌장을 맡은 오병철 연세대 교수(법학전문대학원)는 인공지능 법 제정의 전제조건을 다음과 같이 제시했다. “인공지능이 인간의 업무를 대체할 때, 그것이 과연 안전한지, 국가의 안전 체계로 판단해야 한다.”

 

 

 

 

저작권자 © 스토리오브서울 무단전재 및 재배포 금지