![]() |
지난해 3월 구글 딥마인드 '알파고'와 바둑을 두고 있는 이세돌 9단(우측). /사진=뉴스1 |
인공지능(AI)가 저지른 범죄는 어떻게 처벌해야 할까.
지난해 3월 한국사회는 알파고 '쇼크'를 경험했다. 상상에서만 존재하던 '인간을 뛰어 넘는 AI'를 온 국민이 목격했다. 이후 AI기술은 더 빠르게 발전했다. 인간의 언어를 통역해주는 건 기본이고, 공공기관에서 민원인의 상담 업무를 담당하기도 한다. 스스로 운전하는 것을 넘어 최근에는 인간의 고유영역으로 불리는 작곡 등 창작 활동도 한다.
하루가 다르게 AI가 발전하면서 윤리적 문제도 대두됐다. 최근 화두는 AI의 범죄 가능성과 그 처벌에 대한 논의다.
AI가 저지른 범죄에 대해서는 현행법을 적용하기 어렵다는 것이 중론이다. 범죄는 사람의 행위로 보는 오늘날 법 규정 때문이다. 단, 법인(法人)과 같은 개념의 ‘e-인격’ 개념을 AI에 도입할 수 있다.
물론 한계는 있다. 현행법상 법인에 대한 처벌은 대부분 소유 재산에 대한 제재인데 AI는 법인과 다르게 재산을 가질 수 없기 때문이다. 사형이나 구금같은 형사처벌은 해체나 파괴 프로그램 재설치 등으로 대체할 수 있지만 이 또한 회의적이다.
그렇다면 인공지능으로 발생할 수 있는 불법의 책임은 누가 져야 할까.
임석순 한국형사정책연구원 부연구위원의 논문 ‘형법상 인공지능의 책임 귀속’에 따르면, AI의 생산부터 사용단계까지 관련된 사람 중 한 명이 될 가능성이 높다. AI의 행위로 인한 결과의 예측가능성, 회피 의무 등 경중을 따져 처벌할 수 밖에 없다는 것.
임 부연구위원은 “인공지능에 대해 어떠한 태도를 취하든 그로부터 야기될 수 있는 모든 위험을 완벽하게 통제하는 것은 불가능에 가깝다”며 “인공지능이 똑똑해질수록 사람의 통제에서 벗어나기 쉽고 지금은 상상하지 못한 문제상황이 발생할 가능성도 높아질 것”이라고 말했다. 그는 “근본적으로는 인간 자체에 대한 법·철학적 재론까지도 필요하게 될 것”이라고 내다봤다.