‘이루다’의 생각을 알 수 있을까… KISDI, AI 정책 세미나 개최

 
 
기사공유
  • 카카오톡 공유
  • 카카오톡 공유
  • 네이버 블로그
  • 텔레그램 공유
  • url 공유
2일 열린 ‘사람 중심의 AI 구현을 위한 정책 세미나’에서 문정욱 정보통신정책연구원 지능정보사회정책센터장이 발표하는 모습 /사진=온라인 캡처
2일 열린 ‘사람 중심의 AI 구현을 위한 정책 세미나’에서 문정욱 정보통신정책연구원 지능정보사회정책센터장이 발표하는 모습 /사진=온라인 캡처

최근 인공지능(AI) 챗봇 ‘이루다’가 논란 끝에 퇴장하면서 AI 윤리가 IT업계에 화두로 던져졌다. 제2의 이루다 사태를 방지하고 AI 윤리에 대해 함께 고민해보는 자리가 마련됐다.

2일 과기정통부와 정보통신정책연구원(KISDI)이 ‘사람 중심의 AI 구현을 위한 정책 세미나’를 개최했다. 서울 서초구 더케이호텔에서 열린 이번 행사는 유튜브를 통한 온라인 중계도 병행됐다.

첫 주제발표에 나선 문정욱 KISDI 지능정보사회정책센터장은 ‘AI 윤리 기준과 추진과제’에 대해 발표했다. 미국과 일본, EU와 OECD 등 세계 각국과 주요 국제기구의 AI 윤리 원칙 수립 현황과 함께 우리정부에서 추진 중인 ▲AI 생태계 참여 주체별 체크리스트 ▲AI 윤리 교육 프로그램 ▲AI 윤리 기준 지속 보완·거버넌스 등을 소개했다.

문 센터장은 “사람 중심의 AI가 구현되려면 무엇보다 AI 생태계 참여자와 이해관계자들 사이에 신뢰를 기반으로 소통과 논의가 이뤄져야 한다”면서 “이런 고민과 토론을 통해 신뢰할 수 있는 인공지능사회·지능정보사회에 도달할 수 있을 것”이라고 말했다.

두 번째 발표자로 나선 변순용 서울교대 교수는 ‘AI 윤리교육의 방향과 도전’을 주제로 연단에 올랐다. AI로 비롯되는 사회적 문제를 극복하려면 모두가 AI를 윤리적으로 활용할 수 있어야 하며, 우리 사회의 보편성과 특수성이 반영된 AI 윤리교육이 이뤄져야 한다고 주장했다.

변 교수는 “이루다 사태는 개발자 윤리 문제와 사용자 윤리 문제가 동시에 불거진 경우”라며 “중요한 것은 AI를 윤리적으로 활용할 수 있는 역량이다. 개발사와 사용자가 기본적인 윤리 의식을 갖춘다면 이런 사태는 다시 발생하지 않을 것”이라고 설명했다.


마지막 주제발표는 이현규 정보통신기획평가원(IITP) AI·데이터 PM이 ‘AI 기술의 신뢰 확보’에 대해 다뤘다. 결과까지 과정을 파악하기 어려운 딥러닝 블랙박스 문제를 해결하기 위한 여러 시도를 소개하면서 ‘설명 가능한 AI’의 중요성을 강조했다. 이에 따라 AI 투명성을 확보하기 위한 신뢰성 도구 개발도 추진되고 있다.

이 PM은 로 “차세대 AI사업 예타를 하면서 느낀 점은, AI에 대한 신뢰와 윤리는 기술적인 관점에서만 접근할 게 아니라 사회적 합의와 제도 등으로 공론화돼야 한다는 것”이라며 “이루다 사태는 전화위복이 될 수 있다고 생각한다. 투명성을 확보해주는 툴과 인증제도로 신뢰할 수 있는 AI를 만든다면 장차 수출에도 도움이 될 것”이라고 내다봤다.
 

팽동현
팽동현 [email protected]

열심히 하겠습니다. 감사합니다.

이 기자의 다른기사 보기 >
  • 0%
  • 0%
  • 코스피 : 2514.95상승 9.9415:32 12/04
  • 코스닥 : 828.52상승 1.2815:32 12/04
  • 원달러 : 1304.00하락 1.815:32 12/04
  • 두바이유 : 81.31하락 4.0715:32 12/04
  • 금 : 2089.70상승 32.515:32 12/04
  • [머니S포토] '2023 해외항만 개발 지원협의체 파이팅!'
  • [머니S포토]  2023 한화 배터리데이, 'K-배터리의 미래는'
  • [머니S포토] 방문규, 제30차 에너지위 '전력계통 혁신대책' 발표
  • [머니S포토] 27개국 코이카 글로벌 서포터스 화려한 '피날레 쇼'
  • [머니S포토] '2023 해외항만 개발 지원협의체 파이팅!'

칼럼

커버스토리

정기구독신청 독자의견