![]() |
가짜 누드사진을 퍼뜨리는 텔레그램방이 버젓이 운영되고 있다./사진=뉴스1 |
10만명이 넘는 여성들의 '가짜 누드사진'이 온라인상에 퍼지고 있다고 20일(현지시간) BBC가 보도했다. AI(인공지능)을 활용해 옷을 지우고 나체로 합성하는 수법이다.
BBC는 정보업체 센서티를 인용해 메시지앱 텔레그램을 중심으로 이같은 가짜 사진들이 유포되고 있다면서 피해자 일부는 미성년자였다고도 전했다.
센서티 조사결과 지난해 7월부터 올해 현재까지 10만4852명의 여성들이 가짜 누드 사진의 타깃이 됐으며 대부분의 누드 사진들이 공개적으로 공유된 것으로 나타났다.
센서티는 이같은 서비스가 '딥페이크 봇'을 활용해 이루어졌다고 전했다. AI를 활용해 특정인의 얼굴 등 신체를 다른 화면에 합성해 마치 진짜처럼 보이게 하는 위조하는 기술이다. 센서티 측은 그동안 포르노 영상에 유명인의 얼굴을 합성하는 일들은 주로 일어났지만, 개인의 사진을 이처럼 합성한 것은 새로운 수법이라고 전했다.
지오지오 파트리니 센서티 최고경영자(CEO)는 "소셜미디어에 본인의 사진을 공개적으로 올려둔 이들 누구든 피해자가 될 수 있다"고 우려했다.
이같은 서비스는 텔레그램 '봇'을 통해 손쉽게 제공되고 있다. 사용자가 봇에게 여성의 사진을 보내주면, AI가 몇분 안에 옷을 제거한 뒤 가짜 누드사진을 만들어주는 식이다.
BBC는 수십장의 사진을 가지고 직접 실험해본 결과 합성사진의 퀄리티가 진짜에는 한참 못미쳤다고 전했다.
해당 서비스 운영자는 BBC에 "합성 수준이 비현실적이기 때문에 누구도 이에 대해 항의하지 않았다"면서 "이건 어떤 폭력도 수반하지 않는 단순한 오락"이라고 말했다. 이어 그는 "우리는 어떤 사진들이 공유되는지 모니터링하는 팀이 있다"면서 "일부 부적절한 사용자들은 차단하고 있다"고도 설명했다.
센서티는 해당 봇이 러시아 소셜미디어인 VK를 홍보하고 있다는 점에서 관련성을 의심하고 있다. 해당 서비스 사용자도 대부분 러시아인들인 것으로 나타났다.
하지만 VK측은 "우리 플랫폼에선 그러한 콘텐츠나 링크를 용납하지 않으며, 공유 즉시 커뮤니티를 차단하고 있다"고 말했다.
텔레그램측은 해당 서비스와 관련해서 어떠한 답변도 하지 않았다고 BBC는 전했다.