인공지능(AI)를 활용해 사진속 여성을 나체로 만들어주는 텔레그램 대화방이 버젓이 운영되는 것으로 드러나 충격을 주고 있다.
지난 1년간 온라인에서 가짜 나체 사진이 유포된 피해 여성이 10만명이 넘는 것으로 조사됐다.
영국 공영방송 BBC는 민간 정보업체 센시티가 최근 이 같은 내용의 보고서를 발간했다고 20일(현지시간) 보도했다.
보고서에 따르면 문제의 대화방은 사람들이 여성 사진을 전달하면 '딥페이크 봇'(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 서비스를 제공한다.
딥페이크란 실존 인물의 얼굴이나 신체를 인공지능 기술을 이용해 다른 인물과 합성한 편집물이다. 해당 대화방은 사진을 받고 수 분 만에 편집을 완료하며 비용도 청구하지 않는다고 보고서는 전했다.
지난해 7월부터 1년간 약 10만4852명의 여성이 이 대화방을 통해 가짜 나체 사진이 유포되는 피해를 본 것으로 파악됐다.
'P'라고만 알려진 이 대화방 운영자는 BBC에 "이 서비스는 오락물일 뿐이고 폭력 행위도 없다"며 "사진 퀄리티도 사실적이지
다만 딥페이크봇은 그 어떤 사진이라도 무차별적으로 편집해 피해가 급격히 확산할 수 있다고 보고서는 지적했다. 일부 사진에는 미성년자도 있는 것으로 조사됐다.
[이상규 기자 boyondal@mkinternet.com]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]