'딥페이크'(Deepfake) 영상물로 인한 피해자 3명 가운데 1명 이상은 미성년자인 것으로 나타났습니다.
↑ 청소년 딥페이크 관련 챗GPT-4O가 그린 이미지. |
오늘(28일) 여성가족부 산하 한국여성인권진흥원에 따르면 올해 1월 1일부터 8월 25일까지 디지털성범죄피해자지원센터(디성센터)로부터 딥페이크 피해 지원을 요청한 781명 가운데 36.9%(288명)는 10대 이하였습니다.
타인의 일상 사진이나 일반 영상물을 성적 불쾌감을 유발할 수 있는 형태로 합성·편집한 것을 의미하는 '딥페이크'로 인해 피해 지원을 요청한 미성년자는 2022년 64명에서 2024년(8월 25일 기준) 288명으로 2년 만에 4.5배가 됐습니다.
같은 기간 전체 피해 지원 요청자가 212명에서 781명으로 3.7배 증가한 것보다 훨씬 증가세가 가파릅니다.
디성센터 관계자는 "저연령층에서 관련 피해가 높게 나타난 것은 이들이 다른 연령층에 비해 SNS 등을 이용한 온라인 소통과 관계 형성에 상대적으로 익숙하기 때문"이라며 "최근 딥페이크 기술이 발전하고, 생성형 인공지능(AI)이 등장함에 따라 손쉽게 불법 영상물을 제작할 수 있는 기술이 보급되면서 관련 피해도 증가하고 있다"고 분석했습니다.
현재 딥페이크로 인한 피해가 전국 곳곳의 학교에서 급격하게 확산하면서 교육 당국과 각 지역 교육청이 강력 대응에 나선 상황
무단으로 도용된 본인의 사진이 성적 수치심을 유발할 수 있는 형태로 합성돼 유포됐다면 디성센터로 피해 상담을 접수할 수 있습니다.
피해 지원 상담은 365일 운영하는 전화(☎ 02-735-8994)나 온라인게시판(d4u.stop.or.kr)을 통해 신청하면 됩니다.
[최유나 디지털뉴스 기자 chldbskcjstk@mbn.co.kr]