SBS 시사교양 프로그램 ‘그것이 알고싶다’에서 ‘딥페이크’ 기술과 이를 악용한 범죄에 대해 알아본다.
# 내가 아닌 가짜 ‘나’의 등장
"여자의 나체가 이렇게 보이는 그 영상 한 11초짜리 그게(메시지) 왔는데. 이거 본인 맞죠? 이러는 거예요." -‘딥페이크’ 피해 제보자 A-
어느 날 SNS 메시지를 통해 낯선 이에게서 자신의 성관계 영상을 받았다는 A씨. 분명 직접 촬영한 영상도 아니었고 실제 있었던 일도 아니었지만, 영상 속 인물은 자신의 얼굴과 똑 닮아있었다. 기억에도 전혀 없고, 있을 수도 없는 일인데, 영상 속의 ‘나’는 진짜 나를 보듯 표정과 움직임까지 자연스러웠다.
놀란 마음을 가라앉히고 영상을 자세히 보기 시작한 그녀는 이 영상이 본인의 얼굴 사진과 다른 사람의 몸을 합성해 만든 가짜 동영상인 것으로 보였다. 세상에 얼굴이 알려진 연예인이나 공인도 아닌 평범한 사람으로 지내온 자신이 어떻게 본인도 모르는 사이 성 착취 동영상의 주인공이 된 것인지 알 수 없다는 A씨. 문제는 이런 메시지를 받은 사람이 A씨뿐만이 아니라는 사실이다.
인공지능의 한 분야인 딥러닝(Deep learning)을 활용해, 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술 ‘딥페이크(Deepfake)’. 최근, 세계적인 인기를 얻고 있는 K팝 연예인들의 얼굴을 이용한 딥페이크 영상물이 만들어지고 있는데, 대부분 성 착취 동영상의 형태로 악용되고 있어 사회적으로 큰 이슈가 되고 있다. 제작진이 만난 제보자들 역시 이 딥페이크 기술에 자신들의 사진을 이용당한 피해자였다. 유명 연예인을 넘어 일반인에게까지 뻗치고 있는 딥페이크 범죄의 피해는 어느 정도일까?
# 양날의 검, 인공지능 ‘딥페이크’. 보이는 대로 믿고 있습니까?
IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기술. 그중의 하나인 ‘딥페이크’는 이미 사망한 사람의 얼굴을 재현해 가족들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내며, 신원 보호가 필요한 사람들을 위한 안전장치도 될 수 있는 등 제대로만 쓰인다면 긍정적인 부분이 많은 기술이다. 그리고 앞으로 더 발전해, 실제와 거의 차이가 없는 정교한 동영상 제작도 가능할 것으로 보인다.
이 기술이 바꾸어 놓을 미래의 풍경은 어떤 모습일까? 전문가들은 인공지능 기술, ‘딥페이크’가 성 착취 동영상 제작의 사례처럼 범죄에 악용될 경우, 이제는 보이는 것을 보이는 대로 믿을 수 없는, 가짜와 진짜를 구분하기 어려운, 치명적인 사회적 위험을 발생시킬 수 있다고 경고한다.
‘그것이 알고싶다‘ 제작진은 전문가들의 자문을 받아 ‘딥페이크’ 기술을 이용한 범죄 실험을 진행했다. 대상은 부모와 자녀. 자녀의 ‘딥페이크’ 영상을 받아본 부모님들은 과연 어떤 반응을 보였을까? 그리고 만약 당신이라면 그 영상을 보고 어떤 행동을 보였을까?
한편 제작진은 ‘딥페이크’ 기술을 이용해 성 착취 동영상과 같은 불법 영상을 제작, 판매하고 있는 사람들을 추적해 만났다. 과연 그들은 누구이며 무슨 이유로 딥페이크 영상을 만드는 것일까?
‘나’를 유명한 영화의 주인공이 되게 만들 수도 있고, 반대로 불법 성 착취 동영상의 주인공이 되게 만들기도 하는 양날의 검 ‘딥페이크’. 우리 현실에 성큼 다가온 이 ‘딥페이크’는 과연 천사의 기술이 될 것인가 악마의
27일 방송되는 ‘그것이 알고싶다’에서는 인공지능의 발전으로 나타난 ‘딥페이크’ 기술의 현주소를 살펴보고, 이 기술을 악용한 범죄를 분석하고 그 예방책을 살펴본다. 또한 ‘딥페이크’가 온전히 ‘사람을 위한’ 기술이 되게 하려면 우리는 무엇을 준비해야 하는지 고민해본다.
trdk0114@mk.co.kr
'그것이 알고 싶다'. 사진lSBS