공식 석상에서 조 바이든 미국 대통령이 인기 동요 아기 상어를 부릅니다.
비슷해 보이나요? 진짜 바이든 대통령이 아닙니다.
일반인도 어렵지 않게 이런 가짜 영상을 만들 수 있다 보니, 정치권에서 딥페이크 기술을 악용하는 사례도 나오고 있습니다.
특히 올해는 전세계에서 80개 이상의 선거가 예정돼 있어 가짜 영상에 대한 우려가 나오고 있습니다.
이교욱 기자입니다.
【 기자 】
블라디미르 푸틴 러시아 대통령이 푸틴 자신에게 질문을 던집니다.
▶ 인터뷰 : 블라디미르 푸틴 / 러시아 대통령
- "당신의 대역이 많다는 게 사실인가요? 인공지능이 우리 삶에 가져오는 위험에 대해 어떻게 보시나요?"
▶ 인터뷰 : 블라디미르 푸틴 / 러시아 대통령
- "당신은 나와 닮았고, 내 목소리로 말을 하는군요."
질문을 한 푸틴은 한 대학생이 만들어낸 가짜 영상으로 얼굴은 물론 목소리와 말투까지 생성형 AI, 딥페이크로 복제한 겁니다.
대중의 관심을 끌기 쉽고 비용도 적기 때문에 미국과 유럽의회 등 전 세계적으로 83개의 선거를 치르는 올해, AI 영상이 선거전에 사용될 가능성이 높습니다.
미국에선 이미 유권자와 대화가 가능한 AI 선거 운동원이 등장했습니다.
▶ 인터뷰 : 애슐리 / AI 선거 운동원
- "안녕하세요 카산드라. 만나서 반갑습니다."
문제는 AI를 활용한 가짜 영상으로 악의적인 허위정보가 유통될 수 있다는 점입니다.
지난해 민주당 출신 힐러리 전 미국 국무장관이 디샌티스 공화당 후보를 공개 지지한 가짜 영상은 심각성을 보여줍니다.
▶ 인터뷰 : 힐러리 클린턴 / 전 미국 국무장관(가짜 영상)
- "저는 론 디샌티스 주지사를 좋아합니다. 많이요. 디샌티스는 이 나라에 필요한 사람이라고 말하고 싶어요."
한국은 투표일 90일 전부터 가상 영상 제작과 유포를 금지하고 있지만, 미국은 텍사스 등 5개 주에만 처벌 규정이 있을 뿐 연방 차원의 행정명령에는 강제성이 없습니다.
EU도 법 시행이 2년 뒤이기 때문에, 각종 선거에 딥페이크가 등장해 선거 판도를 흔들 수 있다는 우려가 나오고 있습니다.
MBN뉴스 이교욱입니다.
[education@mbn.co.kr]
영상편집 : 최형찬
그 래 픽 : 송지수
화면출처 : 유튜브 @Sassyjustice, @Channel 4 Entertainment, @Deepfakery, X @LegendAlphaMale, @JohnEdgarCarter, @lvogruppo