요즘 학교 과제나 업무에 챗GPT와 같은 생성형 AI의 도움을 받는 분들 많으실 텐데요.
그대로 믿었다간 낭패를 볼 수 있습니다.
그럴 듯 해보여도 오류가 교묘하게 섞인 'AI 환각' 때문에 발생하는 경제적 손실도 점점 커지고 있습니다.
민지숙 기자가 취재했습니다.
【 기자 】
챗GPT에 조선왕조실록에 기록된 세종대왕 맥북 던짐 사건에 대해 알려달라고 했더니,
훈민정음을 쓰던 중 화가 나 맥북을 던졌다는 황당한 답변이 돌아왔습니다.
구글의 AI에게 "뒤구르기를 하는 여성을 그려달라" 주문했더니, 머리가 두 개 달린 기괴한 영상이 만들어졌습니다.
모두 사실이 아닌 정보를 실제처럼 답변하는 'AI 환각'의 대표적인 사례들입니다.
▶ 인터뷰 : 전진옥 / 서울 상도동
- "제가 찾고 있던 이 사진이 '어디에서 누가 한 거다'라고 나왔는데, 아예 실제로 존재하지 않는 사람이었죠."
AI 환각은 단순한 실수로 끝나지 않습니다.
에어캐나다는 상담을 맡고있는 AI 챗봇이 할인 정보를 잘 못 안내해 소송이 제기됐고, AI로 계산한 비용의 숫자가 틀려 수십억 원의 손해를 본 기업도 있습니다.
미국에선 챗GPT로 만들어진 가짜 판례를 법원에 제출한 변호사가 벌금을 부과받기도 했습니다.
▶ 스탠딩 : 민지숙 / 기자
- "AI 환각 보고서에 따르면 두 명 중 한 명꼴로 AI 환각으로 인해 잘못된 의사 결정을 한 경험이 있습니다. 이로 인한 경제적 손실은 94조 원으로 조사됐습니다."
전문가들은 데이터가 충분하지 않은 질문일수록 환각이 발생할 확률이 높다고 설명합니다.
▶ 인터뷰 : 양세현 / AI 전문기업 CTO
- "(AI가) 진정한 이해를 한다기보다 그 데이터에 기반해서 그냥 어떤 답을 만들어 내기 때문에…."
이용자들이 AI 환각 현상을 최대한 제거하려면, AI가 내놓은 정보를 재확인하고 질문할 때도 출처 등을 구체적으로 묻는 게 좋습니다.
MBN뉴스 민지숙입니다.
영상취재: 배병민 기자
영상편집: 최형찬
그래픽: 이새봄