1인칭 총격 영상과 세차 장면도 혼동…증오발언은 거의 못 걸러내
세계 최대 소셜미디어 페이스북의 인공지능(AI) 시스템이 부적절한 게시물을 제대로 걸러내지 못한다는 보도가 나왔습니다.
미 언론들은 연일 페이스북과 자회사 인스타그램의 내부 문건들을 입수해 비판 보도를 이어가고 있습니다.
어제(17일) 현지시간 월스트리트저널(WSJ)은 페이스북이 증오 발언(헤이트 스피치)과 과도한 폭력을 포함한 콘텐츠를 신속히 삭제하기 위해 도입한 AI 시스템이 부적절한 게시물을 제대로 걸러내지 못했다고 보도했습니다.
WSJ이 입수한 내부 문건에는 페이스북 AI가 '1인칭 총격' 영상과 헤이트 스피치를 감시하지 못한 것을 비롯해 닭싸움과 교통사고 영상조차 구분하지 못했다는 내용이 담겼습니다.
지난 2018년 페이스북의 한 엔지니어는 잔혹한 교통사고와 투계 영상이 확산 중이라는 점을 파악하고, AI로 해당 영상을 인식해 삭제하는 방안을 추진했습니다.
그러나 몇 주가 걸리도록 AI는 투계장에서 싸우는 닭과 평범한 닭을 구분하지 못한 것으로 전해졌습니다. 엔지니어들은 '딥비전'이라는 정교한 머신러닝 프로그램을 활용해 AI에게 심하게 다친 닭이 나오는 영상을 걸러내도록 학습시켰으나 큰 효과가 없었습니다.
엔지니어들은 심지어 2건의 사례에서 AI가 "분명히 투계 영상들인데 자동차 충돌 영상으로 분류했다"고 보고했습니다.
일부 사례에서는 AI가 페인트볼을 쏘는 서바이벌 게임이나 세차 장면을 1인칭 총격 영상과 혼동한 것으로 보고되기도 했습니다.
증오 발언이 담긴 콘텐츠도 결과는 마찬가지
올해 3월 다른 내부 문건에서도 폭력과 선동 등의 모든 규정 위반 콘텐츠로 대상을 확대하면 AI가 걸러낸 게시물은 0.6%에 불과하다고 보고됐습니다.
[디지털뉴스부]