페이스북의 인공지능(AI) 시스템이 파키스탄 테러가 일어나자 미국, 영국, 홍콩 등에 사는 사용자들에게 “폭발사고가 일어났는데 괜찮냐?”는 오류 메시지를 보냈다. 미국 등에 거주하는 사람들도 최근 테러위협이 높아진 탓에 깜짝 놀라 지인들의 안전을 확인하는 등 적지않은 혼란이 일어나 페이스북이 급히 사과에 나서는 소동을 빚었다. 최근 마이크로소프트사(MS)의 인공지능 채팅로봇 ‘테이’가 인종 및 성차별 발언으로 물의를 빚은후 잇단 AI시스템 오류가 발생하고 있다.
로이터통신에 따르면 지난 27일(현지시간) 저녁 파키스탄 북동부 펀자브주 주도인 라호르의 한 공원에서 폭발이 발생하면서 실시간으로 발송된 이 메세지 내용은 최초 구체적인 발생지와 대상 언급없이 “폭발이 일어났는데 괜찮습니까?”라는 것이었다.
문제는 메시지가 파키스탄뿐만 아닌 영미권 등 다른 지역 사람들에게까지 보내졌다는 것. 이로 인해 파키스탄 테러 소식을 몰랐던 사람들은 자기 주변에 테러가 발생한 것이 아닌지 확인하는 혼란을 빚었다.
실수를 발견한 페이스북은 다시 “당신은 괜찮은가? 당신은 파키스탄 라호르 폭발 사건의 영향력이 미치는 지역에 있는 것으로 보인다. 친구들에게 당신이 무사하다는 것을 알리라”는 식으로 수정된 메세지를 보냈다.
페이스북 대변인은 “시스템 내부에 ‘버그’가 발생한 것으로 보인다”며 “실수로 알림을 받은 분들에게 사과드리며 현재 이 문제를 해결 중이다”라고 사과했다.
페이스북 안전확인 메시지는 지진·홍수 등 재난 상황시 비상메세지를 발송하는 재난 경보형 AI와 비슷한 개념이다. 해당 지역 재난뉴스가 발생하면 GPS 등으로 근처 지역에 위치한 회원들에게 경고 문자를 발송하는 것이다. 페이스북은 지난해 파리테러 이후 이같은 기능을 도입했다. 페이스북은 최근 안면인식 AI기술을 개발하고 차세대 연구용 AI 플랫폼 ‘빅서’를
한편 지난 23일 공개된 테이는 단 몇 시간 만에 미국 극우 네티즌들이 “따라해봐”라는 명령을 내린후 히틀러와 나치 정권을 미화하고 유대인 집단 학살을 지지하는 등의 발언을 가르치자 바로 인종차별 발언을 쏟아내 논란이 됐다.
[이지용 기자]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]