↑ 사진=게티이미지 (기사와 직접적인 관계없는 자료) |
최근 '인공지능(AI)이 적용된 무인기가 가상훈련에서 인간 조종자를 임무 수행 방해물로 판단해 살해했다'는 보도가 나와 큰 이슈가 됐다가 이후 사실이 아닌 것으로 드러났습니다.
미 공군의 AI 시험·운영 책임자인 터커 해밀턴 대령이 영국 왕립항공학회(RAeS)가 지난 5월 말 개최한 학술회의에서 발표했다는 '악당 AI 드론 시뮬레이션 시험' 관련 내용이 보도됐는데, 터커 대령이 이후 발표 내용을 철회했습니다.
그는 해당 시험이 실제 시뮬레이션 훈련이 아니라 가설에 근거해 진행된 '사고실험'(thought experiment)으로 군 외부에서 이뤄졌다고 해명했습니다.
그러나 "AI가 언젠가 영화 '터미네이터'에 나오는 사악한 기계 '스카이넷'처럼 인간을 공격할 수 있는 것 아니냐"는 대중의 우려를 확인한 계기가 됐습니다.
해당 프로젝트에 참가했다는 류봉균 에피시스사이언스 대표는 오늘(14일) 한국국방기술과학학회·한국IT서비스학회·AI미래포럼이 공동주최한 '국방 AI 특별 웨비나'에서 "절대로 이런 실험이 일어나지 않았고, 이렇게 무책임하게 AI를 디자인하는 프로그램은 최소한 제가 알기로는 없다"고 밝혔습니다.
그러면서 "해밀턴 대령이 윤리적 AI를 강조하다 과장되게 포장한 것 같다"면서 최초 보도가 "오해의 산물"이었다고 덧붙였습니다.
이기헌 연세대 교수는 웨비나에서 "인공지능 자체의 문제보다는 저희가 인공지능을 잘 이해하지 못하는 데서 생긴 간극이 오해와 오보를 부른다"며 "게다가 국방AI라는 민감한 주제와 관련해선 오해가 더욱 반복되는 것 같다"고 진단했습니다.
이 교수는 "신흥 기술이 두려운 것, '터미네이터' 같은 것으로 프레임이 짜지면 기술 발전에 좋지 않고 그로 인한 부작용이 너무 많다"고 지적했습니다.
이 교수는 또 국방AI 구축을 위해서는 양질의 데이터 확보가 선행돼야 한다고 제언했습니다.
군이 AI를 기반으로 의사결정을 내릴 땐 신뢰
이기헌 교수는 "목적성 없이 데이터를 모은다면 데이터 '컬렉션'이 아니라 '호딩'(Hoarding·무책임한 수집)이 될 수 있다"고 꼬집었습니다.
[오은채 디지털뉴스부 인턴기자 oheunchae_press@naver.com]