인간이 전쟁을 인공지능(AI)에 맡겨도 되는지를 두고 논란이 있는 가운데 AI 산업에 큰 영향력을 행사하는 샘 올트먼 오픈AI 최고경영자도 이게 쉽지 않은 문제라는 인식을 드러냈습니다.
![]() |
↑ 사진=연합뉴스 |
현지시간 7일 워싱턴의 싱크탱크인 브루킹스연구소가 'AI 시대의 지정학적 변화'를 주제로 연 대담에 참석한 올트먼은 북한이 서울을 기습 공격해 한국이 이를 방어하려면 인간보다 대응 속도가 빠른 AI에 의존해야 하는 상황에 대한 질문을 받았습니다.
북한이 서울을 향해 군항공기 100대를 출격시키고, 한국이 AI가 통제하는 로봇 무리를 이용해 항공기를 전부 격추해 북한 조종사 100명이 목숨을 잃는 상황이란 가정을 두고, 어떤 상황에서 AI에 사람을 죽이는 결정을 맡겨도 되느냐는 취지의 질문이었습니다.
이에 올트먼은 "항공기가 한국에 접근하고 있고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격 결정을 할 수도 있고 안 할 수도 있지만, 그런 공격이 일어나고 있다고 정말 확신할 수 있나? 어느 정도로 확실해야 하나? 예상되는 인명 피해는? 회색지대의 어느 지점에 선을 그어야 하는가? 정말 (우리가 따져봐야 할) 질문이 많다"고 답했습니다.
그러면서 "난 누군가 'AI가 핵무기 발사를 결정할 수 있어야 한다'고 주장하는 것을 들은 적이 없다. 또한 누가 접근하는 미사일을 요격할 때처럼 정말 빠르게 행동해야 할 때 AI를 사용해서는 안 된다고 주장하는 것도 들은 적이 없다. 그런데 그사이에 이런 지대도 있다"고 지적했습니다.
이어 자신의 전문 분야가 아니라면서 "오픈AI에서 이런 결정을 하지 않아도 되길 바란다"고 밝혔습니다.
또 "AI 기업들이 AI가 선거 방해에 사
아울러 사람들이 이전보다 AI를 활용한 가짜뉴스 등을 더 경계하고 있어 과거와 같은 방식으로 AI로 선거에 영향을 미치는 게 쉽지는 않겠지만 새로운 위협이 등장할 가능성을 배제하지 않았습니다.
[오지예 기자/calling@mbn.co.kr]