↑ 영국 AI 박람회의 한 로봇 / 사진 = 연합뉴스 |
'인공지능(AI)의 교과서'로 꼽히는 책을 집필한 과학자가 AI의 가파른 발전 속도에 개발자들도 두려움을 느끼고 있다고 말했습니다.
현지시간으로 어제(29일) 스튜어트 러셀 버클리 캘리포니아대(UC버클리) 컴퓨터과학과 교수는 가디언과의 인터뷰를 통해 연구자들도 'AI의 발전에 두려움을 느끼느냐'는 질문에 "그렇다"며 "갈수록 더 무서워지고 있다"고 답했다고 전했습니다.
러셀 교수는 Al 분야의 역저로 꼽히는 '인공지능: 현대적 접근방식'의 저자이며, 실제 이 책은 세계 100여 개 국가의 주요 대학에서 AI 관련 교재로 널리 쓰이고 있습니다.
그는 오늘날의 AI가 목표 수행의 '효율'을 극도로 추구하게 돼 있어 현실 세계의 다양한 변수를 충분히 고려하지 않는다는 점을 문제로 꼽았습니다.
예컨대 AI에 '암 치료법을 개발하라'고 명령한다면, AI는 인류 전체에 종양을 배양한 뒤 전 세계의 국내총생산(GDP)을 모조리 투입, 수백만 건의 임상시험을 진행해 가장 효율적인 의약품을 찾아내려 할 수 있다는 것이다.
러셀 교수는 "그것이 우리가 제시한 과제에 대한 해법이기 때문이다. 우리는 단지 '인간을 '기니 피그'(실험용 동물)로 활용하지 말라', '실험을 하기 위해 전 세계의 GDP를 써버리지 말라'와 같은 지시를 콕 집어 내리는 것을 잊었을 뿐"이라며 AI가 목표 이외의 다른 고려를 할 수 없다는 점을 지적했습니다.
또한 그는 "물리학 분야에서 일어난 일이 생각난다"면서 AI의 발전을 '원자 폭탄'의 개발 과정에 비유하기도 했습니다.
과학자들이 핵분열 에너지의 가능성을 이론으로 확인한 지 얼마 되지 않았는데도, 현실 세계에서 핵폭탄이 터진 것처럼, AI의 발전이 전체 인류의 안전에 위협이 될 수 있다는 주장입니다.
그는 인간을 초월하는 AI가 개발되는 시점에 대해 "짧으면 10년에서 수백 년 정도면 가능할 것"이라고 밝히면서 AI가 인간을 넘어서지 않아도 충분히 위험하다는 것이 문제라고 지적했습니다.
또한 소셜미디어의 알고리즘이 인간을 조종하고 세뇌해 클릭 수를 끌어올리는 데 활용되고 있다며, AI의 위협은 이미 현실이라고 말했습니다.
러셀 교수는 이어 AI의 위협으로부터 인류를 보호하고, AI에 대한 인간의 통제를 지속하기 위해 AI 연구자들에게 적용되는 행동 강령이나 국제적 입법·조약 등을 각국 정부가 추진해야 한다고 촉구했습니다.
특히 AI가 인종차별 등에 대한 문제에
러셀 교수는 "AI를 개발하는 사람들은 AI가 이미 현실에 큰 영향을 끼치고 있다는 사실을 정확히 깨닫지 못하고 있다"며 "이제는 연구자들도 어서 성장해서 이런 현실을 깨우쳐야 한다"고 말했습니다.
[디지털뉴스부]