"지금 택시가 오고 있어요. 손을 흔들어 탑승하세요."
↑ 오픈AI가 공개한 '내 눈이 돼주는 GPT-4o(Be My Eyes Accessibility with GPT-4o)' 영상. / 사진 = 유튜브 캡처 |
시각장애인이 택시를 잡는 것을 도와주는 목소리. 오늘(14일) 공개된 'GPT-4o'의 음성입니다.
오픈AI는 이날 GPT의 신형 모델 'GPT-4o'를 새롭게 출시했다고 밝혔습니다.
문자를 통해 대화하던 기존 모델과 달리 GPT-4o는 실시간으로 음성 대화를 나눌 수 있습니다.
카메라에 담긴 모습을 보고 상황을 추론하기도 하고, 실시간 통역까지 해 줍니다.
↑ 오픈AI가 공개한 '내 눈이 돼주는 GPT-4o(Be My Eyes Accessibility with GPT-4o)' 영상. / 사진 = 유튜브 캡처 |
오픈AI가 공개한 '내 눈이 돼주는 GPT-4o(Be My Eyes Accessibility with GPT-4o)' 영상을 보면, 시각장애인이 "집에 가야겠으니 택시를 불러달라"고 GPT-4o에 요청합니다.
그러자 GPT-4o는 카메라 렌즈를 통해 택시의 위치를 파악합니다.
이어 택시를 발견한 GPT-4o는 "한 대를 발견했어요. 지금 택시가 당신의 왼편을 향해 달려오고 있어
새롭게 선보인 GPT-4o는 무료로 사용할 수 있으며 50개의 언어가 제공됩니다.
미라 무라티 최고기술책임자(CTO)는 "더욱 많은 사람들이 AI 기술을 활용할 수 있을 것"이라고 밝혔습니다.
[최유나 디지털뉴스 기자 chldbskcjstk@mbn.co.kr]