![]() |
↑ 사진=연합뉴스 |
'챗GPT' 기술 기반의 인공지능(AI) 챗봇을 탑재한 검색엔진 '빙'에 긴 대화를 유도하면 부적절한 답변이 나온다는 지적에 문답 수를 제한했던 마이크로소프트(MS)가 사용자 반발에 이를 다시 완화했습니다.
현지시간 21일 미 일간 월스트리트저널(WSJ)에 따르면 MS는 챗봇 탑재 빙 사용자당 한 세션 질문 수를 5회, 하루 문답 횟수를 50회로 제한한 것을 한 세션 질문 수 6회, 하루 총 60개로 늘리기로 했다고 밝혔습니다.
MS는 이어 곧 하루에 가능한 질문 수를 총 100개까지 늘릴 계획입니다.
지난 8일 MS가 챗GPT를 탑재한 빙을 출시한 이후 이 챗봇이 사용자의 유도로 부적절하고 위험한 발언을 할 수 있다는 문제가 지적됐습니다.
사용자에게 거짓말을 하거나 사용자를 모욕하고 가스라이팅(심리 지배)하고 감정적으로 조종하는 사례가 잇달아 온라인 등에 올라왔습니다.
그러자 MS는 수정에 나서 지난 17일 대화 세션 한 차례 문답을 최대 5회, 하루 문답 횟수는 총 50회로 제한하기로 했으나, 사용자들의 요청에 이 횟수를 늘리게 된 것입니다.
MS는 "채팅에 제한을 설정한 이후 많은 사용자로부터 더 긴 대화를 통해 더 효과적으로 검색하고 채팅 기능과 더 많은 상호작용을 원한다는 피드백을 받았다"며 "더 긴 채팅을 다시 도입할 계획이며 이를 책임감 있게 할 수 있는 최선의 방법을 찾고 있다"고 밝혔습니다
지난주에 발견된 문제점은 빙과 긴 대화를 나누고 꼬리를 무는 질문을 연달아서 했기 때문이었다고 WSJ은 분석했습니다.
MS는 "이처럼 길고 복잡한 작업은 내부 테스트에서 일반적으로 볼 수 있는 것은 아니다"며 "우리가 새로운 빙을 제한적인 사용자를 대상으로 테스트하는 이유는 이런 이례적인 사례를 찾아내 제품을 개선하기 위한 것이다"고 강
MS는 사용자가 챗봇의 어조를 바꿀 수 있는 몇 가지 옵션도 시험할 예정입니다.
이를 통해 사용자가 더 짧거나 또는 더 긴 답변을 받거나, 이 두 개를 섞은 답변을 받을 수 있다고 MS는 설명했습니다.
그러면서 "목표는 사용자의 요구에 가장 잘 맞는 채팅 반응 유형을 더 잘 제어하도록 하는 것"이라고 덧붙였습니다.
[박통일 기자]