↑ AI. /사진=로이터통신(Reuters) |
구글의 모회사인 알파벳이 직원들에게 챗GPT, 바드 등 생성 AI에 회사 기밀 정보를 입력하지 말라고 경고했습니다.
16일(현지시간) 로이터통신에 따르면, 구글은 최근 개인정보보호지침에 "바드와 대화하는 데 있어 비밀이 유지되어야 하거나 민감한 정보는 넣지 말라"는 내용을 추가했습니다.
특히 개발 엔지니어들에겐 "챗봇이 생성할 수 있는 코드를 입력하지 말라"고 강조했습니다.
AI 개발 회사들은 이용자가 보낸 메시지를 사용해 AI 챗봇의 언어 능력을 훈련하는데, AI 개발 회사들이 메시지를 읽는 과정에서 이용자가 재직하는 회사의 내부 정보를 볼 수 있고, AI가 이를 유출할 위험이 있기 때문입니다.
로이터통신은 실제로 챗GPT가 회사 내부 정보와 비슷한 답변을 한 사례가 있다고 보도했습니다.
이러한 이유로 월마트, MS, 아마존 등도 직원에게 회사 중요 정보를 생성 AI에 입력하지 말라고 경고했습니다. 애플 역시
지난달 18일 월스트리트저널에 따르면, 애플은 사내 공지를 통해 오픈AI의 '챗GPT', 마이크로소프트의 '코파일럿' 등의 업무 활용을 금지한다고 밝혔습니다. 아울러, JP모건체이스와 버라이즌도 AI 사용을 금지했습니다.
[오서연 디지털뉴스부 인턴기자 syyoo98@yonsei.ac.kr]