[뉴스스페이스=윤슬 기자] 인공지능(AI) 챗봇 ‘바드’를 개발중인 구글도 자사 직원들에게 바드를 포함한 AI 챗봇에 기밀정보를 입력하지 말 것을 경고하고, 내부단속에 나섰다.
로이터 통신의 15일(현지시간) 보도에 따르면, 구글 모회사 알파벳은 최근 직원들에게 바드를 포함한 AI 챗봇을 조심하라는 지침을 내리며, 민감한 기밀정보를 AI 챗봇에 입력하는 것을 경고한 것으로 알려졌다. 또 개발자들에게 챗봇이 생성할 수 있는 컴퓨터 코드를 AI 챗봇에 직접 사용하지 입력하지 말 것도 주문했다고 일부 소식통은 전했다.
오픈AI, 마이크로소프트(MS)와 생성형 AI 주도권 경쟁을 벌이는 알파벳은 AI챗봇 바드를 개발해 서비스중이다. 구글이 이같은 조치를 내린 이유는 인간 검토자가 사용자들이 입력한 채팅 항목을 모니터링할 가능성이 있고, AI 챗봇 특성상 이전 사용자 입력 내용을 스스로 학습해 또 다른 정보 유출 위험을 초래할 수 있기 때문이다.
로이터는 AI 챗봇 사용을 금지하는 것이 최근 기업들의 보안 표준으로 자리 잡고 있다고 분석했다.
구글 뿐만 아니라 최근 애플, 삼성전자, 아마존 등 빅테크 기업들은 전 세계적으로 내부 데이터 유출을 우려해 생성형 AI 챗봇 사용을 금지하는 기업들이 늘고 있는 상태다. IT기반의 기술기업 뿐만 아니라 JP모건과 뱅크오브아메리카, 도이치뱅크, 미즈호 은행 등 개인 정보에 민감한 금융업계도 직원들의 AI챗봇 사용을 제한했다.
그럼에도 업무에서 AI챗봇이나 생성형 AI를 사용하는 사람들은 늘고 있는 추세다. 글로벌 네트워킹 사이트 피시볼이 지난 1월 직장인 1만2000명을 대상으로 실시한 설문에 따르면, 약 43%의 응답자가 상사에게 알리지 않고 챗GPT나 다른 AI 도구를 사용하고 있다.