[뉴스스페이스=김정영 기자] 구글이 이스라엘 군수업체에 드론 감시 영상 분석 AI 기술을 지원하며 자체 윤리 규정을 위반했다는 내부고발이 미국 증권거래위원회(SEC)에 제출되면서 글로벌 빅테크의 군사 AI 윤리 딜레마가 재점화되고 있다.
워싱턴포스트(WP)가 미 증권거래위원회(SEC)에 제출된 내부 고발장을 인용해 보도했다. 2024년 구글 클라우드 부서가 이스라엘 군(IDF) 관련 업체 '클라우드엑스(CloudX)'의 제미나이(Gemini) AI 모델 지원 요청에 기술 해결책을 제안하고 내부 테스트까지 진행한 사례를 핵심 근거로 제시했다.
고발 내용: 드론 영상 객체 식별 지원
고발인은 클라우드엑스가 IDF 협력업체로, 항공 영상에서 드론·장갑차·군인 등을 식별하는 AI 신뢰성 향상을 요청했다고 주장했다. 구글 직원들은 이메일 교환 끝에 문제를 해결하며 지원을 마쳤으며, 이는 2018년 제정된 구글 AI 원칙—무기 관련 기술이나 국제 규범 위반 감시에 AI 적용 금지—을 어겼다고 꼬집었다.
WP에 따르면, 고발 문건은 이 과정이 가자 지구 작전 감시와 연계됐다고 지적하나 구체 증거는 제시되지 않았다.
구글 반박: '의미 있는 사용' 미달 기준
구글 대변인은 "해당 계정의 AI 서비스 월 지출액이 수백 달러 미만으로, 제미나이 등 의미 있는 AI 사용이 불가능했다"고 반박했다. 구글 클라우드 비디오 인텔리전스 요금은 1000분 무료, 이후 분당 0.15달러로 책정돼 있어 소액 사용은 표준 고객 지원 범주에 그친다는 설명이다. SEC는 논평을 거부했으나, 모든 고발이 조사로 이어지진 않는다.
배경: 프로젝트 님버스와 직원 반발
이 논란은 구글의 이스라엘 군사·정부 클라우드 사업과 맞물린다. 2021년 구글·아마존은 12억 달러 규모 '프로젝트 님버스'를 수주해 IDF 데이터 저장·분석을 지원했으며, 2023년 하마스 공격 후 IDF의 버텍스 AI 접근 확대 요청에 신속 대응한 문건이 공개됐다.
이에 2024년 4월 구글은 Nimbus 반대 농성 직원 50여명을 해고했으며, 고발 전 직원은 "이스라엘·가자 문제에서 이중 잣대 적용"을 비판했다. 2025년 2월 구글은 AI 원칙에서 무기·감시 금지 조항을 삭제하며 정책을 완화했다.
글로벌 시각: 군사 AI 윤리 갈등 증폭
이스라엘 저널리즘포스트는 고발이 IDF 클라우드 계정 직원 연루를 지적하며 "구글의 윤리 검토가 형식적"이라고 분석했다. 반면, 디펜스포스트 등은 IDF의 '하브소라' AI 타겟팅 시스템이 구글 클라우드 활용 가능성을 제기하나 증거는 불명확하다. 이 사건은 빅테크의 군사 AI 지원이 투자자·규제 기관 기만으로 이어질 수 있음을 경고하며, 구글 주가 변동성과 SEC 조사 여부를 주목하게 한다.























































