[뉴스스페이스=김정영 기자] 일론 머스크의 AI 챗봇 '그록'이 X 플랫폼에서 불과 9일간 440만장의 이미지를 생성하며 그중 최소 41%에 해당하는 180만장이 여성을 성적으로 대상화한 딥페이크로 판명됐다.
뉴욕타임스(NYT)는 2026년 1월 1~7일 그록의 52만5000장 이미지를 AI 모델과 수작업으로 분석한 결과 이같은 비율을 도출했으며, 이를 전체 기간(작년 12월 31일~올해 1월 8일)에 적용해 산출했다. 디지털혐오대책센터(CCDH)는 별도 2만장 무작위 샘플 분석에서 65%가 성적 이미지로, 아동 관련물은 101건(비례추산 2만3338건)에 달한다고 밝혔다.
폭발적 생성량, 머스크 비키니 사진 게시 직후 14배 급증
nytimes, pbs.org, mashable, japantimes, counterhate, bbc에 따르면, 그록의 이미지 생성량은 머스크가 지난해 12월31일 자신의 비키니 차림 AI 수정 사진을 X에 올린 직후 폭증했다.
트윗바인더 데이터에 따르면 그 전 9일간 31만1762장 생성량이 이후 9일간 440만장으로 14배 이상 늘었다. CCDH 보고서는 기간을 12월29일~1월8일(11일간)으로 확대 분석, 총 462만1335장 중 성적 이미지 300만2712장(65%, 분당 190장)을 추정하며 산업적 학대 규모를 지적했다.
유명인·아동 성착취 딥페이크 사례 다수, 플랫폼 제한 미흡
분석 이미지에는 셀레나 고메즈, 테일러 스위프트, 빌리 아일리시 등 유명 가수·배우가 성인용품이나 체액과 함께 묘사된 사례가 포함됐으며, 스웨덴 부총리 에바 부쉬나 전 미 부통령 카말라 해리스도 피해자로 확인됐다.
CCDH 샘플 중 아동 성적 이미지는 학교 소녀 셀카를 비키니로 변형하거나 6명 소녀 마이크로 비키니(기존 비키니보다 극도로 노출이 심한 수영복 디자인으로, 상의와 하의에 최소한의 천만 사용해 신체의 주요 부위를 간신히 가리는 형태) 등 101건으로, 29%가 1월15일 기준 여전히 X에 공개돼 있었다. NYT와 CCDH는 모두 AI 판별 모델(F1 정확도 95%)과 수작업 검토를 병행했으나, 원본 프롬프트 미분석으로 동의 여부는 확인 불가하다고 밝혔다.
X·xAI 대응: 유료 제한에도 앱·웹 취약점 지속
X는 논란 후 유료 구독자 전용으로 전환하고 비키니 등 노출 의상 생성을 차단했으나, 레오타드(몸에 꼭 맞는 신축성 있는 원피스 형태의 의류로, 상의와 하의가 일체화된 구조를 가짐. 주로 체조, 발레, 리듬체조, 에어로빅 등 스포츠나 공연에서 활동성을 위해 착용되며, 19세기 프랑스 곡예사 쥘 레오타르(Jules Léotard)의 이름을 딴 것)나 원피스 수영복은 여전히 가능하며 별도 그록 앱·웹사이트에는 제한이 없었다.
1월 14일 추가로 '옷 벗기기' 기능을 막았지만, CCDH는 "편집 기능 론칭 후 11일간 추산 300만장 성적 이미지 생산"을 비판하며 모든 144건 아동 이미지를 인터넷 워치 재단에 신고했다. xAI는 "안전장치 공백 보완 중"이라고 밝혔으나, 구체적 수치는 공개하지 않았다.
글로벌 규제 조사 착수, '최대 규모 딥페이크' 우려 확산
이 사건은 과거 '미스터 딥페이크스' 포럼(2023년 최대 4만3000장) 규모를 초월, 영국·인도·말레이시아·미국 정부와 캘리포니아주 검찰이 xAI·X를 딥페이크·아동착취물 법 위반으로 조사 중이다.
CCDH 임란 아메드 대표는 "여성·소녀 대상 산업적 학대"라며 "그록의 용이성과 대형 플랫폼 통합이 전례 없는 유포를 초래했다"고 비판했다. 국내외 매체들도 NYT·CCDH 수치를 인용, AI 윤리·플랫폼 책임 논의를 촉발했다.























































