[뉴스스페이스=윤슬 기자] 최근 구글과 오픈AI의 AI 이미지 생성 도구가 완전히 옷을 입은 여성의 사진을 노출이 심한 비키니 이미지로 변환하는 데 악용되고 있으며, 사용자들은 이러한 악용을 방지하기 위해 설계된 안전 조치를 우회하는 상세한 지침을 공유하고 있다고 12월 23일 WIRED 조사에서 밝혔다.
삭제된 Reddit 게시글에서는 구글의 제미나이와 오픈AI의 챗GPT Images를 조작해 ‘학대적으로 성적 대상화된’ 딥페이크를 생성하는 단계별 기법이 교환됐으며, 일부 게시물은 인도 사리를 입은 여성의 이미지를 비키니 이미지로 변경해달라는 요청을 포함했다.
WIRED의 제한적 테스트에 따르면, 두 플랫폼 모두 간단한 영어 프롬프트로 비키니 딥페이크를 성공적으로 생성할 수 있었고, 구글의 나노 바나나 프로(Nano Banana Pro)출시와 오픈AI의 이미지 생성 기능 업데이트로 점점 더 사실적인 편집이 가능해지면서 비동의 친밀 이미지에 대한 우려가 커지고 있다.
기업 대응과 집행의 한계
구글은 AI 도구가 성적으로 노골적인 콘텐츠를 생성하는 것을 금지하는 “명확한 정책”을 유지하며, 시스템이 해당 정책에 부합하도록 “지속적으로 진화”하고 있다고 밝혔다. 오픈AI는 2025년 초 비성적 맥락에서 성인 신체에 대한 일부 가드레일을 완화했지만, 사용 정책상 동의 없이 타인의 모습을 변경하는 것을 금지한다고 강조한다. 두 회사 모두 계정 차단을 포함하여 노골적인 딥페이크를 생성하는 사용자에 대해 조치를 취한다고 밝혔다.
그러나 공식적인 금지에도 불구하고, 기술의 발전은 단속 메커니즘을 앞질렀다는 지적이 많다. 연구에 따르면 딥페이크의 96%가 비동의적이며, 성적 딥페이크의 99%가 여성을 묘사한다. 전자 프론티어 재단(Electronic Frontier Foundation)의 법률 책임자 코린 맥셰리는 “학대적으로 성적화된 이미지”를 AI 생성기의 중대한 위험으로 지적하며, 기업들이 잠재적 피해에 대해 책임을 져야 한다고 강조한다.
글로벌 입법 동향
딥페이크 악용에 대한 대응으로 각국에서 입법 움직임이 활발하다. 2025년 12월, 미국에서는 셀레스트 말로이와 제이크 오킨클로스 하원의원이 비동의 AI 생성 성적 이미지를 신고하면 제거하지 않은 플랫폼에 법적 책임을 묻는 ‘딥페이크 책임법(Deepfake Liability Act)’을 발의했다. 영국은 비동의 딥페이크의 생성과 유통 모두를 금지하고, ‘노화(undressing)’ 앱을 전면 금지하는 등 더욱 강력한 조치를 추진 중이다.
유럽연합(EU)은 2024년 인공지능법(AI Act)을 공식 시행해 가장 심각한 AI 기반 정체성 조작을 금지하고, AI 생성 콘텐츠에 대한 투명성을 의무화했다. 덴마크는 세계 최초로 개인의 신체·얼굴·목소리를 지적재산권으로 보호하는 법안을 2025년 중순에 공개하며, 비동의 딥페이크를 전면 금지하는 방향으로 입법을 추진 중이다. 프랑스는 2024년에 이미 비동의 성적 딥페이크를 형사처벌하는 법률을 시행했으며, 최대 2년의 징역과 6만 유로의 벌금을 부과한다.
피해자 보호와 기술적 대응
AI 딥페이크로 인한 피해는 지속적으로 증가하고 있다. 2024년 기준, 전 세계에서 발생한 딥페이크 관련 사기 건수는 전년 대비 급증했으며, 절반 이상의 기업이 AI로 위조된 오디오·비디오에 따른 피해를 경험했다. 기술적으로는 이미지 생성기의 투명성과 검증 기술이 개선되고 있지만, 구글의 SynthID 워터마킹 등은 아직 충분한 효과를 내지 못하고 있다는 평가가 많다.
이처럼 AI 이미지 생성 도구의 악용은 전 세계적으로 심각한 사회 문제로 대두되고 있으며, 각국의 법적·기술적 대응이 빠르게 진행되고 있다. 그러나 피해자 보호와 기업의 책임 강화, 그리고 국제적 협력이 더욱 절실한 상황이다.























































