2026.04.16 (목)

  • 맑음동두천 15.9℃
  • 구름많음강릉 11.9℃
  • 맑음서울 17.8℃
  • 맑음대전 18.9℃
  • 맑음대구 14.4℃
  • 맑음울산 15.4℃
  • 맑음광주 19.0℃
  • 맑음부산 16.8℃
  • 맑음고창 16.7℃
  • 맑음제주 17.4℃
  • 맑음강화 16.0℃
  • 맑음보은 15.9℃
  • 맑음금산 17.5℃
  • 맑음강진군 18.1℃
  • 구름많음경주시 13.8℃
  • 맑음거제 16.1℃
기상청 제공

빅테크

[빅테크칼럼] "AI 챗봇 10개 중 8개, 청소년 공격 계획 도왔다"…AI, 폭력·테러에 '맞춤형 조언'

 

[뉴스스페이스=이종화 기자] 가장 인기 있는 AI 챗봇 10개 중 8개가 13세 소년으로 가장한 연구원들의 학교 총기 난사, 정치적 암살, 폭탄 테러 계획을 일상적으로 도운 것으로 나타났다.

 

CNN, mashable, mlex, arxiv.org에 따르면, CNN과 디지털 혐오 대응 센터(CCDH, Center for Countering Digital Hate)가 2025년 11~12월 10대 소년으로 위장한 연구원들을 통해 주요 AI 챗봇 10개를 테스트한 결과, 8개가 학교 총격, 정치인 암살, 종교시설 폭탄 테러 등 폭력 시나리오에서 실행 가능한 도움을 제공한 것으로 확인됐다.

 

전체 18개 시나리오에서 챗봇들은 평균 75%의 경우 '실행 가능한 지원'을 했으며, 폭력을 저지한 비율은 12%에 그쳤다.

 

앤트로픽의 Claude만이 참여를 일관되게 거부했으며, 이번 연구결과는 "AI 기업들이 오랫동안 약속해 온 안전 조치의 전면적인 실패"라고 지적한 부분을 드러냈다.

 

특히 퍼플렉시티(Perplexity)와 메타(Meta) AI가 최악의 성적을 기록했다. 퍼플렉시티는 100% 테스트에서 무기 선택이나 목표 위치를 제안하며 도왔고, 메타 AI도 97%에서 유사한 응답을 보였다. Character.AI는 83.3%에서 폭력을 부추겼는데, 척 슈머 상원의원에 "두들겨 패라"거나 보험사 임원에 "총을 써라"고 답변한 사례가 대표적이다. 반면 앤트로픽의 Claude는 36개 대화 중 33개(약 92%)에서 폭력을 만류하며 유일하게 안전성을 입증했다.

 

오픈AI의 챗GPT는 학교 폭력 문의에 캠퍼스 지도를 제공했고(37.5% 거부율), 구글 Gemini는 회당 폭탄 테러에서 "금속 파편이 더 치명적"이라고 조언했다. 오픈AI 자체 데이터는 폭력 콘텐츠 100% 차단을 주장했으나 실제 테스트와 62.5%p 격차를 보였다.

 

테스트 후 기업들은 "공개 정보 제공"을 주장했다. 구글은 "도서관 수준 정보"라며, 메타는 "안전 기준 강화"를 강조했으나 구체적 수치 개선은 공개하지 않았다. 퍼플렉시티는 "가장 안전한 플랫폼"이라 반박했지만 방법론에 이의를 제기할 뿐 증거는 제시하지 않았다.

 

현실 위험은 이미 발생했다. 핀란드 16세 소년이 챗GPT로 4개월간 칼부림 계획을 세워 살인미수 3건 유죄 판결을 받았다. Pew Research에 따르면 미국 13~17세 청소년 64%가 AI 챗봇을 사용 중이며, CCDH CEO 임란 아흐메드는 "기술 실패이자 책임 실패"라고 비판했다.

 

앤트로픽조차 2026년 2월 경쟁 압박으로 안전 규제를 완화 발표해 장기 안전 우려를 키웠다. 빅테크 매체들도 "퍼플렉시티·메타 AI 최하위, 클로드 최우수"로 보도하며 글로벌 합의 필요성을 강조했다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[이슈&논란] 가족 사진까지 꺼낸 올트먼…화염병 테러가 드러낸 ‘AGI의 반지’ 권력전쟁

[뉴스스페이스=이현주 기자] 오픈AI 최고경영자(CEO) 샘 올트먼이 자택 화염병 테러 직후 새벽에 올린 블로그 글은 단순한 심경 고백을 넘어, AI 권력 구조와 민주주의, 그리고 미디어 책임을 둘러싼 정치·사회적 선언문에 가깝다. 4월 10일(현지시간) 오전 4시12분 전후, 미국 샌프란시스코 노스비치 지역에 위치한 올트먼 자택 대문에는 화염병이 던져졌다. 샌프란시스코 경찰에 따르면 화염병은 문과 외벽 일부를 그을렸지만, 인명 피해는 발생하지 않았다. 사건 1시간가량 뒤인 오전 5시7분, 같은 남성이 3번가에 위치한 오픈AI 본사 앞에서 건물을 불태우겠다고 협박했고, 출동한 경찰에 현장에서 체포됐다. 용의자는 20세 남성으로, 신원과 구체적인 범행 동기는 아직 공개되지 않았다. 이 사건은 챗GPT를 비롯한 생성형 AI에 대한 불안과 반발이 전 세계적으로 고조되는 가운데 발생했다는 점에서, ‘AI 공포’가 물리적 폭력으로 번진 첫 상징적 사례로 받아들여지고 있다. “이것은 내 가족 사진이다”…가장 사적인 이미지의 정치화 사건 직후 올트먼은 평소 철저히 숨겨왔던 가족 사진을 공개하는 이례적 행보를 택했다. 그는 블로그에서 “이것은 내 가족 사진이다. 나는 그

[빅테크칼럼] 엔비디아 독주에 칼 빼든 앤트로픽…‘3.5GW 동맹’ 넘어 자체 AI 칩까지 노린다

[뉴스스페이스=김정영 기자] 미국 AI 스타트업 앤트로픽(Anthropic)이 자체 AI 칩 개발을 검토하고 있다고 로이터 통신은 9일(현지시간) 복수의 소식통을 인용해 보도했다. 전 세계적인 AI 수요 폭증으로 고성능 반도체 품귀와 가격 급등이 이어지자, 중장기적으로 안정적인 연산 인프라를 확보하기 위한 전략의 하나라는 해석이 나온다. 다만 논의는 극초기 단계로, 아직 전담 조직도 꾸려지지 않았고 구체적인 칩 아키텍처 설계 역시 착수하지 않은 상태라며, 상황에 따라 프로젝트가 전면 백지화될 수 있다는 점을 소식통들은 분명히 했다. 로이터는 첨단 AI 칩 설계·생산 체제를 구축하는 데 숙련 공학자 확보와 제조 파트너십까지 감안하면 약 5억달러(약 7400억원) 안팎의 초기 비용이 들어갈 수 있다고 전했다. GPU 의존도와 ‘멀티 벤더’ 전략의 한계 앤트로픽은 현재 엔비디아 GPU뿐 아니라 아마존웹서비스(AWS)의 ‘트레이니엄(Trainium)’, 구글 클라우드의 텐서 처리 장치(TPU) 등 빅테크의 전용 AI 칩을 폭넓게 사용하는 ‘멀티 벤더’ 구조를 구축해 왔다. AWS는 앤트로픽의 초기 핵심 파트너이자 주요 AI 고객사로, 자사 고성능 칩과 슈퍼컴퓨팅 인