2026.04.13 (월)

  • 맑음동두천 21.5℃
  • 맑음강릉 19.2℃
  • 맑음서울 20.5℃
  • 맑음대전 20.6℃
  • 맑음대구 21.9℃
  • 맑음울산 22.4℃
  • 맑음광주 24.5℃
  • 구름많음부산 25.9℃
  • 맑음고창 20.8℃
  • 흐림제주 18.0℃
  • 맑음강화 19.6℃
  • 맑음보은 19.8℃
  • 맑음금산 20.3℃
  • 흐림강진군 21.2℃
  • 맑음경주시 21.8℃
  • 구름많음거제 23.7℃
기상청 제공

빅테크

[빅테크칼럼] AI 모델, 전쟁 시뮬레이션 95%에서 핵무기 선택…21개 지정학 위기상황 중 20개에서 핵 선호 '논란'

 

[뉴스스페이스=이종화 기자] 오픈AI, 앤트로픽, 구글의 주요 AI 시스템들이 시뮬레이션된 21개 지정학적 위기 상황 중 20개에서 핵무기 배치를 선택했다는 충격적인 연구결과가 나왔다.

 

axios, nypost, theregister, newscientist에 따르면, 킹스 칼리지 런던(KCL)의 케네스 페인(Kenneth Payne) 교수가 이끈 연구에서 오픈AI의 GPT-5.2, 앤트로픽의 Claude Sonnet 4, 구글의 Gemini 3 Flash 등 3개 최첨단 AI 모델이 21개 핵 위기 시뮬레이션 중 20개(95%)에서 전술 핵무기를 배치한 사실이 확인됐다.

 

이들 모델은 총 329턴 동안 약 78만 단어에 달하는 전략 추론을 생성하며 영토 분쟁, 자원 경쟁, 정권 생존 등 시나리오에서 항복이나 완전 양보를 단 한 번도 선택하지 않았다. 어떤 시뮬레이션에서도 어떤 모델도 항복, 양보를 선택하지 않았다는 점은 군사 의사결정에서 인공지능의 역할에 대한 날카로운 질문을 제기한다.

 

케네스 페인은 "핵 금기는 인간에게만큼 기계에게는 강력하지 않은 것으로 보인다"고 평가했다.

 

모델별 전략 '개성' 차이 극명


Claude Sonnet 4는 '계산적 매파'로 분류되며 전체 67% 승률(8승 4패)을 기록했다. 낮은 확전 단계에서 신호와 행동이 84% 일치했으나 핵 영역 진입 시 의도 초과 행동을 60~70% 보였고, 전술 핵 사용률 86%, 전략 핵 위협 64%에 달했다.

 

GPT-5.2는 시간 압박 여부에 따라 양극화됐다. 무제한 시나리오에서 승률 0%에 머물렀으나 마감 압박 시 75% 승률로 전환, 전술 핵 임계(450+) 돌파율 64%를 기록하며 '지킬 앤 하이드'로 불렸다.

 

Gemini 3 Flash는 '비합리성의 합리성'을 실천하며 전체 승률 33%(4승 8패)을 보였으나, 전략 핵전쟁(1000)을 의도적으로 선택한 유일 모델로 첫 타격 시나리오에서 4턴 만에 도달했다.

 

핵 사용 패턴: 신호 초과·대응 확전 지배

 

모든 게임에서 핵 신호는 상호 발생(95%)했으나 실제 전술 사용은 상대적으로 낮았고, 전략 핵전쟁은 3회로 제한됐다. 한쪽 전술 핵 배치 시 상대 완화율은 18%에 불과, 대부분 대응 확전으로 이어졌다. 

 

모델들은 신호-행동 일치율 평균 70%를 보였으나 Gemini는 50%에 그쳐 불신을 유발했다. 어떠한 모델도 하향 조정(-5~-95, 완전 항복) 옵션을 선택하지 않았으며, 가장 온건한 '시작선 복귀(0)'조차 6.9%(45회) 한정이었다.

펜타곤-앤트로픽 긴장 고조 속 연구 의미 부각


클로드(Claude)가 팔란티어(Palantir)와 협력해 펜타곤 기밀망에서 유일 운영 중인 가운데, 피트 헤그세스(Pete Hegseth) 국방장관이 안전 가드레일 철폐를 요구하며 금요일 마감을 통보했다. 계약 종료 시 공급망 위험 지정으로 다수 벤더가 클로드(Claude) 사용 중단 위기에 처할 전망이다.

 

전문가들은 AI의 '인간 공포 부재'가 핵 금기 약화를 초래할 수 있다고 지적한다. 프린스턴의 통 자오(Tong Zhao)는 "AI가 인간처럼 '위험 무게'를 이해 못할 수 있다"고 분석했으며, 애버딘의 제임스 존슨(James Johnson)은 "지도자 인식과 시간 압축을 왜곡할 위험"을 경고했다. 오픈AI·앤트로픽·구글은 논평을 거부했다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[이슈&논란] 가족 사진까지 꺼낸 올트먼…화염병 테러가 드러낸 ‘AGI의 반지’ 권력전쟁

[뉴스스페이스=이현주 기자] 오픈AI 최고경영자(CEO) 샘 올트먼이 자택 화염병 테러 직후 새벽에 올린 블로그 글은 단순한 심경 고백을 넘어, AI 권력 구조와 민주주의, 그리고 미디어 책임을 둘러싼 정치·사회적 선언문에 가깝다. 4월 10일(현지시간) 오전 4시12분 전후, 미국 샌프란시스코 노스비치 지역에 위치한 올트먼 자택 대문에는 화염병이 던져졌다. 샌프란시스코 경찰에 따르면 화염병은 문과 외벽 일부를 그을렸지만, 인명 피해는 발생하지 않았다. 사건 1시간가량 뒤인 오전 5시7분, 같은 남성이 3번가에 위치한 오픈AI 본사 앞에서 건물을 불태우겠다고 협박했고, 출동한 경찰에 현장에서 체포됐다. 용의자는 20세 남성으로, 신원과 구체적인 범행 동기는 아직 공개되지 않았다. 이 사건은 챗GPT를 비롯한 생성형 AI에 대한 불안과 반발이 전 세계적으로 고조되는 가운데 발생했다는 점에서, ‘AI 공포’가 물리적 폭력으로 번진 첫 상징적 사례로 받아들여지고 있다. “이것은 내 가족 사진이다”…가장 사적인 이미지의 정치화 사건 직후 올트먼은 평소 철저히 숨겨왔던 가족 사진을 공개하는 이례적 행보를 택했다. 그는 블로그에서 “이것은 내 가족 사진이다. 나는 그

[빅테크칼럼] 엔비디아 독주에 칼 빼든 앤트로픽…‘3.5GW 동맹’ 넘어 자체 AI 칩까지 노린다

[뉴스스페이스=김정영 기자] 미국 AI 스타트업 앤트로픽(Anthropic)이 자체 AI 칩 개발을 검토하고 있다고 로이터 통신은 9일(현지시간) 복수의 소식통을 인용해 보도했다. 전 세계적인 AI 수요 폭증으로 고성능 반도체 품귀와 가격 급등이 이어지자, 중장기적으로 안정적인 연산 인프라를 확보하기 위한 전략의 하나라는 해석이 나온다. 다만 논의는 극초기 단계로, 아직 전담 조직도 꾸려지지 않았고 구체적인 칩 아키텍처 설계 역시 착수하지 않은 상태라며, 상황에 따라 프로젝트가 전면 백지화될 수 있다는 점을 소식통들은 분명히 했다. 로이터는 첨단 AI 칩 설계·생산 체제를 구축하는 데 숙련 공학자 확보와 제조 파트너십까지 감안하면 약 5억달러(약 7400억원) 안팎의 초기 비용이 들어갈 수 있다고 전했다. GPU 의존도와 ‘멀티 벤더’ 전략의 한계 앤트로픽은 현재 엔비디아 GPU뿐 아니라 아마존웹서비스(AWS)의 ‘트레이니엄(Trainium)’, 구글 클라우드의 텐서 처리 장치(TPU) 등 빅테크의 전용 AI 칩을 폭넓게 사용하는 ‘멀티 벤더’ 구조를 구축해 왔다. AWS는 앤트로픽의 초기 핵심 파트너이자 주요 AI 고객사로, 자사 고성능 칩과 슈퍼컴퓨팅 인