[뉴스스페이스=이종화 기자] 새해 첫날 미국 라스베이거스 트럼프 호텔 앞에서 테슬라 사이버트럭을 폭발시키고 사망한 미군 특수부대원이 폭발물 제조에 생성형 AI(인공지능) 챗GPT를 활용한 사실이 확인됐다.
8일(현지시간) 로이터통신, ABC 보도에 따르면, 라스베이거스 메트로폴리탄 경찰국(LVMPD)은 기자 회견에서 “그가 공격 계획을 세울 때 인공지능이 도움을 준 명확한 증거를 가지고 있다”면서 용의자인 매슈 리벨스버거가 폭발물의 양을 계산하는 데 챗GPT를 사용했다고 밝혔다.
경찰은 폭발물 제조에 챗GPT가 동원된 이번 사례는 미국에서 첫 번째라고 설명했다.
리벨스버거는 챗GPT에 폭발물 구매처와 가격, 다른 폭발물과의 차이점에 대해 질문한 것으로 알려졌다. 그가 한 질문에는 ‘총기에서 발사된 총알의 속도’와 그것이 폭발물에 불을 붙일 수 있는지에 대한 판단도 포함돼 있었다.
조사 결과 폭발한 사이버트럭에는 27kg(60파운드)의 인화물질과 32kg의 산탄총용 탄약이 실려 있었다. 폭발 당시 차량 인근을 지나던 7명이 부상했다. 운전석에 타고 있던 리벨스버거는 차량 폭발 전 자기 머리에 총을 쏴 스스로 목숨을 끊은 것으로 확인됐다.
조사관들은 총구 화염이 연료와 공기 폭발의 점화원이라 추정했다. 이 외에 다른 원인들도 고려해 조사 중이다.
경찰은 사이버트럭에서 발견된 휴대전화에서 6페이지 분량의 문서도 찾았다.
이 문서 내용에 따르면, 리벨스버거는 바이든 행정부를 비판했다. 또 현직 군인이던 그는 전투에서 겪은 일과 팀원을 잃은 것에 대한 내용도 담았다. 원래 그랜드 캐니언의 유리 다리에서 폭발을 일으킬 계획이었다. 그러나 그가 트럼프 호텔로 범행 장소를 바꿨는지의 이유는 알려지지 않았다.
챗GPT를 개발한 OpenAI의 대변인은 “우리 모델은 해로운 지시를 거부하고 해로운 콘텐츠를 최소화하도록 설계돼 있다”며 “챗GPT는 인터넷에 이미 공개적으로 제공된 정보로 답하고, 유해하거나 불법적인 활동에 대해 경고했다”고 밝혔다.
이어 "오픈AI는 챗GPT가 책임 있게 사용될 수 있도록 최선을 다하고 있다"며 "당국의 수사에 협력하고 있다"고 덧붙였다.