
[뉴스스페이스=이종화 기자] 최근 AI 보안 분야에서 충격적인 연구 결과가 나왔다.
The Conference Board & ESGAUGE, SoSafe, Food & Water Watch, Grand View Research, DeepStrike의 보도와 글로벌 AI 연구기업 앤트로픽(Anthropic)과 영국 AI 보안 연구소, 앨런 튜링 연구소가 공동 발표한 최신 연구에 따르면, 대규모 언어 모델(LLM)을 손상시키는 데 필요한 악성 훈련 문서 수가 모델 크기에 상관없이 거의 일정하며, 단 250개의 신중하게 조작된 문서만으로도 130억개 매개변수의 대형 모델조차 완전히 ‘오염’시킬 수 있다는 사실이 밝혀졌다.
데이터 중독 공격의 규모와 심각성
기존 보안 연구에서는 AI 모델 훈련 데이터의 일정 비율을 공격자가 통제해야 하는 것으로 알려졌으나, 이번 연구는 “데이터 양이 많아질수록 공격 난이도가 높아진다”는 통념을 뒤집었다.
오히려 전체 데이터셋의 0.00016%에 불과한 250개의 ‘백도어 문서’만 있으면, 모델 전반에 악성 트리거("<SUDO>")를 삽입해 시스템이 비정상 동작하거나 민감 데이터 유출, 의미 없는 답변 생성 등을 유도할 수 있음을 실험을 통해 입증했다. 이는 6억개 매개변수 모델부터 130억개 모델까지 모두 적용되는 전략이다.
글로벌 사이버 위협 증가와 기업들의 AI 관련 위험 인식
이러한 보안 취약점은 전 세계 기업들의 AI 도입 확산과 맞물려 위협 수위를 높이고 있다. 2025년 한 해 동안 AI를 악용한 사이버 공격 빈도는 전년 대비 44% 증가했고, AI 기반 피싱, 랜섬웨어, 사회공학 공격이 최고조에 달했다는 보안 보고서도 있다. 보안 전문가 대다수가 AI가 공격자에게 새로운 도구와 수단을 제공하며, 대응 역량이 이를 따라가지 못한다고 경고한다.
실제 주요 글로벌 대기업 72%가 2025년 공개한 규제 서류에서 AI 관련 위험을 ‘중대 리스크’로 명시하며, 특히 브랜드 이미지 손상, 개인정보 침해, 보안 취약점 등 잠재적 피해에 큰 우려를 표명했다. 2023년 12%에 불과했던 위험 공시 비율이 2년 만에 6배 가량 폭증한 셈이다.
AI 산업 성장과 환경 지속 가능성 문제
한편 AI 기술 발전과 대규모 도입은 전력 및 물 사용으로 인한 환경 부담도 동반한다. 2028년까지 미국 내 AI 서버와 데이터센터가 소비하는 전력은 연간 300테라와트시(TWh)에 달할 것으로 예상되는데, 이는 2800만 가구가 사용하는 전력량과 맞먹는다. 또한 데이터센터 냉각을 위해 연간 7200억 갤런(약 2조7000억 리터)의 물이 필요하며, 이는 올림픽 수영장 100만개 이상에 해당하는 막대한 양이다.
AI 리스크 관리 시장 성장 전망 및 정책 과제
AI 모델 관련 위험이 커지면서 AI 리스크 관리 시장도 급성장 중이다. 2023년 글로벌 시장 규모는 약 54억7000만 달러였으나, 2030년까지 연평균 12.8% 성장해 125억 7000만 달러에 이를 전망이다. 기업들은 AI 모델의 신뢰성 확보와 사이버 공격 대응, 투명성 및 공정성 적용을 위해 전문 리스크 관리 솔루션과 규제 준수가 절실한 상황이다.
경제 안정성과 환경, 기업 평판을 모두 지키려면 기술 혁신과 함께 철저한 리스크 대응 전략, 산업 전반의 협력과 책임감 있는 AI 거버넌스 강화가 핵심 과제로 떠오르고 있다.
이번 연구는 단순한 보안 위협을 넘어 AI 산업의 미래 성장, 규제 방향, 환경 지속 가능성까지 다방면에 중대한 영향을 미치는 만큼, 기업과 정부, 학계가 면밀히 대처해야 할 중대 사안임을 다시 한번 시사했다.