2026.04.09 (목)

  • 흐림동두천 6.9℃
  • 흐림강릉 14.9℃
  • 흐림서울 9.7℃
  • 흐림대전 8.5℃
  • 흐림대구 9.8℃
  • 울산 12.7℃
  • 광주 11.2℃
  • 부산 11.9℃
  • 흐림고창 11.4℃
  • 천둥번개제주 15.2℃
  • 흐림강화 8.2℃
  • 흐림보은 6.0℃
  • 흐림금산 7.3℃
  • 흐림강진군 10.3℃
  • 흐림경주시 8.6℃
  • 흐림거제 10.5℃
기상청 제공

빅테크

“북한 서울 공격시 AI로봇에 방어 맡겨도 되나”…올트먼의 답변은?

브루킹스硏, 북한의 서울 공습 상황 가정해 질문
샘 올트먼 “따져봐야 할 질문 많아”
AI에 수도 방어 일임·적군 사살 문제 토의
데이터센터 등 AI 기반 시설 중요성 강조도
오픈AI, 자사 도구로 만든 AI 이미지 탐지 도구 '달리' 공개

 

[뉴스스페이스=이은주 기자] 샘 올트먼 오픈AI 최고경영자(CEO)가 인공지능(AI)을 무기로 한 전쟁에 대해 입장을 밝혔다. AI의 전쟁 활용 가치는 높지만, 판단의 신뢰성, 인명 피해, 윤리적 문제 등을 다각적으로 고려해 신중히 접근해야 한다는 입장이다. 

 

올트먼 CEO는 7일(현지시간) 미국 워싱턴 소재 싱크탱크 브루킹스연구소가 개최한 'AI 시대의 지정학적 변화'를 주제로 개최한 대담에서 이런 입장을 밝혔다.

 

진행자는 북한이 서울을 향해 군항공기 100대를 출격시키고, 한국이 AI가 통제하는 로봇 무리를 이용해 항공기를 전부 격추해 북한 조종사 100명이 목숨을 잃는 상황을 가정하고서 어떤 상황에서 AI에 사람을 죽이는 결정을 맡겨도 되느냐는 취지로 질문했다. 즉 북한이 서울을 급습한 상황에서 한국이 AI에 서울 방어를 일임해도 되는지를 질문한 것이다.

 

올트먼은 "AI의 상황 판단을 정말 확신할 수 있는지 또 예상되는 인명 피해는 어느 정도인지 등 따져봐야 할 질문이 많다"고 답했다.

 

또 "항공기가 한국에 접근하고 있고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격 결정을 할 수도 있고 안 할 수도 있지만, 그런 공격이 일어나고 있다고 정말 확신할 수 있나? 어느 정도로 확실해야 하나? 예상되는 인명 피해는? 정말 (우리가 따져봐야 할) 질문이 많다"고 답했다.

 

이어 "AI에 핵무기 발사권을 주어야 한다는 사람을 본 적도, 미사일 요격처럼 촌각을 다투는 일에 AI를 사용해선 안 된다는 사람을 본 적도 없다"며 "사람의 목숨에 관한 일 중 분명 AI가 개입해야 하는 애매한 회색지대가 있다"고 지적했다. 그러면서 "이런 내용은 자신의 전문 분야가 아니다. 오픈AI가 이런 어려운 결정을 하게 되는 일이 없기를 바란다"고 부연했다.

 

이날 대담에서 올트먼 CEO는 AI를 구동하는 ‘연산력(Compute)과 반도체, 데이터센터 등의 시설이 “미래에 가장 중요한 상품이 될 것”이라고 강조했다. 그러면서 “AI 기반 시설이 저렴해져 누구나 사용할 수 있도록 민간뿐 아니라 정부가 공공재로 투자하고, 이를 사람들에게 공평하게 분배하길 바란다”고 전했다.

 

특히 AI 기반 시설을 확대하는 데 있어 “미국이 이끌면서도, 넓고 포용적인 연합체가 이를 주도했으면 좋겠다”며 “미국만 AI 데이터센터를 지어야 한다는 방식은 통하지 않을 것”이라고 말했다.

 

한편 오픈AI는 이날 자사 이미지 생성 AI인 ‘달리’를 사용해 만든 이미지인지 여부를 감지할 수 있는 도구를 공개했다. 가짜뉴스를 방지하는 데 AI가 생성한 콘텐츠를 구분하는 게 중요해진 만큼 달리로 만들어진 이미지를 역추적할 수 있게 하겠다는 취지다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[빅테크칼럼] 구글 CEO "AI가 '거의 모든 SW 무너뜨릴 것"... 순다르 피차이의 경고가 가리키는 사이버 보안의 ‘급변점’

[뉴스스페이스=이현주 기자] 구글 CEO 순다르 피차이가 “AI 모델이 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것”이라고 공개 경고하면서, AI 확산의 숨은 뇌관으로 사이버 보안 리스크가 다시 전면에 부상하고 있다. nytimes, Techmeme, searchenginejournal, securityaffairs에 따르면, 그는 최근 스트라이프 공동창업자 존 콜리슨과 투자자 엘라드 길이 진행하는 팟캐스트 ‘Cheeky Pint’에 출연해, 메모리·전력·웨이퍼 등 하드웨어 공급 병목과 더불어 보안 취약성이 AI 산업의 성장 속도를 제약할 수 있는 핵심 변수라고 지목했다. 특히 AI가 제로데이(0day) 취약점의 ‘발견 비용’을 극단적으로 낮추면서, 소프트웨어 생태계 전반에 걸친 구조적 충격이 도래할 수 있다는 점을 수치로 뒷받침한 셈이다. “이미 무너지고 있을지도 모른다”는 피차이의 문제의식 피차이는 해당 팟캐스트에서 “이 모델들은 분명히 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것이다. 어쩌면 이미 그렇게 되고 있는지도 모른다, 아직 모를 뿐”이라고 말했다. 진행자가 SSH 같은 기초 프로토콜까지 위험해지는 것이냐고 되묻자 그

[빅테크칼럼] “매출은 폭발, 이익은 실종”…IPO 앞둔 오픈AI·앤트로픽, ‘슈퍼 컴퓨트 베팅’의 명암

[뉴스스페이스=이종화 기자] IPO를 앞둔 오픈AI와 앤트로픽 재무 자료 분석결과 두 회사 모두 수익성 없는 것으로 나타났다. 실리콘밸리에서 가장 가치 있는 두 인공지능 스타트업이 역사상 최대 규모의 기업공개를 향해 경쟁하고 있지만, 기밀 재무 문서에 따르면 오픈AI와 앤트로픽 모두 수익을 내는 단계와는 거리가 먼 것으로 밝혀졌다. 월스트리트저널 보도는 두 회사의 재무 상황에 대한 내부 분석을 제공하며, 공통된 취약점을 부각시켰다. AI 모델 구축 및 운영에 드는 비용이 급증하면서 빠르게 성장하는 매출을 계속 앞지르고 있다는 분석이다. 폭발하는 매출, 더 빠르게 치솟는 비용 월스트리트저널(WSJ)이 입수한 투자자용 기밀 재무자료에 따르면, 오픈AI는 2030년이 돼서야 손익분기점에 도달할 것으로 예상하고 있으며, 앤트로픽은 2028년 흑자 전환을 목표로 하고 있다. 두 회사 모두 AI 붐의 중심에 서 있지만 ‘언제 돈을 버느냐’라는 질문에 대한 답은 상당히 다르다. 두 회사 간의 격차는 AI 붐을 헤쳐나가는 극명하게 다른 전략을 반영하며, 두 회사 모두 2026년 4분기 IPO 가능성을 준비하고 있다. 오픈AI는 이미 매출 규모에서 시장을 선도하고 있다. 2