[뉴스스페이스=김정영 기자] 오픈AI CEO 샘 올트먼이 “AGI 이후에는 아무도 일하지 않고, 경제는 붕괴할 것”이라는 다소 과장된 문장을 X에 올리면서, 가볍게 던진 농담이 전 세계 노동시장과 거시경제 논쟁의 도화선이 되고 있다.
동시에 그는 GPT‑5.5라는 강력한 상용 모델을 내놓고, 규범·재정·노동정책까지 건드리는 13쪽짜리 ‘AI 시대 산업정책’ 구상을 내놓으며, 기술기업 CEO에서 사실상 ‘사회계약 개편’을 촉구하는 정치 행위자 수준으로 이동하고 있다.
“경제 붕괴” 트윗과 그 속내
timesofindia.indiatimes, GIGAZINE, Fox News, abc7news, nytimes에 따르면, 올트먼은 4월 25일(현지시간) X에 “post‑AGI, no one is going to work and the economy is going to collapse(AGI 이후에는 아무도 일하지 않고 경제는 붕괴할 것)”이라고 적었다.
같은 게시물에서 그는 “Codex의 GPT‑5.5가 너무 좋아서 이렇게 오래 자면서 일을 놓칠 수가 없다”며 “다상 수면으로 바꾸겠다”고 덧붙였다. 전반부는 디스토피아적 예언이지만, 후반부는 ‘너무 잘 돌아가는 AI 때문에 오히려 인간이 더 일하게 되는’ 역설을 풍자한 셈이다.
이 발언은 오픈AI가 사흘 전 공개한 GPT‑5.5를 배경으로 한다. GPT‑5.5는 챗GPT·Codex 유료 구독자에게 제공되는 최신 모델로, 다단계 추론·계획 수립·도구 사용·자기 검증 능력이 강화된 것으로 소개됐다. 오픈AI 측은 이를 “컴퓨터 작업 방식의 질적 도약”이라고 강조했고, 그렉 브록먼은 “새로운 차원의 지능”이라고 표현했다. 요약하면, ‘인간이 안 해도 될 일’의 범위를 빠르게 넓혀가는 도구가 이미 상용화 단계로 진입했고, 올트먼은 그 파급력을 일부러 과장된 언어로 던지며 논쟁을 촉발시키고 있는 셈이다.
숫자로 드러난 ‘정책 패키지’의 방향
올트먼의 트윗은 갑자기 튀어나온 감상이라기보다, 오픈AI가 4월 6일 발표한 13쪽 분량의 정책 문서 「산업정책: 지능의 시대를 사람 중심으로(Industrial Policy for the Intelligence Age: Ideas to Keep People First)」의 연장선에 있다. 이 문서는 두 축을 제시한다. 첫째는 ‘열린 경제(오픈 economy)’ 구축, 둘째는 ‘회복력 있는 사회(resilient society)’ 형성이다.
핵심 정책 제안은 ▲AI 접근권을 “현대 경제에 참여하기 위한 기본권”으로 격상, 저가·무상 AI 접근 확대 ▲AI로 인해 노동소득 기반 조세가 약화될 것을 전제로, 고소득자·법인·AI로 인한 초과이윤에 대한 과세 강화, 이른바 ‘자동화 이익세·로봇세’에 해당하는 개념 제안 ▲임금 삭감 없는 ‘주 4일제’ 시범 도입, 생산성 향상분을 근로자에게 시간·복지 형태로 환원 ▲대규모 공공 자산 펀드(공공 부·국부 펀드) 조성을 통해, AI 초과 이익을 국민 전체가 공유하는 구조 구축 ▲AI로 대체된 노동자를 돌봄·교육·헬스케어 등 ‘인간 접촉이 필수인’ 영역으로 재배치하고, 재교육·임금 인상 정책 병행 ▲핵·생물무기 개발 등에 사용될 수 있는 ‘위험한 AI’에 대한 모니터링·감사체계 구축, 필요 시 모델 격리·차단 체계까지 포함 등이다.
주목할 지점은, 이 문서가 단순 규제 로드맵이 아니라 ‘분배 메커니즘’에 상당한 분량을 할애하고 있다는 것이다. 오픈AI는 AI 투자·개발 인프라 지원, 커뮤니티·SME·학교·도서관에 대한 무료·저가 AI 제공을 강조하며, “AI 보편 접근이 문해력·인터넷 보급과 같은 수준의 공공 목표가 돼야 한다”고 적시했다. 이는 궁극적으로 “노동소득이 줄어드는 사회에서 조세·복지·노동시간을 어떻게 재설계할 것인가”라는, 사실상 새로운 사회계약 논의를 정면으로 건드리는 구상이다.
냉각되지 않는 불안, 실제 공격으로 비화
문제는 이런 거대한 전환 담론이 이미 물리적 충돌의 단계로 비화하고 있다는 점이다. 4월 10일 새벽, 20대 남성이 샌프란시스코에 위치한 올트먼의 자택 출입문에 화염병을 던져 외부 게이트에 화재를 일으켰고, 이후 약 한 시간 뒤 오픈AI 본사 인근에서 건물을 불태우겠다고 위협하다가 체포됐다. 샌프란시스코 경찰과 FBI는 이 사건을 “계획적·표적화된 공격”으로 규정했으며, 용의자에게는 살인미수·방화미수·폭발물 사용 혐의 등이 복수로 적용됐다.
다행히 인명 피해는 없었지만, ‘AI CEO를 향한 실제 물리적 공격’이라는 상징성은 작지 않다. 이미 2023년 기준 맥킨지와 골드만삭스 등은 생성형 AI가 전 세계 노동시간의 25~40%를 자동화할 수 있고, 선진국 일자리의 10~30%가 ‘부분 또는 전면 재편’ 위험에 노출돼 있다고 추정한 바 있다. 이런 데이터 위에 “경제 붕괴”라는 표현까지 겹치면, 대중 불안이 과열되기 좋은 환경이 조성된다.
올트먼 본인도 뉴델리 행사 등에서 “AGI가 꽤 가까워진 것 같다”며, “기술 발전 속도가 스트레스를 주고 불안을 야기한다”고 공개적으로 인정해왔다. 이번 트윗 후폭풍과 물리적 공격 사례는, 기술 리더의 언어가 정책·여론·안전 이슈와 직결된다는 점을 다시 확인시켜준다.
“규제 허무주의 vs 진짜 사회계약” 논쟁
그러나 오픈AI의 정책 제안에 대해 모든 시선이 호의적인 것은 아니다. 미국 경제지 및 테크 전문지 일부는 이 문서를 “규제 허무주의(regulatory nihilism)를 감추려는 포장”이라고 비판했다는 보도를 내놓았다. 즉 초거대 AI 기업이 스스로 ‘사람 중심’을 내세운 산업정책을 들고 나오는 순간, 정부·의회·국제기구의 규제 권한은 상대적으로 약해질 수 있다는 것이다.
특히 오픈AI가 ‘국가 단위 공공부 펀드’나 ‘AI 세수에 기반한 새로운 복지 체계’처럼 매우 거시적인 재정·조세 아젠다를 던지는 행위는, 일종의 의제 선점(agenda‑setting)으로 해석할 수 있다. 이는 향후 각국 정부가 AI 규제를 설계할 때, 오픈AI가 작성한 프레임을 기본값으로 참고하게 만드는 효과를 노릴 수 있고, 결과적으로 “규제받는 기업”이 아니라 “규제를 설계하는 플레이어”로 스스로를 위치시키는 전략일 수도 있다.
한국 입장에서 보면, 이 논쟁은 단지 미국 빅테크의 정책놀음이 아니다. 한국은 OECD 상위권의 자동화·로봇밀도(제조업 로봇 밀도 세계 1위권)와 높은 교육 수준, 빠른 디지털 인프라를 가진 국가다. 동일한 속도로 GPT‑5.5급 모델 활용이 확산될 경우, 화이트칼라 사무직·콘텐츠·개발 영역에서의 ‘부분 자동화’ 비율은 글로벌 평균보다 높을 가능성이 있다. 그만큼 조세·복지·노동시간·직업훈련 체계 재설계를 둘러싼 사회적 합의 필요성도 앞당겨질 수 있다.
올트먼의 트윗 하나는 과장된 농담처럼 보이지만, 그 배경에는 이미 “노동 없는 성장의 시대를 어떻게 설계할 것인가”라는 훨씬 구조적인 질문이 깔려 있다. 한국 역시 ‘AGI 이후’가 아니라 ‘프리‑AGI’ 단계에서, 조세·복지·노동·안보를 아우르는 데이터·모델·정책 패키지를 어떻게 설계할지 본격적으로 논의할 시점에 와 있다.























































