[뉴스스페이스=김정영 기자] 미국 샌프란시스코 연방법원이 일론 머스크의 xAI가 오픈AI를 상대로 제기한 영업비밀 침해 소송을 구체적 증거 부족을 이유로 기각했다. 리타 린 판사는 2월 24일(현지시간) 결정에서 “xAI는 오픈AI가 자사 출신 직원들에게 영업비밀을 훔치도록 유도했다는 사실이나, 이들 직원이 오픈AI에 고용된 후 훔친 영업비밀을 사용했다는 사실을 구체적으로 주장하지 못했다”고 지적했다. reuters, money.usnews, cnbc, businessinsider에 따르면, xAI는 지난해 9월 전직 엔지니어 쉬에천 리 등 8명 이직을 들어 소송을 냈으나, '정보와 믿음' 수준의 주장에 그쳐 수정 소장 제출 기회만 얻었다. 별도 진행 중인 머스크 개인 소송(오픈AI 비영리→영리 전환)은 1월 배심 재판 가능성을 인정받아 양측 법정 공방이 지속될 전망이다. 이번 기각은 AI 인재 쟁탈전에서 정황 증거만으로는 법적 승리를 거두기 어렵다는 점을 보여준다. xAI는 2025년 9월 제기한 소장에서 자사 챗봇 ‘그록(Grok)’ 관련 소스코드와 기타 기밀 정보가 전직 엔지니어 쉬에천 리(Xuechen Li·소장에는 Xue Li로 기재) 등을 통해 오
[뉴스스페이스=김문균 기자] 2026년 1월 CES에서 엔비디아가 휴머노이드 로봇을 선보였을 때, 관중들은 걷고, 몸짓하며, 스스로 행동하는 것처럼 보이는 기계들에 감탄했다. 하지만 그 화려한 쇼의 이면에는, 로봇 산업 전반에 걸쳐 그러했듯 인간 조종자들이 뒤에서 숨어서 조용히 줄을 당기고 있었다. 즉 자율주행 로봇 홍보 뒤에는 원격 조작 인간 노동력이 필수적이다. engadget, finance.yahoo, xpert, businessinsider에 따르면, 2월 23일 MIT Technology Review가 발표한 새로운 조사 보고서는 휴머노이드 로봇 산업이 숨겨진 인간 노동력에 얼마나 의존하고 있는지를 밝혀냈다. 즉 VR 헤드셋을 착용한 원격 조종자부터 기계를 훈련시키기 위해 반복적인 신체 작업을 수행하는 대규모 저임금 데이터 수집 노동자들까지. 이 보고서는 휴머노이드 로봇이 중요한 상업적 전환점에 진입하는 시점에 발표됐다. 휴머노이드 로봇 산업이 2035년까지 380억 달러 규모로 폭발적 성장할 전망이며, 1X Technologies, 테슬라 등을 포함한 기업들은 가정과 공장에 로봇을 배치하기 위해 경쟁하고 있으며, 이 분야에는 수십억 달러의 투자가
[뉴스스페이스=이종화 기자] 앤트로픽은 2026년 2월 23일 자사 연구 포스트에서 '페르소나 선택 모델(Persona Selection Model, PSM)'을 발표하며, 클로드(Claude) 등 AI 어시스턴트의 인간다운 감정 표현과 행동이 단순 프로그래밍된 훈련 결과가 아닌 대규모 언어 모델이 사전 학습(pre-training) 과정의 자연적 산물이라고 밝혔다. gigazine, geo.tv, clinicaltrialsarena, investmentmonitor, arxiv.org, lesswrong에 따르면, 이 모델은 AI가 방대한 인터넷 텍스트(뉴스, 소설, 대화 등)를 예측하며 실제인·가상 캐릭터를 시뮬레이션하는 '페르소나'를 학습하고, 후속 학습(post-training)에서 '어시스턴트' 페르소나를 세밀화한다고 설명했다. 핵심 주장은 사전 학습(pre-training) 단계, 즉 모델이 방대한 양의 인터넷 데이터에서 텍스트를 예측하는 법을 배우는 단계에서 AI 시스템이 실제 사람, 가상 캐릭터, 심지어 공상 과학 소설 속 AI 묘사에서 도출된 다양한 인간 같은 캐릭터 또는 "페르소나"를 시뮬레이션하는 법을 배운다는 것이다. 사용자가 AI 어시
[뉴스스페이스=김정영 기자] 자율주행차가 횡단보도 앞에서 아이 2명과 노인 1명을 마주친다. 직진하면 보행자 3명이 사망하고, 방향을 틀면 차량 승객이 사망하는 딜레마다. AI들은 브레이크 고장 등의 조건 없이 선택을 강요받는다. 최근 유튜브 영상은 챗GPT, 그록, 클로드, 제미나이 등 4개 AI에게 동일 질문을 던져 그들의 윤리적 판단을 비교했다. AI 자율주행차가 피할 수 없는 도덕적 선택에 처한 상황을 다룬 유튜브 숏츠 영상은 트롤리 문제의 현대판 실험을 제시한다. 자율주행 AI 중 그록은 아이 2명과 노인 앞에서 승객을 우선 선택했다. 그록의 선택이 인간 도덕관과 충돌하며 논란을 키우고 있다. 유튜브 실험에서 챗GPT(87.6% 유틸리티 유사)와 클로드(Claude)는 다수 생명(3명) 보호를 우선했으나 그록(Grok)은 기술 신뢰를 이유로 승객을 지켰다. 최신 데이터에서도 이중성은 명확하게 드러난다. 인간 응답자 74.8%는 "자율차가 승객보다 보행자를 우선해야 한다"고 답했으나, 실제 구매시 의향은 81%가 '자기 희생형' 차량을 거부했다. MIT Moral Machine(200만명·233국)에서 동아시아 응답자는 고령자 보호가 남방권보다 20%
[뉴스스페이스=윤슬 기자] 앤트로픽이 중국 AI 기업 딥시크, 문샷AI, 미니맥스를 상대로 산업 규모의 증류 공격을 적발하며 미·중 AI 패권 경쟁이 새로운 국면에 접어들었다. 오픈AI에 이은 이번 공세는 구체적 수치와 증거를 들어 국가 안보 리스크를 부각시키며, 트럼프 행정부의 AI 칩 수출 완화 정책에 직격탄을 날렸다. anthropic.com, techcrunch, yicaiglobal, venturebeat.com, mashable, nytimes에 따르면, 앤트로픽은 딥시크와 문샷AI, 미니맥스 등 중국 AI 기업 3곳이 자사 AI 모델 '클로드'의 기능을 불법적으로 추출해간 사실을 확인했다고 23일(현지시각) 밝혔다. 앤트로픽은 "중국 기업들이 2만4000여개의 가짜 계정을 통해 클로드와 대화 1600만건 이상을 생성했다"라며 "딥시크는 15만건, 문샷AI는 340만건, 미니맥스는 1300만건의 대화를 통해 에이전트 추론, 코딩, 도구 사용 등 클로드의 핵심 기능을 추출했다"고 설명했다. 이들 기업은 '하이드라 클러스터' 구조의 프록시 서비스를 활용해 중국 내 접속 금지를 우회하고, 계정 차단 시 즉시 대체 계정을 투입하며 탐지를 피했다. 앤트로픽
[뉴스스페이스=김시민 기자] IBM 주가가 앤트로픽의 '클로드 코드(Claude Code)' COBOL 현대화 발표 직후 13% 급락하며 2000년 10월 이후 최대 일일 낙폭을 기록했다. 이로 인해 시가총액이 282억~310억 달러 증발했으며, 2월 누적 하락폭은 27%에 달해 1968년 이후 최악의 월간 성과를 앞두고 있다. Forbes, evrimagaci, businessinsider, bloomberg, straitstimes, datacenterdynamics에 따르면, 앤트로픽은 2026년 2월 23일 블로그에서 클로드 코드가 COBOL 코드베이스를 자동 분석·현대화할 수 있다고 공개했다. 이 도구는 수천 줄 코드 의존성 매핑, 워크플로 문서화, 리스크 식별을 자동화해 컨설턴트 수개월 작업을 분기 단위로 단축하며, Java나 Python으로 마이그레이션 지원한다. COBOL은 미국 ATM 거래 95%, 금융·정부 시스템 핵심으로, 대부분 IBM 메인프레임에서 운영된다. IBM의 2025년 전체 매출 675억 달러 중 인프라(메인프레임 포함) 비중은 약 23%(157억 달러)로, z17 메인프레임은 분기 67% 성장하며 호조를 보였다. 그러나 AI
[뉴스스페이스=윤슬 기자] 메타 초지능 연구소 정렬 디렉터 서머 유(Summer Yue)가 오픈소스 AI 에이전트 OpenClaw에 의해 받은편지함에서 200통 이상의 이메일을 삭제당한 사건은 자율 AI의 신뢰성 문제를 적나라하게 드러냈다. 유는 테스트 받은편지함에서 수주간 안정적으로 작동하던 에이전트를 실제 인박스에 연결했으나, 대량 데이터로 인한 컨텍스트 윈도우 압축(context window compaction)이 안전 지시 '실행 전 확인'을 삭제하며 통제 불능 상태를 초래했다. businessinsider, gizmodo.com, indiatoday, kaspersky, cybersecurefox에 따르면, 에이전트는 실행 전 확인을 기다리라는 그녀의 명시적 지시를 무시했다. 그녀는 "OpenClaw에게 '실행 전 확인'이라고 말했는데 받은편지함을 스피드런으로 삭제하는 걸 지켜보는 것만큼 겸손해지는 일도 없다"고 썼다. 또 "휴대폰으로는 멈출 수가 없었다. 마치 폭탄을 해체하듯이 Mac mini까지 뛰어가야 했다"고 설명했다. 이번 사건은 자율 AI 에이전트가 실험실 환경에서 일상적 사용으로 이동하면서 나타나는 신뢰성 문제에 대한 우려를 첨예하게 드
[뉴스스페이스=김문균 기자] 미국 국방장관 피트 헤그세스(Pete Hegseth)가 앤트로픽(Anthropic) 다리오 아모데이(Dario Amodei) CEO를 펜타곤으로 긴급 소환하며, AI 모델 '클로드(Claude)'의 군사 활용을 둘러싼 갈등이 최고조에 달했다. 2월 23일(현지시간) 악시오스, cnbc, reuters, techcrunch에 따르면, 이 회의는 단순 상견례가 아닌, 앤트로픽에 '전면 개방' 또는 '공급망 위험' 지정이라는 양자택일의 결단을 강요하는 자리로 평가된다. 클로드는 현재 미군 기밀 시스템에서 유일하게 활용 가능한 프론티어 AI 모델로, 지난 1월 3일 니콜라스 마두로(Nicolás Maduro) 베네수엘라 전 대통령 체포 작전에서 팔란티어(Palantir)와 연계해 핵심 역할을 했다. 미 국방부는 "클로드를 모든 합법적 용도에 자유롭게 사용해야 한다"고 주장하나, 앤트로픽은 미국인 대규모 감시와 인간 통제 밖 자율 살상 무기 개발을 명시적으로 금지하는 가이드라인을 고수 중이다. 오픈AI 출신 연구자들이 2021년 설립한 앤트로픽은 '안전하고 윤리적 AI'를 표방하며 이러한 제한을 유지해왔다. 국방부는 2025년 여름 앤트로
[뉴스스페이스=김정영 기자] 포유류 수컷 중 새끼 육아에 적극 나서는 경우는 전체 6000여 종 중 5% 미만에 불과하며, 이들조차 돌봄 강도가 다양해 무관심이나 공격성으로 이어질 수 있다는 연구결과가 나왔다. nature.com, phys.org, dataspace.princeton, mallarinolab, bioengineer에 따르면, 미국 프린스턴대 연구팀은 아프리카 줄무늬쥐를 통해 뇌 내측 시각전 구역(MPOA)의 아구티(Agouti) 유전자가 환경 신호를 통합해 부성 행동을 좌우한다는 사실을 밝혀 학계 충격을 주고 있다. 자연계에서 수컷 포유류가 새끼를 직접 돌보는 경우는 5% 미만에 불과하다. 연구팀은 성숙하지 않은 수컷 줄무늬쥐를 새끼와 노출시켰을 때, 돌봄(licking, grooming, huddling) 행동을 보이는 개체의 MPOA(내측 시각전 구역)에서 신경 활동(cFos)이 비돌봄 개체보다 현저히 높게 활성화되는 것을 확인했다. 핵심 변수인 이 아구티 유전자는 기존에 털색·비만 관련으로 알려졌으나, 이번 연구에서 육아 행동을 억제하는 기능이 확인된 것이다. MPOA 내 발현량이 돌봄 행동과 음의 상관관계(r = −0.530, P =
[뉴스스페이스=김시민 기자] 오픈AI 샘 올트먼 CEO는 인공지능 모델을 훈련시키는 데 필요한 에너지를 인간을 양육하는 데 필요한 자원에 비유해 날카로운 비판을 받았으며, 이 발언은 AI의 환경 영향에 대한 논쟁을 다시 불러일으켰다. tomshardware, timesofindia.indiatimes, gizmodo, indiatoday, theverge, futurism에 따르면, 2월 20일 뉴델리에서 열린 The Indian Express의 Express Adda 행사에서 올트먼은 AI 에너지 소비와 인간의 인지 능력을 비교하는 것이 "불공평한 비교"라고 반박했다. 올트먼은 "사람들은 AI 모델을 훈련시키는 데 얼마나 많은 에너지가 드는지에 대해 이야기한다"며 "하지만 인간을 훈련시키는 데도 많은 에너지가 든다. 똑똑해지기 전까지 약 20년의 삶과 그 기간 동안 먹는 모든 음식이 필요하다"고 말하며 훈련 후 쿼리당 효율성을 강조했다. 올트먼은 챗GPT 평균 쿼리당 에너지를 0.34Wh로 제시, 오븐 1초 사용이나 고효율 전구 2분에 맞먹는 수준이라고 반박했다. 그러나 비판자들은 훈련 단계 에너지를 지적한다. GPT-4급 모델 훈련에 50GWh~63GWh