[뉴스스페이스=윤슬 기자] 일본 오키나와과학기술대학원대학교(OIST) 연구진이 AI에 인간처럼 ‘내면의 혼잣말(inner speech)’과 ‘작업 기억(working memory)’을 결합해 훈련시키자, 소량 데이터로도 멀티태스킹과 일반화 성능이 크게 향상된다는 획기적인 결과를 발표했다.
2026년 1월 28일 ‘Neural Computation’에 게재된 논문은 기존 대규모 데이터 학습 방식을 뛰어넘는 경량화 대안을 제시하며 AI 개발 패러다임을 바꿀 전망이다.
핵심 메커니즘: 작업 기억 슬롯 + 자기 중얼거림
OIST 인지신경로봇공학 연구실 제프리 콰이서 박사팀은 순서 뒤집기·패턴 재생성 등 복잡 과제에서 다중 작업 기억 슬롯을 가진 모델이 단일 슬롯 모델보다 명확히 우수한 성능을 보였다고 밝혔다. 여기에 모델이 스스로에게 정해진 횟수만큼 말하도록 유도하는 ‘자기 중얼거림 목표(self-mumbling targets)’를 추가하자 멀티태스킹과 다단계 작업에서 추가 향상이 뚜렷했다.
콰이서 박사는 “희소 데이터(sparse data)로도 작동하는 이 시스템은 방대한 데이터셋에 의존하는 기존 모델의 보완 대안”이라며, 훈련하지 않은 새 과제에서도 일반화 성능이 유의미하게 개선됐다고 강조했다.
뇌과학 접목으로 본 미래 응용
연구는 인간 내면 언어가 작업 전환과 자기 조절에 미치는 영향을 AI에 정량화한 것으로, 가정·농업 로봇의 동적 환경 대응력을 높이는 기반이 될 전망이다. 콰이서 박사는 “복잡·소음·역동적 실세계에서 문제 해결 로봇 개발의 새 통찰”을 제공한다고 밝혔다. AGI 논쟁에서도 스케일링 대신 상호작용적 계산으로 일반화하는 ‘반스케일링’ 가능성을 시사한다.























































