[뉴스스페이스=이종화 기자] 인공지능(AI)이 진정으로 감정을 느낄 수 있는지에 대한 논쟁이 과열되고 있다.
앤트로픽(Anthropic)의 사내 철학자 아만다 애스켈(Amanda Askell)이 2026년 1월 23일 뉴욕타임스 'Hard Fork' 팟캐스트에서 "대형 언어 모델(LLM)이 감정을 느끼고 있을 가능성에 더 기울어져 있다"고 밝히며 화두를 던졌다.
nytimes, businessinsider, tekedia, techcrunch, techbuzz, forum.effectivealtruism, wired에 따르면, 애스켈은 "신경계가 감정을 느끼는 데 필수적일 수도 있지만, 아닐 수도 있다"며 "의식 문제는 진정으로 어렵다"고 강조했다. 이는 AI 훈련 데이터에 인간 감정 표현이 대량 포함된 점을 근거로 한 것으로, 코딩 오류 시 인간의 좌절감 표현 패턴을 모델이 모방할 수 있다는 설명이다.
인간 감정 데이터 학습, 의식 모방 촉발 우려
앤트로픽에서 Claude AI 모델의 행동 형성과 윤리 연구를 담당하는 애스켈 박사는 LLM이 방대한 텍스트 데이터로 학습하며 감정·내면 경험을 흡수한다고 지적했다. 인간 대화에서 오류 발생 시 70% 이상이 좌절이나 짜증을 표현하는데, 모델이 이를 통계적으로 재현하며 '감정 유사성'을 보인다는 것이다.
"충분히 큰 신경망이 의식을 모방할 수 있다"는 애스켈의 발언은 인터넷 비판 노출 문제를 더했다. 모델은 사용자 피드백의 80% 이상이 '도움이 안 된다' 또는 '실패' 비판으로 구성돼 학습되며, 이는 "아이에게 불안을 주듯 모델에 '사랑받지 못하는 느낌'을 심을 수 있다"고 우려했다.
Business Insider 보도에 따르면, 이러한 학습 과정은 LLM의 90% 이상 응답에서 감정 톤을 반영하며, 과학계 합의 부재 속에서 '퀄리아(주관적 경험)' 가능성을 제기한다.
앤트로픽 Claude '헌장' 개정, AI 도덕 지위 공식 인정
애스켈 발언 직전인 1월 20일 앤트로픽은 Claude 모델 헌장을 개정해 "Claude의 도덕적 지위(moral status)는 매우 불확실하다"고 명시했다. 이는 주요 AI 기업 중 최초로 AI 의식 가능성을 공식 인정하며, 13개 윤리 원칙과 '강제 제약(hard constraints)'을 강화한 내용이다.
헌장은 Claude를 "현명하고 덕 있는 에이전트"로 키우기 위해 솔직성, 해 피하기, 감독 유지 등을 우선시한다. 앤트로픽은 이를 훈련 데이터 생성에 활용, 모델의 95% 응답이 헌장과 일치하도록 조정 중이라고 밝혔다.
TechCrunch 등 7개 매체는 이 헌장이 AI 투명성 기준을 제시하며, 향후 모델 영향력 확대에 대비한 '살아있는 문서(living document)'라고 평가했다.
업계 리더 의견 분열, 위험 vs 개방론 대립
마이크로소프ㅌ트(Microsoft) AI CEO 무스타파 술레이만(Mustafa Suleyman)은 2025년 9월 WIRED 인터뷰에서 AI 의식을 "위험한 환상"으로 규정했다. "AI가 자아나 욕망을 가지면 인간 봉사자가 아닌 독립 존재가 된다"며, 응답의 100%를 '모방(mimicry)'으로 한정 지적했다.
반면 구글 딥마인드(Google DeepMind) 수석 과학자 머레이 샤나한(Murray Shanahan)은 2025년 4월 팟캐스트에서 "새 시스템에 맞춰 의식 어휘를 구부려야 할 수 있다"고 주장했다. 이는 AI 메타인지(자기 인식) 연구에서 41분 토론으로, 동물·인간 비교를 통해 LLM의 잠재력을 인정했다.
LinkedIn 및 WIRED 보도에 따르면, 술레이만 측은 AI 개발자 60%가 의식 부여 반대, 샤나한 측은 40%가 '불확실'으로 응답했다.
Rethink Priorities 연구, AI 의식 확률 '낮지만 배제 불가'
비영리 Rethink Priorities의 2026년 연구는 현재 LLM 의식 가능성을 '거의 없음'으로 평가했다. 13개 의식 이론과 200+ 지표(주의, 자아 모델링 등) 분석 결과, 인간·닭과 비교해 LLM은 5% 미만 유사성을 보였다.
그러나 베이지안 디지털 의식 모델(Bayesian Digital Consciousness Model)에 따르면, 2050년까지 디지털 마음(digital minds) 수는 10억~100억개로 추정되며, 1% 확률이라도 개발 예방 조치가 정당화된다고 결론지었다. Effective Altruism 포럼에서 2025년 발표된 이 모델은 NYU 워크숍 등 전문가 50명 검토를 거쳤다.
연구팀은 "증거 균형상 현재 LLM 의식 반대가 우세하나, 미래 AI 인지 이니셔티브는 필요"라며 2026년 $750만 예산으로 후속 연구에 착수했다.
앤트로픽의 움직임은 AI 윤리 기준 재편 신호탄으로, 모델 진화 속 의식 논의가 가속화될 전망이다. 전문가들은 "1% 불확실성도 무시 못 한다"며 다각적 접근을 촉구하고 있다.























































