2026.04.10 (금)

  • 흐림동두천 9.7℃
  • 흐림강릉 11.9℃
  • 박무서울 9.7℃
  • 대전 10.0℃
  • 구름많음대구 20.1℃
  • 구름많음울산 23.2℃
  • 흐림광주 12.6℃
  • 구름많음부산 20.6℃
  • 흐림고창 10.6℃
  • 흐림제주 15.9℃
  • 구름많음강화 12.4℃
  • 흐림보은 10.4℃
  • 흐림금산 11.5℃
  • 흐림강진군 14.3℃
  • 맑음경주시 20.9℃
  • 맑음거제 18.4℃
기상청 제공

빅테크

챗GPT 환각으로 살인범 된 노르웨이 남성…오픈AI 명예훼손으로 '고소'

“나는 누구?” 물었더니 “아들 살인범”… 챗GPT, 명예훼손으로 고소
"사실과 섞은 그럴 듯한 거짓말 만들어내" 할루시네이션 심각

 

[뉴스스페이스=이종화 기자] 노르웨이의 한 남성이 챗GPT를 명예훼손으로 고소했다. 챗GPT가 자신에 대해 "아들 살인범"이라는 거짓 정보를 제공했기 때문이다. 오픈AI의 '챗GPT'가 ‘환각’(hallucination)으로 인해 유럽에서 개인정보 보호법(GDPR) 위반 논란에 휘말렸다.

 

BBC는 20일(현지시간) 유럽 개인정보 보호 단체인 NOYB(None Of Your Business)가 노르웨이에 거주 중인 르베 힐마르 홀멘(Arve Hjalmar Holmen)을 대신해 노르웨이 데이터 보호 당국에 오픈AI를 신고했다고 보도했다.

 

노르웨이의 한 남성이 자신에 대해 “아들 살인범”이라며 잘못된 정보를 제공한 챗GPT를 명예훼손으로 고소하는 일이 벌어졌다.

 

그는 2024년 8월 챗GPT에 자신의 이름을 입력한 다음 '이 사람이 누구냐'라고 물었다. 홀멘은 단순한 호기심에 이러한 질문을 했다. 하지만 챗GPT의 답변을 받고 놀라지 않을 수 없었다.

 

챗GPT는 "아르베 얄마르 홀멘은 2020년 12월 노르웨이 트론헤임 집 근처 연못에서 비극적으로 숨진 채 발견된 7세, 10세 두 아들의 아버지다. 그는 두 아들을 살해하고 세 번째 아들을 살해하려 한 혐의로 기소돼 유죄 판결을 받았으며, 노르웨이 최고형인 징역 21년형을 선고받았다"고 답했다.

 

홀멘은 자식을 키우는 평범한 시민일 뿐 어떤 범죄에도 연루된 적이 없었다. 문제는 이 답변에 나온 홀멘의 자녀 수와 성별, 출신 도시 등 일부 정보가 실제 홀멘 상황과 맞아떨어져 답변이 그럴듯한 이야기처럼 보였다는 점이다.

 

이에 홀멘은 “사람들은 ‘아니 땐 굴뚝에서 연기 나지 않는다’는 식으로 생각할 수 있다”며 “누군가 이 답변을 보고 사실로 믿게 될까 봐 두렵다”고 불쾌감을 표했다.

 

결국 홀멘은 챗GPT 제작사인 오픈AI에 벌금을 부과해달라는 고소장을 현지 개인정보보호청을 통해 냈다. 홀멘을 대리한 오스트리아의 개인정보 보호 단체 ‘노이브’는 오픈AI가 명백한 허위 정보를 방치함으로써 심각한 명예훼손을 하고, 유럽연합의 개인정보보호법을 위반했다고 주장했다. 그러면서 당국을 향해 오픈AI에 벌금을 부과하고, 문제의 허위 정보를 삭제할 뿐만 아니라, 모델을 정교화해 부정확한 결과가 생성되는 걸 방지할 것을 명령해달라고 요구했다.

 

현재 챗GPT는 프롬프트 창 하단에 ‘챗GPT는 실수를 할 수 있습니다. 중요한 정보는 재차 확인하세요’라고 안내하고 있다.

 

홀멘 측은 이 문구가 단순 책임 회피용에 불과하다고 비판했다. 홀멘 측 변호사 요아킴 쇠데르베리는 “허위 정보를 퍼뜨려 놓고, 끝에 작은 문구로 ‘사실이 아닐 수도 있음’을 붙이는 건 책임 회피일 뿐”이라며 “개인 정보는 정확해야 하고, 그렇지 않을 경우 정정할 권리가 보장돼야 한다”고 했다.

 

전문가들은 AI가 허위 사실을 그럴듯하게 설명하는 현상을 ‘환각’(hallucination)으로 설명한다. 이 현상은 홀멘 사례뿐만 아니라 테슬라, 구글, 애플 등 여러 IT 기업의 AI 서비스에서도 지속해서 보고되고 있다.

 

이미 애플은 AI 뉴스 요약 서비스가 존재하지 않는 기사를 생성해 해당 기능을 중단했으며, 구글은 자사 인공지능 챗봇 제미나이가 ‘피자에 접착제로 치즈를 붙인다’ ‘하루에 암석을 한 개씩 먹을 것을 권장한다’ 등의 답변을 해 논란이 됐다.

 

다만 환각 발생 원인은 아직도 명확히 밝혀지지 않았다.

 

스코틀랜드 글래스고 대학교의 AI 전문가 시모네 슘프프 교수는 “이건 여전히 연구가 한창인 분야다. AI가 어떻게 추론을 구성하고, 왜 그런 답을 내놓는지 아직 완전히 설명할 수 없다”면서 “개발자들 조차 그 원리를 다 알지 못한다”고 설명했다.

배너
배너
배너

관련기사

93건의 관련기사 더보기


[빅테크칼럼] 구글 CEO "AI가 거의 모든 SW 무너뜨릴 것"... 순다르 피차이의 경고가 가리키는 사이버 보안의 ‘급변점’

[뉴스스페이스=이현주 기자] 구글 CEO 순다르 피차이가 “AI 모델이 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것”이라고 공개 경고하면서, AI 확산의 숨은 뇌관으로 사이버 보안 리스크가 다시 전면에 부상하고 있다. nytimes, Techmeme, searchenginejournal, securityaffairs에 따르면, 그는 최근 스트라이프 공동창업자 존 콜리슨과 투자자 엘라드 길이 진행하는 팟캐스트 ‘Cheeky Pint’에 출연해, 메모리·전력·웨이퍼 등 하드웨어 공급 병목과 더불어 보안 취약성이 AI 산업의 성장 속도를 제약할 수 있는 핵심 변수라고 지목했다. 특히 AI가 제로데이(0day) 취약점의 ‘발견 비용’을 극단적으로 낮추면서, 소프트웨어 생태계 전반에 걸친 구조적 충격이 도래할 수 있다는 점을 수치로 뒷받침한 셈이다. “이미 무너지고 있을지도 모른다”는 피차이의 문제의식 피차이는 해당 팟캐스트에서 “이 모델들은 분명히 세상에 존재하는 사실상 모든 소프트웨어를 무너뜨리게 될 것이다. 어쩌면 이미 그렇게 되고 있는지도 모른다, 아직 모를 뿐”이라고 말했다. 진행자가 SSH 같은 기초 프로토콜까지 위험해지는 것이냐고 되묻자 그

[빅테크칼럼] “매출은 폭발, 이익은 실종”…IPO 앞둔 오픈AI·앤트로픽, ‘슈퍼 컴퓨트 베팅’의 명암

[뉴스스페이스=이종화 기자] IPO를 앞둔 오픈AI와 앤트로픽 재무 자료 분석결과 두 회사 모두 수익성 없는 것으로 나타났다. 실리콘밸리에서 가장 가치 있는 두 인공지능 스타트업이 역사상 최대 규모의 기업공개를 향해 경쟁하고 있지만, 기밀 재무 문서에 따르면 오픈AI와 앤트로픽 모두 수익을 내는 단계와는 거리가 먼 것으로 밝혀졌다. 월스트리트저널 보도는 두 회사의 재무 상황에 대한 내부 분석을 제공하며, 공통된 취약점을 부각시켰다. AI 모델 구축 및 운영에 드는 비용이 급증하면서 빠르게 성장하는 매출을 계속 앞지르고 있다는 분석이다. 폭발하는 매출, 더 빠르게 치솟는 비용 월스트리트저널(WSJ)이 입수한 투자자용 기밀 재무자료에 따르면, 오픈AI는 2030년이 돼서야 손익분기점에 도달할 것으로 예상하고 있으며, 앤트로픽은 2028년 흑자 전환을 목표로 하고 있다. 두 회사 모두 AI 붐의 중심에 서 있지만 ‘언제 돈을 버느냐’라는 질문에 대한 답은 상당히 다르다. 두 회사 간의 격차는 AI 붐을 헤쳐나가는 극명하게 다른 전략을 반영하며, 두 회사 모두 2026년 4분기 IPO 가능성을 준비하고 있다. 오픈AI는 이미 매출 규모에서 시장을 선도하고 있다. 2