[뉴스스페이스=이종화 기자] 독일 쾰른대학교 식물과학 교수 마르셀 부허(Marcel Bucher)가 챗GPT의 '데이터 동의' 옵션을 일시적으로 끈 순간, 2년간 축적된 학술 작업이 완전히 증발했다.
gizmodo, inc, alterslash, science.slashdot에 따르면, 부허는 Nature에 게재한 에세이에서 "연구비 신청서 개발, 교육 자료 준비, 논문 초안 수정, 시험 분석 설계 등 프로젝트 폴더 전체가 사라졌다"며 충격을 드러냈다.
일상 업무 전부 AI에 의존… 월 20유로 내며 2년 사용
부허는 챗GPT Plus 구독자(월 20유로, 약 3만원)로, 2024년부터 매일 플랫폼을 활용했다. 구체적으로 이메일 작성(100% 의존 추정), 강의 계획서 초안, 연구비 신청 구조화, 논문 수정, 강의 준비, 시험 출제, 학생 답변 분석 등에 사용했으며, 심지어 수업에 AI를 인터랙티브 도구로 통합했다. Nature 기사에 따르면, 그는 AI의 "대화 맥락 기억 기능과 작업 공간 안정성"을 높이 평가했으나, 부정확성도 인정했다.
8월 테스트 중 '데이터 동의' 옵션을 비활성화하자 모든 채팅 기록과 프로젝트 폴더가 경고 없이 삭제됐다. 앱 재설치, 브라우저 변경, 설정 조정에도 복구 불가하며, 오픈AI 지원팀(AI 에이전트 후 인간 직원)에서 "영구 손실" 확인했다.
오픈AI "프라이버시 바이 디자인"… 복구 옵션 부재
오픈AI는 Nature에 "채팅 영구 삭제 전 확인 프롬프트 제공하나, 사용자 인터페이스·API·지원팀 통해 복구 불가"라고 밝혔다. 이는 "프라이버시 모범 사례와 법적 요구사항 때문"이라며 "백업이나 되돌리기 기능이 의도적으로 배제됐다"고 설명했다.
부허는 "기본 보호 조치(경고·시간 제한 복구·백업)를 기대했으나 없었다"고 비판했다.
유사 사례는 드물지만, 챗GPT 과거 버그(2023년 3월 사용자 대화 제목 노출, 이름·이메일·카드 정보 유출)에서 보듯 데이터 안정성 논란이 지속됐다.
소셜미디어 조롱 폭발… "AI에 맡긴 작업 삭제? 당연"
사건 보도 후 Reddit(r/technology), Bluesky, X(전 트위터)에서 동정 대신 비아냥이 쏟아졌다. "놀라운 신파극" "챗GPT가 내가 안 한 작업 삭제' "기후 파괴·표절 기계에 외주? 스스로 하라" "Nature 에세이도 AI 썼을 것" 의혹까지 논란이 확산됐다.
학계 AI 통합 가속 vs 신뢰성 위기
부허는 "대학들이 AI를 커리큘럼에 도입 중이나, 학술 신뢰성 기준은 미달이다"고 경고했다. 그는 부분 백업으로 피해 최소화했으나, "지적 골격(프롬프트·반복 작업) 상실은 불가피하다"며 오픈AI 데이터 설정 가이드(채팅 히스토리 끄면 30일 후 영구 삭제)에도 불구하고 전문가들은 "백업 필수"를 강조했다.
이 사건은 AI 직업 의존 위험성을 상기시키며, 기관 차원 가이드라인 마련 필요성을 제기한다.























































