[뉴스스페이스=김희선 기자] 최근 연세대학교 신촌캠퍼스에서 진행된 3학년 강의 ‘자연어 처리(NLP)와 챗GPT’ 중간고사에서 약 600명 수강생 중 190명(약 3분의 1)이 집단 부정행위에 연루됐다는 사실이 학내외에 큰 파장을 일으키고 있다.
적발된 학생들은 챗GPT 등 생성형 AI를 부정행위 도구로 사용한 정황이 밝혀져, 부정행위에 연관된 학생들의 점수가 모두 ‘0점’ 처리됐다.
시험은 온라인으로 객관식 문제로 치러졌으며 응시자들은 시험 시간 내내 컴퓨터 화면과 얼굴이 보이는 영상을 제출하도록 요구받았다. 그럼에도 일부 학생들은 영상 촬영 각도 조절, 여러 프로그램 화면 동시 사용 등의 방법으로 AI를 활용한 커닝이 적발됐다. 학생 자율 투표에서는 353명 중 190명이 커닝했다고 밝혔으며, 상당수가 AI를 활용한 것으로 추정된다.
이번 사태는 AI 성능이 급격히 고도화되면서 전통적인 교육 및 평가 방식의 한계를 드러냈다는 점에서 주목받는다. 대학가에서는 AI 윤리 및 활용 정책이 성능향상 속도를 따라잡지 못하는 실정이며, 이에 교육과 평가 방식을 재설계해야 한다는 목소리가 커지고 있다.
국내외 대학들은 AI를 부정행위로 금지하는 초기 입장에 이어, 현재는 투명한 AI 활용과 윤리적 가이드라인 제정을 통한 ‘책임 있는 AI 사용’ 방향으로 전환 중이다. 미국, 영국 대학에서는 AI 활용을 인정하되, AI 사용 사실을 명확히 밝히고 출처를 표시하도록 요구하는 추세다. 국내 고려대는 2023년 생성형 AI 활용 가이드라인을 발표해 학생 권리 보장과 교수자 자율성을 균형 있게 조율하는 새로운 표준을 제시했다.
한편, AI 활용 부정행위 사례는 국내만의 문제가 아니다. 영국 대학 연간 AI 부정행위 적발 건수는 7000건에 달하며, 미국 등의 대학에서도 AI 의존도가 높아지면서 비판적 사고와 자율적 학습능력이 약화되고 있다는 우려가 확산되고 있다.
교육 전문가들은 "이번 연세대 사태를 단순 학생 일탈로만 치부하지 말고, AI 시대 교육 패러다임 전환과 윤리 기준 마련의 중요성을 다시 한 번 환기하는 계기로 봐야 한다"고 지적했다. AI 결과물뿐 아니라 개인 의견을 함께 적어내는 방식과 대면 심층 토론 등 학생들의 능력 발휘를 다각도로 검증하는 교육환경 조성이 필수적이라는 것이다.























































