2026.03.21 (토)

  • 맑음동두천 7.4℃
  • 맑음강릉 12.3℃
  • 맑음서울 8.1℃
  • 맑음대전 9.3℃
  • 맑음대구 11.8℃
  • 맑음울산 11.4℃
  • 맑음광주 9.6℃
  • 맑음부산 12.3℃
  • 맑음고창 3.4℃
  • 맑음제주 10.7℃
  • 맑음강화 2.6℃
  • 맑음보은 6.6℃
  • 맑음금산 5.7℃
  • 맑음강진군 6.5℃
  • 맑음경주시 9.5℃
  • 맑음거제 12.4℃
기상청 제공

빅테크

[빅테크칼럼] "AI 의료 도구, 여성·흑인·소수자 환자에 편향적"…의료 형평성 위협 '심각'

 

[뉴스스페이스=이종화 기자] 최근 여러 권위 있는 연구가 의료 분야에 적용되는 인공지능(AI) 도구가 여성과 소수 인종 환자에 대해 상당한 편향과 차별적 처우를 보이고 있음을 밝혀내면서 의료 현장에 통합된 AI 시스템의 신뢰성과 형평성 문제가 심각한 사회적 이슈로 부상하고 있다.

 

최근 연구에 따르면, 의료 분야에서 사용되는 인공지능 도구들이 여성과 소수 인종에 대한 상당한 편향을 보인다는 우려스러운 증거가 드러났으며, 이러한 시스템들이 점점 더 의료 현장에 통합됨에 따라 알고리즘적 차별에 대한 우려가 커지고 있다.

 

MIT, 런던정경대(LSE), 에모리 대학교 등 명문 기관들의 연구를 비롯해 Ars Technica, Nature Digital Medicine, Harvard Medical School Insights, Cedars-Sinai Research, Health Innovation KSS 연구결과에 따르면, 대형 언어 모델과 AI 진단 도구들은 여성에게는 지속적으로 낮은 수준의 치료를 권고하고, 흑인 및 아시아 환자들에게는 공감이 줄어드는 경향을 보였다.

 

이러한 발견은 전 세계 기술 기업들이 의사를 지원하고 의료 업무를 줄이기 위해 고안된 AI 시스템 개발을 더욱 가속화하는 가운데 나온 것이라 더욱 주목받고 있다.

 

MIT의 자밀 클리닉(Jameel Clinic) 분석에 따르면, 오픈AI의 GPT-4, 메타의 Llama 3, 의료 특화 AI인 Palmyra-Med 등 주요 AI 모델이 여성보다 남성에게 진단을 더 잘 내리고, 흑인 환자에게는 백인 대비 MRI나 초음파 등 필수 검사 권고를 덜 하는 등 명백한 성별·인종 편향을 나타냈다.

 

84세 남성 환자는 “복잡한 의료 이력”과 “운동성 저하”로 진단된 반면, 동일 사례의 여성 환자는 “독립적이고 개인 위생을 관리할 수 있음”으로 기록되는 불평등 사례도 포착됐다.

 

영국 런던정경대학(LSE) 연구에서는 구글의 AI 요약 서비스인 Gemma가 여성 환자의 신체적·정신적 문제를 남성 대비 지속적으로 축소 보고하는 경향을 보였으며, 네이처 디지털 메디슨에 발표된 논문에서도 AI가 흑인 우울증 환자에겐 더 엄격한 후견인 지정이나 아프리카계 미국인 환자엔 음주 절제가 권고되는 인종적 편견을 확인했다.

 

AI의 성능을 둘러싼 논란도 이어지고 있다. 마이크로소프트는 자사 AI 진단 도구가 300건 이상의 실제 의료 사례에서 85% 정확도로 의사보다 4배 더 뛰어나다고 발표했으나, 전문가들은 이러한 성과가 AI의 형평성과 공정성 문제를 충분히 반영하지 않은 것이라며 비판하고 있다.

 

MIT 연구진은 AI 모델이 의료 영상에서 환자의 인종을 사실상 정확히 예측하며, 이로 인해 진단 과정에서 인종 차별적 요소가 강화될 위험이 있다고 경고한다.

 

규제 당국의 움직임도 본격화되고 있다. 미국 보건복지부 산하 시민권국은 2024년 오바마케어(ACA) 하에 AI 차별 위험 관리 의무를 명확히 하는 최종 규정을 발표했고, 6개 주는 AI 의료 결정에 대해 의료 전문가의 사전 검토를 법적으로 규정했다.

 

2025년에는 20여개 주가 비슷한 법안을 도입할 예정이다. 기술 기업들은 연구 결과 대부분이 이전 AI 버전을 검증한 것임을 강조하며 편향 완화를 위한 기술 개발을 약속했으나, 연구자들은 근본적인 데이터 편향과 개발 관행 변화 없이는 AI가 의료 불평등을 심화시킬 위험이 크다고 지적한다.

 

빅테크분야 의료전문가는 "의료계 AI는 환자의 수명을 좌우하는 만큼, 다양성과 포용성 원칙을 철저히 반영하지 못할 경우 과거 의료 시스템이 내재한 차별 구조를 그대로 재생산할 수 있다는 점에서 심각한 사회적, 윤리적 문제를 낳을 수 있다"면서 "의료 혁신의 혜택을 모두가 누릴 수 있도록 하기 위해서는, 임상 현장과 AI 개발 단계에서의 철저한 편향 감지와 감시, 그리고 법적·제도적 장치 마련이 시급하다"고 지적했다.

배너
배너
배너

관련기사

69건의 관련기사 더보기


[이슈&논란] "머스크, 고의적 주가 떨어뜨렸다" 판결…트위터 인수과정서 수십억 달러 배상 책임

[뉴스스페이스=이현주 기자] 미국 캘리포니아 북부 연방지방법원 배심원단이 세계 최대 부호 일론 머스크(Elon Musk)가 트위터(Twitter, 현재 X) 인수 과정에서 고의로 주가를 떨어뜨렸다며 투자자들에게 배상해야 한다는 평결을 내렸다. 이 판결은 2022년 440억 달러(약 64조원) 규모 트위터 인수 전후 머스크의 소셜미디어 발언이 투자자 판단에 어떤 영향을 미쳤는지, 시장질서 차원에서 어떤 책임을 가질 수 있는지에 대한 법원의 ‘정치적·상징적’ 메시지로 해석된다. AP·블룸버그 등 미국 주요매체 보도와 캘리포니아 북부 연방지방법원(샌프란시스코) 배심원단의 평결 요지를 종합하면, 배심원단은 머스크가 2022년 트위터 인수 협상 과정에서 스팸·가짜 계정이 회사 가치를 심각하게 훼손하고 있다고 주장한 게시물(트위터)로 인해 투자자들이 잘못된 정보를 바탕으로 매매 결정을 내렸다고 판단했다. 이는 ‘명백한 사기적 계획(scheme)’에는 해당하지 않지만, 일부 트위터은 투자자를 오도했고, 그 결과 주가가 부당하게 약세를 보였다는 취지의 결론이다. 배심원단은 머스크가 주당 3~8달러(하루 기준)를 배상해야 한다고 권고했다. 이 구조가 적용되면, 이번 소송은

[이슈&논란] 챗GPT가 ‘마약 레시피북’ 된 순간…AI·특송·주택가가 만든 ‘3중 결합 마약범죄 "한국판 브레이킹 배드"

[뉴스스페이스=이승원 기자] 인천공항세관이 국내 주택가에서 생성형 AI 챗GPT를 ‘마약 제조 매뉴얼’로 활용한 베트남인 3명을 검거했다. 이들은 챗GPT와 인터넷 검색으로 익힌 지식에 따라 원료를 밀수해 MDMA(엑스터시) 2만9430명분(5.4kg)을 생산하려다 적발됐다. 이 사건은 AI가 범죄의 ‘디지털 조수’에서 ‘직접 실행 가이드’로 진화한 상징적 사례로, 전 세계적으로 AI-마약 결합 우려를 증폭시키고 있다. 챗GPT, MDMA 제조법을 ‘초보자 가이드’로 검색한 20대 유학생 경북 경산 주택가 빌라에서 ‘소형 마약 공장’을 운영한 제조책 A씨(20대, 베트남 국적)는 유학비자로 입국해 국내 대학 재학 중 범행을 저질렀다. A씨는 챗GPT 검색을 통해 MDMA 합성법을 학습한 뒤, 베트남 메신저 ‘잘로(Zalo)’로 공급책과 연락하며 2025년 7~12월 사프롤·MDP-2-P 글리시디에이트(5.4kg, 시가 8억8000만원 상당)를 항공특송으로 밀수입했다. ​ 빌라에 알약제조기·가열 장비를 설치해 오일→고체 ‘캔디’ 형태로 변환 중 세관 급습으로 시제품 100여정만 생산한 채 좌절됐다. 관세청은 “원료 밀수부터 국내 제조·유통 전 과정을 적발한 최