[뉴스스페이스=이현주 기자] 틱톡과 메타의 12명 이상의 내부고발자들이 BBC 다큐멘터리를 통해 두 소셜 미디어 거대 기업이 사용자 참여도와 시장 지배력을 추구하기 위해 의도적으로 유해 콘텐츠가 플랫폼에서 확산되도록 방치했다고 폭로했다.
bbc, mobileworldlive, reporteri, newsbytesapp, scrippsnews, washingtonpost, cnbc에 따르면, BBC 다큐멘터리 'Inside the Rage Machine'(3월 16일 BBC Two 방영)은 12명 이상의 틱톡과 메타 내부고발자 증언과 내부 문서를 통해 두 기업이 알고리즘 경쟁 과정에서 유해 콘텐츠를 의도적으로 방치한 사실을 방영했다.
메타의 경우 2020년 틱톡 대응으로 출시된 Instagram Reels에 안전장치를 미흡하게 적용, 내부 연구 결과 Reels 댓글에서 Instagram 메인 피드 대비 괴롭힘·괴롭힘 75%↑, 증오 발언 19%↑, 폭력·선동 7%↑가 확인됐다. 메타는 Reels 개발에 700명 인력을 투입한 반면 아동 보호팀에는 2명, 선거 무결성팀에는 10명만 배정해 안전팀이 과중 업무에 시달렸다고 고발자들이 증언했다.
틱톡은 내부 민원 대시보드에서 정치인 관련 사례를 미성년자 피해 신고보다 우선 처리하도록 지시, 프랑스 17세 청소년 사이버불링이나 이라크 16세 성착취 이미지 유포 사례가 닭 비유 조롱 정치인 케이스보다 낮은 우선순위를 받았다. 전직 머신러닝 엔지니어 Ruofan Ding은 추천 알고리즘을 "블랙박스"로 규정하며 딥러닝 통제력 부족을 지적했다.
두 기업은 즉각 반박에 나섰다. 메타는 "금전적 이익 위해 유해 콘텐츠 증폭은 사실무근"이라고 대응했다. 틱톡은 "날조된 주장"으로 규정하고 "아동 안전은 전담팀이 병렬 처리한다"고 밝혔다.
그러나 메타는 최근 2024년 3분기 투명성 보고서에서 증오 발언·괴롭힘·혐오 콘텐츠 3억4600만건을 사전 제거했다고 공시한 바 있어 내부 연구와의 괴리를 드러냈다.
특히 이번 폭로는 메타가 플랫폼 중독성 설계 혐의로 진행 중인 대형 소송(저커버그 CEO 증언 포함)과 맞물려 규제 압력을 가중시킬 전망이다.











































