메타(Meta)가 AI 기반 콘텐츠 검열 시스템을 전면 도입하면서 외부 모더레이션 벤더 의존도를 단계적으로 줄인다고 3월 19일 발표했다. 새로 도입한 AI 모델은 기존 인간 검토팀과 비교해 성인 성적 콘텐츠 위반을 2배 더 탐지하고 오류율은 60% 이상 낮췄다고 메타는 밝혔다. 하루 약 5,000건에 달하는 로그인 정보 탈취 시도 적발과 유명인·공인 사칭 계정 차단에서도 성과를 보이고 있다.
다만 메타는 AI가 모든 결정을 대체하지는 않는다고 선을 그었다. 계정 비활성화 항소 처리, 법 집행 기관 의뢰처럼 “가장 위험도 높고 중요한 결정”은 여전히 사람이 담당한다. 대규모 탐지와 처리는 AI가, 결과에 민감한 판단은 인간이 책임지는 이중 구조다. 전환 자체에도 수년이 걸릴 수 있다고 회사 측은 밝혔다.
이번 발표는 메타의 최근 콘텐츠 정책 변화의 흐름과 맞닿아 있다. 메타는 지난 1년간 사실 확인 프로그램을 종료하고 커뮤니티 노트 방식으로 전환했으며, 정치 콘텐츠 개인화 제한도 완화해왔다. 외부 모더레이터 축소는 이 흐름의 연장선이지만, AI라는 기술적 대안을 내세운다는 점에서 결이 다르다.