
IWF(Internet Watch Foundation)가 3월 24일 공개한 보고서에서 AI가 생성한 사실적인 아동 성적 학대 이미지와 영상이 온라인상에서 역대 최고 수준에 달했다고 경고했다. 이 보고서는 AI 생성 콘텐츠로 인한 피해 실태를 밝혀 안전성이 확보되지 않은 AI 툴에 대한 대책을 요구하는 사회적 목소리가 높아지고 있다는 걸 보여준다.
IWF가 2025년 확인한 AI 생성 아동 성적 학대 이미지 및 영상은 8,029건에 달했다. 이는 범죄적 AI 콘텐츠가 전년 대비 14% 증가한 것으로 AI가 생성하는 아동 성적 학대물(AI-CSAM) 확산이 가속화되는 실태를 드러낸다.
이번 보고서에서 두드러지는 건 영상 증가. IWF가 2025년 확인한 AI 생성 아동 성적 학대 영상은 3,443건으로 전년 13건에서 무려 26385% 증가했다. 이 중 65%는 가장 심각한 분류인 카테고리 A에 해당하며 비 AI 불법 영상 중 카테고리 A 비율인 43%를 상회한다. IWF는 AI가 더 과격하고 심각한 내용 생성을 부추기고 있다고 보고 있다.
IWF는 AI 생성 아동 성적 학대 이미지를 피해자 없는 범죄로 간주하는 시각을 부정하며 생성형 AI 모델은 기존 학대 이미지를 활용해 학습·미세 조정되는 경우가 있으며 그 결과 실존하는 피해자가 반복적으로 재피해를 입게 된다고 주장했다. 또 IWF는 과거에 광범위하게 유포된 학대 이미지를 토대로 가해자가 AI를 이용해 더 과격한 이미지를 제작하는 사례를 파악하고 있으며 피해는 과거의 일로 끝나지 않고 AI에 의해 끊임없이 재생산된다고 경고했다.
IWF는 AI로 만들어진 이미지라도 아동에 대한 성적 관심을 강화하고 폭력을 정상화하며 접촉형 성범죄 위험을 높인다고 설명했다. 보고서가 인용한 조사에서는 아동 성적 학대물을 접한 사람 44%가 아동과의 직접 접촉을 고려하게 됐다고 답했으며 37%는 실제로 그 접촉을 시도했다고 밝혔다.
또 IWF가 2025년 확인한 불법 AI 생성 이미지에서 성별이 기록된 경우의 97%가 여아를 묘사하고 있었다. IWF는 이런 경향이 온라인상 여성 혐오 및 소녀에 대한 수치심 조장과 연결되어 있다고 주장했다. 실제로 2024년 조사에서는 11세~21세 소녀·젊은 여성 59%가 AI로 자신의 허위 이미지가 제작되거나 사칭에 이용될 것을 우려한다고 답한 것으로 나타났다.
IWF는 이런 콘텐츠가 급증한 배경으로 로라(LoRA) 등 미세 조정 기술 발전으로 제작 문턱이 크게 낮아진 점을 꼽았다. IWF는 특정 아동을 닮은 사실적인 딥페이크 모델도 이미지 20~30장만 있으면 제작 가능하며 학습에 최단 15분밖에 걸리지 않는다고 지적했다. 아울러 2025년 12월 IWF가 확인한 다크웹 게시판에서는 202개 개별 모델이 공유되고 있었다고 밝혔다.
IWF는 이미지 생성 툴 외의 위험성에도 언급했다. AI 챗봇은 실제로 이미지를 생성하지 않더라도 아동 성적 학대 방법에 관한 기술적 조언을 제공하거나 아동과의 성적 대화를 모의하는 위험이 있다는 것이다. IWF는 다크웹 가해자 포럼에서 공개된 클로즈드 소스 챗봇을 이용해 오픈 소스 생성형 AI 도입·조정 방법에 대한 조언을 구하는 이용자를 확인했다고 밝혔다. 또 옷을 입은 사진에서 나체 이미지를 생성하는 누디파이(Nudify) 툴에 대해서도 성인용임을 표방하더라도 실제로는 아동 음란물 제작에 악용되고 있으며 긍정적인 용도는 없고 수치심 조장·괴롭힘·착취를 부추길 뿐이라고 단언했다.
IWF는 AI 생성 아동 성적 학대 콘텐츠는 더 이상 가상 위협이 아니라 이미 현실적 피해를 확산시키고 있는 문제라고 규정했다. 그러면서 정부와 기술 기업에 대해 AI 제품을 공개하기 전부터 안전 대책을 내재화하는 디자인 단계 안전을 철저히 하고 모델 검증을 의무화할 필요가 있다고 촉구했다. 관련 내용은 이곳에서 확인할 수 있다.
![[AI서머리] 마이리얼트립, 캐나다관광청과 MOU‧몬드리안에이아이, 에이전틱 AI 얼라이언스 합류](https://startuprecipe.co.kr/wp-content/uploads/2026/04/260403_korea_05025235-75x75.jpg)

