
소아성애자들이 인공지능(AI) 기술로 사실 같은 아동 성학대 콘텐츠를 제작·판매한다는 사실을 BBC가 확인했다.
일부는 후원 플랫폼 ‘패트리온’과 같은 유명 콘텐츠 공유 사이트에서 계정 구독료를 지불하며 콘텐츠를 이용하고 있다.
패트리온은 자사 웹사이트에서 해당 콘텐츠에 대해 “무관용” 정책을 적용 중이라고 밝혔다.
그러나 영국 경찰청장협의회(NPCC)는 일부 플랫폼이 “막대한 이익”을 내면서도 “도의적 책임”을 회피하는 것은 “터무니없다”고 말했다.
또한, 영국의 정보·보안·사이버 전문기관인 정보통신본부(GCHQ)는 보고서에서 “아동 성학대 범죄자들은 모든 기술을 활용하며, 일부는 AI 생성 콘텐츠가 아동 성학대 자료의 미래라고 생각한다”고 밝혔다.
학대 콘텐츠 제작자들은 ‘스테이블 디퓨전’이라는 AI 소프트웨어를 사용한다. 본래 예술이나 그래픽 디자인용 이미지를 생성하는 AI 모델이다.
AI는 인간의 지적 능력이 필요한 작업을 컴퓨터가 수행할 수 있게 해준다.
사용자가 스테이블 디퓨전에 단어를 입력해 원하는 이미지를 설명하면 프로그램이 이미지를 생성한다.
그러나 BBC는 이 소프트웨어가 영유아 강간을 비롯해 사실 같은 아동 성학대 이미지 생성에 사용되고 있다는 사실을 발견했다.
영국 경찰 온라인 아동학대 수사팀은 이미 이런 콘텐츠를 접하고 있다고 말한다.

리서치 프리랜서 겸 저널리스트인 옥타비아 셰프섕크스는 몇 달 동안 이 문제를 조사해 왔다. 셰프섕크스는 조사 결과를 알리기 위해 영국 아동학대예방기구(NSPCC)를 통해 BBC에 연락했다.
셰프섕크스는 “AI로 이미지 생성이 가능해진 뒤 콘텐츠가 범람하는 중이다… 소아성애자들은 단순히 어린 소녀들뿐만 아니라 영유아에 대해 이야기한다”고 말했다.
컴퓨터로 생성되고 아동 성학대를 묘사하는 “가짜 이미지”는 실제 이미지와 동일하게 취급되며 영국에서 이를 소지·게시·전송하는 것은 불법이다.
경찰청장협의회에서 아동 보호를 담당하는 이안 크리츨리는 이런 “합성” 이미지에 실제 아동이 등장하지 않으니 해를 끼치지 않는다는 주장은 잘못됐다고 말한다.
그는 소아성애자가 “상상으로 시작해 이미지 합성, 실제 아동 학대까지 가해 범위가 확장될 수 있다”고 경고했다.
학대 이미지는 3단계 과정으로 공유된다.
•소아성애자가 AI 소프트웨어로 이미지를 만든다.
•일본의 사진 공유 웹사이트 ‘픽시브’와 같은 플랫폼에서 사진을 홍보한다.
•이런 계정에 더 노골적인 이미지를 안내하는 링크가 있으며, 사람들은 링크를 타고 패트리온 같은 사이트로 이동해 유료 콘텐츠를 본다.
일부 이미지 제작자는 일본의 인기 소셜미디어 플랫폼 ‘픽시브’에 이미지를 올린다. 원래는 주로 만화나 애니메이션을 공유하는 사이트다.
이 사이트는 일본에서 호스팅되는데, 일본에서는 아동 대상의 성적인 만화나 그림을 공유해도 불법이 아니다. 따라서 제작자는 이 사이트에서 그룹에 참여하거나 키워드로 주제를 드러내는 해시태그를 통해 본인의 ‘작품’을 홍보한다.
픽시브 대변인은 이 문제를 해결하는 데 큰 노력을 기울였다고 밝혔다. 5월 31일 답변에 따르면, 미성년자 관련 성적 콘텐츠의 사실적인 묘사를 모두 금지했다는 것이다.
픽시브는 선제적으로 모니터링 시스템을 강화했으며 진화하는 AI 관련 문제에 대응하기 위해 상당한 리소스를 투입 중이라고 밝혔다.
셰프섕크스가 BBC와의 인터뷰에서 밝힌 조사 내용에 따르면, 사용자들은 산업을 형성할 정도의 규모로 아동 학대 이미지를 제작하는 것으로 보인다.
그는 “규모가 엄청나다. 사람들[제작자]은 ‘한 달에 최소 1000개의 이미지를 만드는 것이 목표’일 것”이라고 설명했다.
픽시브에 올라온 이미지에 달린 사용자 댓글을 보면, 아동에 대한 성적 관심이 명확히 드러난다. 일부 사용자는 AI를 이용하지 않은 학대 이미지와 동영상을 제공하겠다고 제안하기도 한다.
셰프섕크스는 픽시브 내 일부 그룹을 모니터링하고 있다.
그는 “100여 명씩 들어가 있는 이런 그룹들에서 사람들은 ‘여기 “진짜” 자료 링크가 있다’며 공유한다”고 설명했다.
다양한 가격 책정
많은 픽시브 계정의 자기소개에는 미국 기반 콘텐츠 공유 사이트 패트리온의 “무수정 콘텐츠”로 연결되는 링크가 걸려있다.
패트리온의 기업 가치는 약 40억달러(약 5조2900억원)에 달하며, 25만 명 이상의 제작자가 가입되어 있다. 대부분은 유명 연예인·언론인·작가의 합법적인 계정이다.
팬들은 블로그·팟캐스트·동영상·이미지를 이용하기 위해 매월 구독을 신청해 제작자를 후원할 수 있다. 한 달에 3.85달러(약 5000원)만 지불하면 된다.
그러나 옥타비아 셰프섕크스와 BBC가 함께 조사한 결과, 일부 패트리온 계정들은 요청된 자료 유형에 따라 다양한 가격을 책정해 AI로 생성한 사실적인 아동 음란 이미지를 판매하고 있었다.
한 사용자는 자신의 계정에 “나는 내 컴퓨터에서 내 딸들을 훈련시킨다”며 이들이 “복종”한다고 적었다. 또 다른 사용자는 월 8.30달러(약 1만1000원)에 “독점 무수정 작품”을 제공했다.
BBC는 패트리온에 한 가지 사례를 보냈다. 패트리온은 이를 “반쯤 사실적이며 회사 정책에 위배된다”고 확인했고, 해당 계정은 즉시 삭제됐다고 답했다.
패트리온은 “무관용” 정책을 적용 중이라고 말했으며, “제작자는 미성년자와 관련된 성적인 콘텐츠를 제공해 돈을 받을 수 없다”고 밝혔다.
패트리온은 인터넷에서 AI가 생성한 유해 콘텐츠가 증가 중인 것이 “사실이고 괴롭다”며, 이런 콘텐츠를 “더 많이 발견하고 제거했다”고 덧붙였다.
또한, “이미 AI로 생성된 아동 착취 합성 자료를 금지하고 있다”며 “청소년을 안전히 보호하기 위해” 전담 팀·기술·파트너십을 구축해 “매우 능동적으로” 대응 중이라고 설명했다.

AI 이미지를 생성하는 스테이블 디퓨전은 학계 및 여러 기업 간 글로벌 협업을 통해 만들어졌고 영국 기업 ‘스테빌리티 AI’가 개발을 주도했다.
여러 버전이 공개됐고, 프로그램 코드에는 제작 가능한 콘텐츠의 종류를 제어하는 제한 사항이 적용되어 있다.
그러나 작년에는 사용자가 필터를 제거하고 불법 이미지를 비롯해 모든 이미지를 생성하도록 훈련시킬 수 있는 초기 “오픈 소스” 버전이 대중에 공개됐다.
스테빌리티 AI는 BBC에 “플랫폼 전반에서 불법적이거나 부도덕한 목적의 오남용을 금지하고 있으며, 여기에는 아동 성학대 자료(CSAM)가 포함된다는 방침을 분명히 하고 있다”고 밝혔다.
또한 “불법적이거나 부도덕한 목적으로 제품을 오용하는 사람들에 대한 법 집행 노력을 강력히 지지한다”고 덧붙였다.
AI가 급속도로 발전하면서 향후 사람들의 사생활·인권·안전을 위협할 수 있는 위험에 대해 우려가 제기되고 있다.
GCHQ의 아동 성학대 대응(CCSA) 책임자인 조[보안상의 이유로 익명을 사용]는 BBC와의 인터뷰에서 “GCHQ는 AI 생성 콘텐츠와 같은 새로운 위협에 한발 앞서 대응하고 범죄자의 안전지대가 없도록 법 집행에 협력한다”고 밝혔다.
NPCC의 이안 크리츨리도 사실적인 AI 또는 “합성” 이미지의 범람으로 인해 실제 학대 피해자를 식별하는 과정이 지연될 수 있다고 우려했다.
그는 “인공 또는 합성 아동이 아닌 실제 아동을 가려내고 이들이 전 세계 어디에서 학대를 당하는지 파악하려면 감시 및 법 집행 관점에서 부담이 더 커진다”고 설명한다.
크리츨리는 지금이 우리 사회에 있어 중요한 순간인 것 같다고 말했다.
그는 “인터넷과 기술을 통해 젊은이들에게 환상적인 기회가 제공되도록 만들 수도 있지만, 훨씬 유해한 공간이 만들어질 수도 있다”고 말했다.
아동 자선단체 NSPCC는 지난 28일(현지시간) 기술 기업들을 향해 주의를 촉구했다.
NSPCC의 정책·공보 책임자 안나 에드먼드슨은 “이러한 신기술을 악용하는 사람들이 얼마나 빠르게 증가하는지 그 속도가 놀랍다. 하지만, 위험을 경고받은 기업들이 안전에 대한 공허한 미사여구만 입에 담으면서 방관하는 모습은 놀랍지 않다”고 말했다.
그는 “이제 기술 기업들은 자사 제품이 어떻게 아동 성학대를 조장하는지 알고 있으며, 더 이상 그들의 무대응에 변명의 여지가 없다”고 강조했다.
이에 대해 정부 대변인은 “온라인 안전 법안은 그루밍, 라이브 스트리밍, 아동 성학대 자료, 금지된 아동 이미지 등 모든 형태의 온라인 아동 성학대에 대처하기 위해 기업이 적극 조치하도록 요구할 것이며, 이에 따르지 않을 경우 막대한 벌금을 물게 될 것”이라고 답했다.
댓글0