유명인의 얼굴을 합성해 만든 ‘딥페이크(deepfake) 포르노’ 범죄 피해가 일반인 여성에까지 확대돼 사실상 모든 여성들이 잠재적 타깃이 되고 있다고 워싱턴포스트(WP)가 31일(현지 시각) 보도했다.
딥페이크 포르노는 당사자 동의 없이 무단으로 소셜 미디어(SNS) 등에서 획득한 얼굴 사진과 포르노를 교묘하게 합성해 만들어져 온라인에 유포된다. WP는 가해자들은 자신을 피해자의 동료나 친구 등이라고 밝히면서 딥페이크 포르노 제작을 맡기고, 제작자는 영상 한 개당 약 20달러를 받는다고 전했다.
딥페이크 포르노의 표적이 된 피해자들은 수치심을 느낄 뿐만 아니라 가족이나 친구들이 이 영상을 진짜 본인이라고 믿을까봐 노심초사하게 된다. 한 40대 피해 여성은 WP와의 인터뷰에서 "이 영상이 결혼이나 직장 경력을 망칠 수도 있다는 생각이 든다"며 "인터넷에서 모든 것을 뜯어내고 싶은 심정"이라고 말했다.
딥페이크 포르노를 양산한 이들은 구글의 인공지능(AI) 라이브러리에 무료 공개돼있는 툴을 활용해 영상을 제작한 것으로 알려졌다. 이 AI의 기반 기술은 딥러닝 알고리즘이 원본 동영상과 합성할 얼굴 사진을 비교해 일치하는 표정을 찾고, 매끄러운 얼굴로 바꾸기를 초당 60회 반복해 영상을 만든다.
이 기술은 원래 위조범을 속이는 경찰 수사를 돕기 위해 만들어졌지만 범죄에 악용되는 부작용을 초래하게 됐다.
할리우드 유명 배우 스칼렛 요한슨도 지난 1년간 인터넷에 수십 개의 딥페이크 포르노가 유포돼 피해를 입었다. 불법 포르노 사이트 이용자들은 이 영상을 150만회 이상 들여다봤다. 이에 대해 요한슨은 "누구든 표적이 되는 것은 시간문제"라며 우려를 표했다.
반면 남성을 소재로 만들어지는 합성 동영상은 대부분 웃음거리로 제작된다. 가장 인기 있는 딥페이크 동영상은 도널드 트럼프 미국 대통령의 몸에 배우 니콜라스 케이지의 얼굴을 합성한 영상이다.
지난 9월 구글은 금지 명단에 ‘합성 음란 이미지’를 추가해 누구든 검색 결과에서 이 사진을 차단시킬 수 있도록 조치했다. 그러나 여전히 딥페이크 포르노 양산과 확산에 대한 완전한 해결책은 없는 실정이다. 추적하기 어렵고 표면적으로 ‘창작물’이라는 합법적 영역에 있기 때문에 피해자들이 대항할 방법도 거의 없다.
이에 대해 구글은 윤리적 책임을 진지하게 느끼고 있지만 AI 툴을 제한할 경우 개발자들이 기술을 개발하는 데 걸림돌이 될 수 있다고 밝혔다. 그러나 불법 조작 사진·영상 관련 연구자들은 "(구글은) AI 툴의 무기화가 얼마나 진행됐는지에 대해 진지하게 생각해야 한다"며 맞서고 있다.
변호사들은 온라인 괴롭힘·사이버 스토킹·리벤지 포르노 등의 피해자들이 대응했던 방법과 유사한 전략을 이용해 딥페이크 포르노 피해 구제 대책을 모색하고 있다. 성희롱금지법이나 모욕죄, 법원의 가처분 명령 등 조치를 할 수 있다는 것이다.