더불어민주당 이재명 대선 후보와 방송인 김어준씨. /뉴시스

방송인 김어준씨가 더불어민주당 이재명 대선 후보의 목소리를 흉내 낸 가짜 욕설 영상이 배포된다는 제보를 받았다고 주장했다.

김씨는 18일 TBS 라디오 ‘김어준의 뉴스공장’에서 “제가 최근 아주 중요한 제보 하나를 받았다”며 “이 후보가 직접 욕을 하는 딥페이크 음성 파일을 모처에서 제작해 모처에 납품했으며 곧 배포할 예정이라는 구체적인 제보를 받았다”고 말했다.

그는 “(파일을) 만들기 시작한 건 대략 보름 전이고, 1차 납품한 건 지난 주말”이라며 “손 볼 곳이 몇 군데 있어 수정 지시가 갔다”고 했다. 구체적인 제보를 받아 구체적으로 이야기할 수 있다며 김씨는 “최종 납품되면 그걸 유포할 계획인데 유력 유포 루트 중 (하나가) 소위 ‘대깨문’이라고 하는 ‘친문재인’을 내걸고 ‘반이재명’ 활동을 하는 그룹”이라고 했다. 이어 “이 그룹이 결국 누구의 조종을 받는지도 함께 밝혀질 수 있을 것 같다”고 했다. 다만 “아직 최종 유포 루트까지는 확정된 것 아닌 것 같다”며 “설 연휴 전 배포 계획인 것 같다”고 말했다.

김씨는 “최근 딥페이크 기술은 진짜 목소리와 구분할 수 없는 정도다. 진짜처럼 들린다”며 “하지 않은 말인데 목소리를 만들어 내놓으면 가짜임을 입증하기도 어렵다”고 말했다. 그러면서 “실제 유포되면 그 즉시 어디서 제작했고 어디서 납품받았는지 자세히 얘기하도록 하겠다”며 “누가 의뢰해서 누가 납품받았는지와 ‘대깨문’이라는 연결고리가 가짜뉴스보다 큰 파장이 있다. 두고보자”고 했다.

딥페이크는 딥 러닝(Deep learning)과 페이크(fake·가짜)의 합성어다. 특정 인물의 얼굴이나 목소리를 인공지능(AI) 기술을 이용해 특정 영상에 합성하는 기술을 말한다. 지난 2018년 앙겔라 메르켈 전 독일 총리나 버락 오바마 전 미국 대통령이 하지 않은 말을 직접 한 것처럼 지어낸 ‘악성 딥페이크’ 영상이 논란이 된 바 있다. 또 지난달 소셜미디어에는 가짜 ‘AI 윤석열’이 “OO야 죽을래?”라고 말하는 듯한 짧은 동영상이 유포되기도 했다.