“나를 조 바이든처럼 나쁘고 한심하게 보이게 하려고 가짜 TV 광고에 AI(인공지능)를 사용하고 있다.”
도널드 트럼프 전 미국 대통령은 지난달 자신의 실언과 실수를 모아놓은 폭스뉴스 광고에 대해 이같이 반박했다. 해당 광고에는 트럼프가 ‘익명(anonymous)’ 발음을 제대로 하지 못하거나, 산불이 난 마을의 이름을 ‘파라다이스(paradise)’가 아닌 ‘기쁨(pleasure)’이라고 잘못 말한 영상이 담겼다. 모두 실제로 일어난 일이지만, 트럼프는 이를 AI가 만든 영상이라고 거짓말을 한 것이다.
딥페이크를 활용한 가짜 콘텐츠가 확산하면서, 일부 정치인은 이를 거꾸로 악용하고 있다. 자신에 대한 공격이나 불리한 증거를 “AI가 만든 가짜”라며 잡아떼고 있는 것이다. AI 합성물이 진실과 거짓의 경계를 무너뜨렸기 때문에, 모든 일을 그럴듯하게 부인(否認)할 수 있게 된 셈이다.
이달 총통 선거를 치른 대만에서는 지난해 10월 말 소셜미디어에 한국의 부총리 격인 정원찬 행정원 부원장이 젊은 여성과 함께 호텔 방에 들어가는 영상이 공개됐다. 이에 대해 정 부원장 측은 “영상이 오래됐고 조작됐다”며 자신은 영상 속 인물이 아니라고 주장했다. 그러면서 대만 경찰에 딥페이크에 대한 포렌식 조사를 요청했다. 하지만 경찰 측은 딥페이크 조작 여부를 확인할 수 없다고 결론 냈다.
인도에서도 비슷한 일이 있었다. 지난해 4월 인도 타밀나두주의 정치인 팔라니벨 티아가라잔이 “자신의 당원들이 36억달러를 불법적으로 모았다”고 말하는 26초짜리 음성 녹음이 유출됐다. 티아가라잔은 이 녹음에 대해 기계로 조작된 것이라고 주장했다. 전문가들은 오디오가 진짜인 것으로 보고 있다. 미 워싱턴포스트는 “세계적으로 AI가 자신의 피해를 막으려는 정치인들의 희생양이 되고 있다”며 “AI를 핑계로 비판을 회피하는 사례를 보면서, 더 많은 정치인이 비슷한 주장을 하게 될 것”이라고 했다.