과거 보이스 피싱(voice phishing)은 목소리를 흉내 내는(impersonate voices) 수준이었던 데 비해 최근 AI(인공지능·artificial intelligence) 기술로 목소리를 합성한(synthesize voices) 보이스 피싱은 누구라도 속일 수 있을 만큼 정교해졌다(become sophisticated enough to fool anyone). 가령 아이가 납치됐다며(be kidnapped) 몸값으로 당장 현금을 달라고 한다고(demand an immediate cash ransom) 전화를 걸어왔을 때 전화 건너편 목소리가 어설픈 흉내(clumsy imitation) 정도가 아니라 영락없는 아이 목소리로 들린다는 것이다.
리더스다이제스트에 따르면, 신종 AI 목소리 사기꾼(voice scammer)들은 페이스북·인스타그램 등 소셜미디어에 널려 있는 녹음들 중에서 목표물을 정하고(select and collect targets) 수집한다. 몇 초짜리 녹음(a few-second recording)만 있어도 금세 그 사람의 목소리를 복제해낼(clone the person’s voice) 수 있다. AI를 이용해 목소리의 말씨(accent), 음색(tone), 음의 높이(pitch), 말투(way of talking) 등을 모두 학습시킨 뒤 자신들이 꾸민 각본대로 읽게 한 AI 생성 녹음 내용을 전화로 들려준다.
사기꾼(con artist)들이 만들어낸 대본엔 납치된 자녀, 교통 사고를 내(be involved in a car accident) 상대 차량 수리비를 물어줘야 하는(pay for the the other party’s car repairs) 남편, 가짜 계약서를 들먹이며 급히 입금하라는(order an immediate deposit based on a fake contract) 회사 임원 등 온갖 그럴싸한 긴급 상황(plausible emergency situations)이 연출된다. 특히 곤경에 처한 사랑하는 가족의 다급한 목소리를 듣는(hear urgent voices from loved ones in distress) 건 충격적이고 무섭다. 더욱이 AI로 평상시 목소리를 합성해 말투나 어조까지 똑같으니 이내 공황 상태에 빠져 정신을 못 차리게 된다(panic and lose their composure).
그렇다면 무엇보다도 우선 그런 대상이 되는 걸 피하는(avoid being targeted in the first place) 게 바람직하지만, 일단 그런 수상한 전화를 받았을 땐 어떻게 해야 할까.
먼저 목소리에 이상한 점이 없는지 주의 깊게 들어본다(listen carefully for any abnormalities). AI가 생성했더라도 평상시와 다른 부자연스러운 억양, 합성 잡음 등 오류(glitches such as unusual unnatural intonation and synthetic noise)를 느낄 수 있다. 그리고 잇달아 가족에 관한 질문을 퍼부어 상응하는 답변이 계속 따라오는지(keep corresponding appropriately) 확인한다.
가장 바람직한 건 가족끼리 본인 여부를 확인할(verify identity) 수 있는 비밀 문구를 미리 지정해놓는(assign a secret phrase ahead of time) 것이라고 한다. 군대에서 아군을 확인하기 위해 주고받는 암구호 같은 걸 정해놓으라는(decide on a password) 얘기다.
[영문 참조자료 사이트]
☞ https://helpcenter.trendmicro.com/en-us/article/tmka-19303
☞ https://www.cnbc.com/2024/01/24/how-to-protect-yourself-against-ai-voice-cloning-scams.html