Truffe al telefono, cos'è la clonazione della voce (generata dall'IA), perché è un pericolo e come evitare la beffa sui social

L'allarme è stato lanciato dagli esperti dell'azienda di sicurezza Trend Micro

Mercoledì 6 Settembre 2023
Truffe al telefono, cos'è la clonazione della voce (generata dall'IA) e perché è un pericolo. Rubati negli Usa 2,6 miliardi di dollari

L'ennesima truffa basata sulle nuove tecnologie. Attraverso l'IA (Intelligenza Artificiale, ndr.) i cybercriminali possono compiere estorsioni e «rapimenti virtuali». Sì, ma come? Attraverso la clonazione della voce delle persone.

Whatsapp Web, la truffa degli hacker: «Mi manchi molto». Gli esperti: «Attenzione alle immagini dall'aspetto innocente»

L'allarme è stato lanciato dagli esperti dell'azienda di sicurezza Trend Micro. Nel 2022, negli Usa, le perdite derivanti da queste attività illecite hanno raggiunto i 2,6 miliardi di dollari. E le prime segnalazion arrivano anche dall'Italia. 

La testimonianza

Ad aprile, in Arizona una donna ha ricevuto una chiamata nella quale un anonimo diceva di aver rapito la figlia. Grazie a strumenti di IA, il criminale era riuscito a replicare la voce e il pianto della bambina da far ascoltare alla madre. Per fortuna, prima del pagamento richiesto, la vittima ha potuto verificare che sua figlia fosse al sicuro e che non fosse stata rapita. La polizia ha poi identificato la telefonata come una comune truffa. 

Le perdite

La Federal Trade Commission degli Stati Uniti ha stimato che nel 2022 le perdite derivanti da queste attività illecite hanno raggiunto i 2,6 miliardi di dollari. Lo schema evidenziato da Trend Micro è il seguente: i criminali raccolgono informazioni dai social riguardo alle vittime e ai loro cari, incluse foto e filmati.

In seguito, con strumenti tecnologici, riescono a replicare la voce delle persone e a riprodurla in maniera più accurata possibile. Questo processo, definito «clonazione vocale» si attua quando la biometria vocale è utilizzata per compiere estorsioni o frodi. 

La geolocalizzazione

Gran parte del lavoro in questo schema di attacco può essere ulteriormente automatizzato con strumenti di intelligenza artificiale.

Utilizzando una chatbot, un cybercriminale può fondere grandi set di dati di potenziali vittime con altri elementi come la geolocalizzazione.

«Questo può anche servire per avere a disposizione un sistema di punteggio basato sul rischio per la selezione delle vittime, rendendo il tipo di attacco ancora più redditizio e scalabile» affermano gli esperti. 

Come proteggersi

Teoricamente, sarebbe utile per chiunque di noi stabilire una parola chiave da utilizzare solo in caso di urgenza, per dimostrare che il dialogo è reale e non è una trappola. Non perdere la calma in caso di urgenza e avere sempre un pizzico di scetticismo può essere un altro modo per evitare guai.

Non da meno è l’aspetto prevenzione. In tal senso, non pubblicare troppo materiale sui social network è essenziale. Questi, infatti, sono una miniera di informazioni per i cybercriminali. Soprattutto audio e video, infatti, possono essere utilizzati con efficacia nel contesto delle clonazioni vocali. Il sito ilSoftware suggerisce anche di controllare le impostazioni della privacy.

Ultimo aggiornamento: 10:18 © RIPRODUZIONE RISERVATA

PIEMME

CONCESSIONARIA DI PUBBLICITÁ

www.piemmemedia.it
Per la pubblicità su questo sito, contattaci