Truffe vocali: l’incubo diventa realtà con l’intelligenza artificiale

La clonazione della voce apre la strada a nuove truffe. Come difendersi?

Adele Colella

Maria Grazia Abis, una pensionata di 70 anni, è stata vittima di una truffa telefonica che sfruttava la clonazione della voce. I truffatori, fingendo di essere sua figlia, le hanno estorto del denaro. Un caso purtroppo non isolato, come dimostrano le testimonianze di una madre americana e di un’anziana canadese raggirate con lo stesso modus operandi.

Nuove truffe con l’intelligenza artificiale

La facilità con cui si clona la voce grazie all’intelligenza artificiale preoccupa gli esperti. Software come Murf.ai, PlayHT o Vidnoz AI permettono di farlo in modo facile e spesso gratuito. Un pericolo per tutti, ma soprattutto per le persone anziane o con problemi di udito.

Parola all’esperto

Stefano Zanero, esperto di sicurezza informatica, sottolinea come queste truffe siano opera di gruppi criminali organizzati. I “pacchetti” pronti all’uso che si trovano sul dark web sfruttano schemi ricorrenti, come il finto rapimento di un familiare.

L’intelligenza artificiale aumenta il fattore di convincimento, rendendo le truffe più difficili da smascherare. La diffusione di deepfake e falsi audio è un rischio concreto.

Come difendersi

Cosa fare per difendersi? Bisogna essere consapevoli del pericolo e imparare a riconoscere i segnali di allarme. Non cedere al panico e verificare sempre l’identità della persona con cui si parla sono le prime regole da seguire.

La riproducibilità tecnica della nostra persona è una realtà. Dobbiamo imparare a proteggerci in questa nuova era digitale.

Condividi questo articolo
Exit mobile version