Così gli hacker possono fare quello che voglio, perfino rubarci la voce
Con l’aumento degli attacchi online e delle truffe agli utenti, si rinnovano anche i metodi: gli hacker ora clonano la voce.
Gli eventi degli ultimi anni ci hanno spinto verso un grado di digitalizzazione mai visto prima. I più esperti sostengono che durante il lockdown dovuto alla pandemia da Covid-19 si siano condensati anni di sviluppo in pochissimo tempo. Se da una parte la popolazione è stata recettiva sulle nuove abitudini online, dall’altra è aumentata consistentemente la presenza e la mole di dati sensibili. L’occasione è diventata troppo ghiotta per i criminali informatici, che non si sono lasciati sfuggire l’opportunità.
I dati sono sconcertanti se si guarda all’aumento degli attacchi informatici avvenuti nel 2022 rispetto all’anno precedente. L’Italia, per altro, è uno dei Paesi più colpiti del mondo. Il conflitto in Ucraina ha portato anche un senso diverso a questo genere di attacchi. Il web è diventato un veicolo per manifestare la guerra, al pari delle armi da utilizzare sul terreno. Insomma, la situazione è piuttosto pericolosa. In questo marasma, gli hacker hanno imparato a trovare metodi sempre più innovativi e meticolosi per riuscire nei loro intenti. Oggi parliamo di truffe effettuate al cellulare che riescono a clonare la voce dell’interlocutore.
Utilizzare l’intelligenza artificiale per clonare la voce
Ovviamente, in questo periodo assistiamo all’ampio sviluppo dell’intelligenza artificiale. Come sappiamo, l’aumento dell’utilizzo dell’IA in vari ambiti può rendere efficienti molti processi, ma rimane comunque uno strumento dalle potenzialità infinite. Alcuni malintenzionati, per esempio, hanno incominciato a utilizzarla per aprire una nuova frontiera dello scam che in America sta mietendo tantissime vite. Il funzionamento è il seguente: viene effettuata una chiamata all’ignara vittima, la cui voce viene registrata anche se per pochissimi secondi. Da questo breve stralcio l’intelligenza artificiale riesce a creare il modello di una voce molto simile a quella dell’utente ingannato.
Il clone vocale così ottenuto viene poi utilizzato per simulare la voce reale in chiamate con contatti diretti, come amici, familiari e parenti. Qui viene simulata una scena di pericolo che allarma gli interlocutori. In Canada, per esempio, una coppia di coniugi è stata raggiunta da una telefonata della nipote, la quale diceva di essere finita in carcere per una grave situazione e aveva bisogno dei soldi per pagare la cauzione. Insomma, stiamo toccando con mano le infinite applicazioni dell’intelligenza artificiale, anche quando non sono legali e corrette.