Quando parliamo di furto di identità pensiamo quasi sempre a password, documenti, numeri di carta. Molto più raramente pensiamo alla voce. Eppure oggi bastano pochi secondi di audio presi da una chiamata di lavoro, da un vocale su WhatsApp o da un video sui social per clonare il modo in cui parliamo, usando strumenti di intelligenza artificiale che chiunque può trovare online. Il risultato è una copia digitale della nostra voce, abbastanza credibile da ingannare colleghi, familiari o fornitori.
Le nuove truffe vocali non sono la “telefonata strana” del finto call center. In molti casi seguono uno schema preciso: prima si raccolgono campioni audio pubblici (interviste, webinar, podcast, video, vocali), poi si usano tool di voice cloning per ricostruire timbro, ritmo e inflessioni. Una volta creato il clone, entra in gioco il social engineering: una chiamata che sembra arrivare dal numero giusto, una voce che riconosciamo e una richiesta urgente come un bonifico da approvare, un cambio IBAN, la conferma di un codice o di un accesso “da fare subito”. Non si tratta più di violare sistemi complessi, ma di convincere una persona in buona fede a fare un passo che sembra normale nel flusso del lavoro.
Per le aziende questo è un cambio di paradigma. Per anni abbiamo dato per scontato che “se riconosco la voce, posso fidarmi”: quella del direttore che chiama in contabilità, del fornitore storico, del referente della banca. Oggi quella certezza non regge più da sola. Esistono già casi documentati di truffe in cui la voce clonata di figure autorevoli è stata usata per chiedere trasferimenti di denaro o sbloccare operazioni riservate, sfruttando contesti credibili e momenti di pressione. Allo stesso tempo, anche sul piano personale cresce il numero di truffe che usano voci “familiari” per simulare emergenze e richieste di aiuto, facendo leva sulle emozioni più che sulla tecnologia.
Un aspetto che spesso sottovalutiamo è quanto materiale vocale lasciamo in giro senza accorgercene: messaggi vocali nei gruppi, webinar registrati, video aziendali, podcast, messaggi in segreteria telefonica. Per chi costruisce truffe vocali, ognuno di questi frammenti è un mattoncino in più per addestrare un clone realistico. Ridurre ciò che rendiamo pubblico, semplificare i messaggi in segreteria, usare con più criterio la voce nei contenuti aperti e impostare procedure interne che non si basino mai solo su “riconoscere la voce giusta” sono piccoli cambiamenti, ma fanno una grande differenza nel rendere più difficile il lavoro di chi prova a trasformare la nostra voce in uno strumento di attacco.
Che cosa possiamo fare, in concreto? Non si tratta di smettere di usare chiamate e vocali, ma di cambiare alcune abitudini. In azienda è importante stabilire regole chiare: nessun movimento di denaro o cambio di coordinate sensibili solo sulla base di una telefonata, anche se la voce sembra quella giusta. Basta una verifica tramite un secondo canale come una chat interna, una mail ufficiale, o anche solo richiamare l’interlocutore per scongiurare attacchi così rischiosi. È utile anche spiegare alle persone che la voce è un dato sensibile come gli altri: ridurre le informazioni che rendiamo pubbliche senza necessità, prestare attenzione alle chiamate “troppo urgenti” o emotive, e non avere paura di prendersi qualche minuto per verificare prima di dire sì.
Nel giro di pochi anni ci siamo abituati all’idea che foto e video possano essere manipolati. La voce sta seguendo la stessa strada, ma in modo più silenzioso, perché la telefonata continua a sembrarci uno dei canali più “umani” e affidabili. Imparare a considerarla parte della nostra identità digitale e come tale qualcosa da proteggerem è uno dei passi chiave per affrontare in modo maturo le nuove minacce legate all’intelligenza artificiale.