Recentemente, la Banca d’Italia ha lanciato un avviso urgente, denunciando la presenza online di videomessaggi che utilizzano in modo ingannevole immagini e voci di importanti figure del settore finanziario, inclusi rappresentanti dell’istituto stesso, senza alcuna autorizzazione. Il fenomeno rientra nella crescente problematica dei deepfake, ovvero contenuti audio e video generati artificialmente da intelligenza artificiale, che sono estremamente realistici ma completamente falsi.
Tali videomessaggi vengono creati con l’intento di ingannare, diffondendo informazioni false per orchestrare truffe informatiche. Nonostante possa sembrare un’attività da hacker esperti, l’avanzamento dell’intelligenza artificiale generativa ha semplificato notevolmente il processo, rendendo possibile per chiunque creare tali falsificazioni.
La crescita dei deepfake
A gennaio 2024 un dipendente di una società finanziaria britannica, con sede ad Hong Kong, è stato convinto, da un video deepfake nel quale compariva il capo dell’ufficio finanziario ad effettuare una serie di bonifici per una somma vicina ai 25 milioni di dollari.
Il Center for Financial Services di Deloitte prevede che i deepfake possano causare una notevole escalation delle truffe finanziarie negli Stati Uniti, stimando che potrebbero salire fino a 40 miliardi di dollari entro il 2027, partendo dai 12,3 miliardi di dollari registrati nel 2023, con una crescita annua del 32%.
L’incredibile ritmo delle innovazioni metterà alla prova gli sforzi delle banche per stare al passo con i malintenzionati.
Questo perché i deepfake generativi abilitati all’intelligenza artificiale incorporano un sistema di «autoapprendimento» che controlla e aggiorna costantemente la propria capacità di ingannare i sistemi di rilevamento basati su computer.
Nello specifico, la pronta disponibilità di nuovi strumenti di intelligenza artificiale generativa può rendere video deepfake, voci fittizie e documenti fittizi facilmente ed economicamente disponibili per i truffatori. Esiste già un’intera industria artigianale nel dark web che vende software truffa da 20 a migliaia di dollari. Questa democratizzazione del software dannoso sta rendendo meno efficaci numerosi strumenti antifrode attuali.
I rischi per le società di servizi finanziari
Non c’è quindi da stupirsi che le società di servizi finanziari siano particolarmente preoccupate per le frodi legate all’intelligenza artificiale generativa che accedono ai conti dei clienti.
Un rapporto ha rilevato che gli incidenti di deepfake sono aumentati del 700% nel fintech nel 2023. Solo per i deepfake audio, il settore tecnologico è indietro nello sviluppo di strumenti per identificare i contenuti falsi.
Alcuni tipi di frode potrebbero essere più vulnerabili all’intelligenza artificiale generativa rispetto ad altri. Ad esempio, secondo i dati dell’Internet Crime Complaint Center dell’Fbi, che tiene traccia di 26 categorie di frode, la compromissione della posta elettronica aziendale, uno dei tipi di frode più comuni, può causare ingenti perdite monetarie.
I truffatori hanno compromesso account di posta elettronica individuali e aziendali tramite ingegneria sociale per effettuare trasferimenti di denaro non autorizzati per anni. Tuttavia, con la generazione di intelligenza artificiale, i malintenzionati possono perpetrare frodi su larga scala prendendo di mira più vittime contemporaneamente utilizzando le stesse o meno risorse.
Solo nel 2022, l’Fbi ha contato 21.832 casi di frode via email aziendale con perdite per circa 2,7 miliardi di dollari. Il Deloitte Center for Financial Services stima che, in uno scenario di adozione «aggressiva», le perdite legate alle frodi generate dall’intelligenza artificiale tramite posta elettronica potrebbero ammontare a circa 11,5 miliardi di dollari entro il 2027.
Gli strumenti di prevenzione delle frodi
Da decenni le banche sono in prima linea nell’utilizzo di tecnologie innovative per combattere le frodi. Tuttavia, un rapporto del Tesoro statunitense ha rilevato che «gli attuali quadri di gestione del rischio potrebbero non essere adeguati a coprire le tecnologie emergenti dell’intelligenza artificiale».
Mentre i vecchi sistemi antifrode richiedevano regole aziendali e alberi decisionali, oggi le istituzioni finanziarie utilizzano comunemente l’intelligenza artificiale e strumenti di apprendimento automatico per rilevare, allertare e rispondere alle minacce.
Ad esempio, alcune banche stanno utilizzando l’intelligenza artificiale per automatizzare i processi che diagnosticano le frodi e inviano le indagini al team competente della banca.
Alcune banche stanno già incorporando ampi modelli linguistici per rilevare segnali di frode, come quello utilizzato da JPMorgan per la compromissione delle e-mail.
Allo stesso modo, Mastercard sta lavorando per prevenire le frodi con carte di credito con il suo strumento Decision Intelligence, che analizza trilioni di dati per prevedere se una transazione è autentica.
Le banche dovrebbero concentrarsi sui propri sforzi per combattere le frodi generative legate all’intelligenza artificiale per mantenere un vantaggio competitivo. Dovrebbero prendere in considerazione l’abbinamento della tecnologia moderna con l’intuizione umana per determinare come le tecnologie potrebbero essere utilizzate per prevenire gli attacchi dei truffatori.
Non esisterà una soluzione miracolosa, quindi i team antifrode dovrebbero accelerare continuamente il loro autoapprendimento per stare al passo con i truffatori. Rendere le banche a prova di futuro contro le frodi richiederà inoltre alle banche di riprogettare le proprie strategie, governance e risorse.
Una strategia comune per le banche
Il ritmo dei progressi tecnologici fa sì che le banche non combatteranno le frodi da sole poiché collaborano sempre più con terze parti che stanno sviluppando strumenti antifrode. Poiché una minaccia per un’azienda è una potenziale minaccia per tutte le aziende, i leader bancari possono sviluppare strategie per collaborare all’interno e all’esterno del settore bancario per stare al passo con le frodi generate dall’intelligenza artificiale. Ciò probabilmente richiederà che le entità del settore bancario lavorino insieme.
Le banche dovrebbero collaborare con fornitori di tecnologia terzi competenti e affidabili sulle strategie, stabilendo aree di responsabilità che affrontino i problemi di responsabilità per frode di ciascuna parte. Anche i clienti possono fungere da partner per aiutare a prevenire le perdite legate alle frodi.
Ma le relazioni con i clienti possono essere testate per determinare se una perdita dovuta a frode debba essere sostenuta dai clienti o dai loro istituti finanziari. I clienti si aspettano efficienza e sicurezza quando utilizzano il proprio denaro e la tecnologia deepfake dell’intelligenza artificiale generativa potrebbe compromettere questi due obiettivi. Le banche hanno l’opportunità di educare i consumatori e creare consapevolezza sui potenziali rischi e su come la banca li gestisce. Costruire questo livello di consapevolezza richiederà probabilmente frequenti punti di contatto comunicativi, come notifiche push sulle app bancarie che avvertono i clienti di possibili minacce.
Formazione e nuovi software di rilevamento
Le autorità di regolamentazione si concentrano sulle promesse e sulle minacce dell’intelligenza artificiale generativa insieme al settore bancario. Le banche dovrebbero partecipare attivamente allo sviluppo di nuovi standard di settore. Rendendo la conformità tempestivamente durante lo sviluppo tecnologico, possono avere una registrazione dei loro processi e sistemi preparati nel caso sia necessario per le autorità di regolamentazione. Infine, le banche dovrebbero investire nell’assunzione di nuovi talenti e nella formazione dei dipendenti attuali per individuare, fermare e segnalare le frodi assistite dall’intelligenza artificiale.
Per molte banche questi investimenti saranno costosi e difficili. Ma per stare al passo con i truffatori si dovrebbe dare priorità ad una formazione approfondita. Le banche possono anche concentrarsi sullo sviluppo di nuovi software di rilevamento delle frodi utilizzando team di ingegneri interni, fornitori di terze parti e dipendenti a contratto, che possono contribuire a promuovere una cultura di apprendimento e adattamento continui. Si prevede che l’intelligenza artificiale generativa aumenterà in modo significativo il rischio di frode, che potrebbe costare alle banche e ai loro clienti fino a 40 miliardi di dollari entro il 2027. Le banche dovrebbero aumentare i propri investimenti per creare team antifrode più agili per contribuire a fermare questa crescente minaccia.
Maria Facendola