In determinate situazioni l’algoritmo dei software basati sull’Intelligenza Artificiale generativa può produrre forme di «fantasia» estrema paragonabili alle allucinazioni originate dalla mente umana. Un terreno ancora inesplorato che può avere diverse ripercussioni nella vita quotidiana.
Lo scorso 2 aprile, l’Organizzazione mondiale della sanità ha lanciato il chatbot Sarah, basato sul large language model Gpt 3.5 do OpenAi. Lo scopo di Sarah, acronimo di Smart Ai Resource Assistant for Health, è di fornire consigli in otto diverse lingue su alimentazione, fumo, salute mentale, attività fisica e altro ancora.
Come prevedibile, nel giro di poche settimane hanno iniziato a moltiplicarsi le testimonianze relative ai pessimi consigli di Sarah, che, per fare solo pochi esempi, ha confuso l’eco-ansia legata al disboscamento dell’Amazzonia con un problema legato ad Amazon (l’azienda), ha fornito una lista di cliniche di San Francisco inesistenti e ha suggerito di approfondire alcuni temi fornendo dei link non funzionanti.
Non è l’unico caso, nel febbraio del 2024, Air Canada è stata condannata a pagare i danni a un passeggero dopo che il suo assistente virtuale gli aveva fornito informazioni errate in un momento particolarmente difficile.
L’algoritmo tra realtà e fantasia
L’intelligenza artificiale ha fatto progressi straordinari negli ultimi anni, aprendo nuove possibilità in diversi settori. Tuttavia, con il crescente sviluppo delle Ai generative e complesse, sorge una questione intrigante: possono le macchine sperimentare allucinazioni?
La risposta è sì. Le allucinazioni non sono quindi solo un fenomeno mentale umano che coinvolge la percezione di cose che non esistono nel nostro mondo, ma si manifestano anche nelle Intelligenze Artificiali (Ia).
Le allucinazioni umane sono un’esperienza sensoriale che una persona avverte come reale, ma che non ha una base oggettiva nel mondo esterno. Le allucinazioni nelle Ia possono essere considerate una forma di «fantasia» estrema generata dall’algoritmo, quando non trova risposte, un fenomeno che nell’intelligenza artificiale da fisiologico diventa patologico.
In altre parole, una Ia piuttosto che non rispondere — e non generare un output — si «allucina»: inventa, distorce, crea ex novo realtà di tutti i tipi, perché una risposta anche allucinata te la deve dare.
Perché le Ia hanno allucinazioni
Possono verificarsi per diversi motivi, principalmente legati al modo in cui le macchine elaborano e interpretano i dati. Alcuni dei fattori che possono contribuire alle allucinazioni fantastiche nelle Intelligenze Artificiali sono:
- Rumore nei dati di addestramento. Se i dati utilizzati per addestrare un’Ia sono rumorosi o contengono informazioni inaccuratamente etichettate, l’algoritmo di apprendimento automatico potrebbe generare rappresentazioni distorte della realtà. Questo può portare a allucinazioni generate dall’Ia quando viene esposta a situazioni simili ma non corrispondenti alla realtà di partenza.
- Elaborazione errata delle informazioni. Le Ia utilizzano algoritmi di apprendimento automatico, come le reti neurali artificiali, che possono elaborare informazioni in modo impreciso o errato.
Durante il processo di addestramento, l’Ia impara modelli e tendenze dai dati di input. Tuttavia, se queste informazioni sono incomplete, ambigue o non rappresentative, l’Ia potrebbe generare risultati errati o fantasiosi. Inventando di sana pianta. - Mancanza di contesto. Le Ia sono in grado di analizzare grandi quantità di dati, ma possono avere difficoltà a comprendere il contesto in cui vengono presentate le informazioni. Questo può portare a interpretazioni errate o fantasiose dei dati, dando luogo ad allucinazioni nell’output generato.
- Complessità del modello di apprendimento. Le Intelligenze Artificiali generative, come quelle basate sulle reti neurali profonde, possono essere soggette a fenomeni noti come overfitting o overgeneralization.
L’overfitting si verifica quando l’Ia si adatta troppo ai dati di addestramento specifici, rendendola meno in grado di generalizzare in modo accurato su nuove situazioni. Al contrario, l’overgeneralization si verifica quando l’Ia generalizza troppo, creando connessioni errate o bizzarre tra i dati di input.
Problemi etici e rischi per la sicurezza
Le allucinazioni nelle Intelligenze Artificiali sollevano importanti questioni etiche e di sicurezza. Se un’Ia responsabile di prendere decisioni critiche, come un sistema di guida autonoma, sperimentasse per qualche motivo allucinazioni, potrebbe comportare gravi conseguenze per la sicurezza umana. È quindi fondamentale sviluppare meccanismi di controllo e monitoraggio adeguati per rilevare, mitigare e frenare le «fantasie» nelle Ia.
Inoltre, le allucinazioni potrebbero anche influenzare la fiducia che le persone hanno nell’Intelligenza Artificiale. Se un assistente virtuale o un chatbot cominciasse a fornire risposte allucinatorie o incoerenti, l’utente potrebbe perdere fiducia nelle sue capacità e nella sua affidabilità.
Come è facile comprendere le allucinazioni fantastiche nelle Ia sono un campo di ricerca in rapida evoluzione. Mentre le macchine non hanno esperienze soggettive come gli esseri umani, possono comunque produrre risultati che risultano essere equivalenti ad allucinazioni e fantasie estreme.
Comprendere le cause di queste allucinazioni e sviluppare strumenti per prevenirle e annullarle è fondamentale per garantire che l’Intelligenza Artificiale sia affidabile, sicura ed efficace nelle sue funzioni.
Maria Facendola