LA SFIDA DI CHATGPT

Opportunità e rischi
di un «salto di paradigma»

ChatGpt, l'incognita di una rivoluzione antropologica

 

La sfida delle nuove tecnologie, in particolare l’Intelligenza Artificiale (IA), con cui interloquire per mezzo di chat (la più famosa è ChatGpt) è sicuramente ad un punto di svolta, in termini più sensazionalistici si potrebbe parlare di un salto di paradigma.

Il confronto con la rapida evoluzione delle tecnologie digitali porta ad alcune considerazioni che sono già state oggetto di approfondimenti:

  • la diffusione e la conservazione dei dati personali degli utenti, vere miniere d’oro collezionate all’insaputa degli usufruitori delle piattaforme, specialmente social;
  • il potere sempre più politico e di «dominanza ideologica» dei detentori dei cosiddetti Big Data;
  • l’automatizzazione del lavoro e le ripercussioni sociali di ciò;
  • la straordinaria facilità di provocare eventi incontrollati dalle conseguenze disastrose;
  • la diffusione di fake news e deep fake, ossia la riproduzione virtuale di scenari sempre più realistici per la realizzazione di video artefatti;
  • il ripensamento antropologico.

L’altolà di Elon Musk e Geoffrey Hilton

ChatGpt. Da Elon Musk e Geoffrey Hinton è partito l'allarme per i possibili sviluppi dell'IALa straordinarietà delle riflessioni suddette è che queste non sono provenute da una platea tecnofoba o luddista, ma hanno interessato gli stessi operatori e protagonisti del cambiamento: Elon Musk e Geoffrey Hinton.

Elon Musk, Ceo di Twitter, pioniere dell’Intelligenza Artificiale, cofondatore di OpenAI. la società sviluppatrice di chatGpt, ha sottoscritto insieme ad altri 1.100 esponenti di rilievo dell’hi tech un manifesto sui rischi dell’IA, contenente l’invito ad una sospensione cautelativa degli sviluppi della relativa tecnologia.

Geoffrey Hinton, considerato «il padrino» dell’Intelligenza artificiale, ha lasciato il suo ruolo in Google per parlare liberamente dei rischi dello sviluppo dell’IA senza condizionamenti, anche economici.

Al di là del possibile rilievo speculativo di tali iniziative, che hanno un indubbio impatto sull’oscillamento azionario dei relativi prodotti e che quindi potrebbero essere finalizzate a favorire competitor di mercato, è interessante approfondire le dinamiche in atto.

I documenti della «Rome call»

Senza tornare sui risvolti filosofi ed etici dell’IA, tema già introdotto su EdicolaWebTv sullo spunto delle parole di Geoffrey Hinton, trovo interessanti i documenti sottoscritti dalla RenAIssance foundation, chiamati «Rome call» e in particolare l’ultimo, «Al Ethics: An Abramic committent to the Rome Call».

Credo che gli sviluppi tecnologici, anche esponenziali, dovuti agli allenamenti degli algoritmi attraverso i cosiddetti «schiavi del clic» (interessante l’inchiesta del Time in proposito), porteranno a valorizzare sempre più quelle capacità intellettuali «alte» dell’uomo, e a marcare la sua specificità e unicità come persona.

Tuttavia, il tema forse più urgente è l’ausilio che le tecnologie possono portare nella promozione e nella propaganda ideologica.

I condizionamenti pre elettorali si sono palesati già con i social media, sia a livello capillare con campagne sempre più mirate rispetto agli interessi degli utenti, sia a livello di censura di alcuni contenuti, anche di personaggi autorevoli, influenzando palesemente la politica democratica (il più clamoroso, il ban, ossia l’esclusione da twitter, di Trump).

Nell’attuale sviluppo tecnologico, la predisposizione di contenuti elaborati in modo non neutrale (e difficilmente si potrebbe attuare il contrario), unita ad una sempre più realistica falsificazione dei contenuti, potrebbe portare la persuasione occulta verso nuovi e illimitati standard.

Intendiamoci, anche se non ci fossero novelli Goebbels all’orizzonte, un tale potere porterebbe ad una sottile distorsione della democrazia, in un contesto orwelliano difficilmente percepibile.

Il personaggio Musk è certamente quello che sta investendo di più nel formare una consapevolezza sul tema: non a caso, oltre a rilevare Twitter dopo l’era della censura (contrastando il precedente modello gestionale), ha presentato un suo progetto di chatbot che avrebbe la pretesa di «comprendere la natura dell’universo» con il nome evocativo di TruthGpt.

L’intervento del Garante su ChatGpt

Shoshana Zubof, Il capitalismo della sorveglianzaDi fronte a queste prospettive, va salutato con favore l’intervento del nostro Garante della Privacy, che ha portato ad una sospensione di ChatGpt in Italia subordinata all’implementazione di alcune garanzie di trasparenza di trattamento dei dati, interfaccia informativa, opposizione al trattamento dei propri dati al fine di addestramento degli algoritmi, blocco di registrazione per utenti minorenni.

Il comunicato del Garante della privacy conferma tutti gli obiettivi, precisando però che, mentre ChatGpt ha previsto per gli interessati la «possibilità di far cancellare le informazioni ritenute errate» si dichiara, «allo stato, tecnicamente impossibilitata a correggere gli errori».

Per chi non lo sapesse la normativa europea sul trattamento dei dati personali è forse l’unico argine al recepimento globale di quel «capitalismo della sorveglianza» ben illustrato nell’omonimo libro di Shoshana Zuboff, che sembra accumunare, da fronti opposti, le esperienze di innovazione cinese e americana.

Nella nostra affannata corsa per non rimanere indietro di fronte alle prospettive di mercato che le nuove tecnologie offrono, ci dimentichiamo quanto «valore» perdiamo sotto forma di dati.

Gli incorreggibili errori degli algoritmi

Al di là di tale tema, certamente da approfondire, rimane il disagio di apprendere «l’impossibilità tecnica di correggere gli errori degli algoritmi», con errori di bias sempre più difficili da distinguere.

La sfida che ci aspetta è certamente quella di affinare le capacità discrezionali di fronte ad una mole di dati di immediata acquisizione e all’interfacciarsi con strumenti capaci di interagire ad un livello che può sembrare dialogico, ma che in realtà è condizionato da input, che dovremmo, in teoria, controllare. La domanda è cosa succederà se e quando perderemo questo controllo.

A tal proposito il 16 maggio in un’audizione al Senato Usa il «padre» di ChatGpt Sam Altman nonostante non abbia assunto nessun impegno sulla trasparenza nell’addestramento degli algoritmi, ha affermato che «Se questa tecnologia (l’IA, ndr) andasse male, le cose potrebbero finire molto male», e ha auspicato la formazione di un quadro normativo internazionale con un’Agenzia sul modello dell’Agenzia internazionale per l’Energia Atomica (Aiea), tanto per far percepire l’ordine di grandezza del possibile disastro.

Armando Mantuano

 

 

CHATGPT, MACCHINE CHE PENSANO DA SOLE?

Dopo l’outing di Geofrey Hinton ci si interroga sui rischi dell’IA dell’8 maggio 2023

Lascia un commento