L’Unione Europea sembra realmente intenzionata a regolamentare l’Intelligenza Artificiale. I tre organi principali della politica Ue — Commissione, Parlamento e Consiglio europeo — hanno faticosamente raggiunto una bozza accordo che dovrebbe mettere un argine alla «pericolosa» tecnologia.
Il risultato è un documento dettagliato ma suscettibile di modifiche. In attesa di pervenire a quello che dovrà essere il testo definitivo, la cui approvazione è prevista per il giugno del prossimo anno.
La denominazione adottata è palese: IA Act. Il motivo per cui usiamo questo termine, «argine» è ben preciso. Perché ha lo scopo di ricordare subito che, proprio come avviene rispetto ai fiumi, si tratta di creare delle difese contro la forza delle correnti. La forza: e a volte la furia.
Da un lato c’è la forza del mercato. Una forza straordinaria e sovrannazionale, che si erge al di sopra degli Stati e dei popoli. Un enorme insieme di spinte incessanti a trasformare qualsiasi cosa, qualsiasi tecnologia, in occasione di profitto.
Come è avvenuto, ad esempio, per i telefoni. Che prima sono diventati cellulari e poi smartphone. Moltiplicando in modo esponenziale le loro funzioni e le loro attrattive. Creando abitudine, piacere, assuefazione.
La sfida dell’Intelligenza Artificiale
Dall’altro lato c’è la forza dei governi. Che per definizione devono assicurare il mantenimento dell’ordine pubblico, ma che di fronte alle crescenti turbolenze della realtà economica e sociale sono esposti alla tentazione di rispondere accentuando le forme di controllo.
Dalle ormai diffusissime videocamere a ogni altro dispositivo che sia in grado di monitorare la vita dei cittadini. Dove sono, cosa fanno, cosa potrebbero fare. Al posto dell’armonia, la sorveglianza.
Sono le contraddizioni intrinseche delle società liberali. Ma diventano sfide ancora più grandi, e più pericolose, nel momento in cui si vanno a imperniare su una risorsa dagli sviluppi pressoché illimitati come l’Intelligenza Artificiale.
Un immane moltiplicatore di potenza nelle mani di due entità – le grandi imprese multinazionali e i governi scaturiti da elezioni a bassa o infima affluenza – i cui obiettivi appaiono sempre meno coincidenti con quelli della generalità dei cittadini.
Privacy. La barriera non negoziabile
È stato detto e ridetto: se su Internet un servizio è gratis, significa che il prezzo sei tu. Ovvero i tuoi dati.
In larghissima misura, purtroppo, il chiarimento è rimasto astratto. Senza incidere quasi per nulla né sui comportamenti della stragrande maggioranza degli utenti, né sull’attenzione dei parlamenti che dovrebbero stabilire per legge ciò che è lecito e ciò che non lo è.
Gli utenti non ci badano: ingolositi dalla seduzione di turno – nonché dalla fascinazione complessiva, che rende insopportabile l’idea di essere esclusi da quello che accade online – tendono a non curarsi affatto delle conseguenze.
Bisogna approvare i cookie? Ma sì, dai. Così ci fanno vedere le pubblicità legate ai nostri interessi, invece di quelle casuali. E poi, scusa, mica possiamo stare continuamente a perdere tempo, mettendoci a leggere le avvertenze più o meno nascoste e a selezionare le opzioni alternative, più o meno macchinose…
I parlamenti, con un’inerzia troppo insistita per essere casuale, lasciano fare. Quando invece, per ristabilire un po’ di correttezza, basterebbero norme di poche righe. A cominciare da questa: «l’accettazione o il rifiuto dei cookie devono essere condensati in un’unica domanda, espressa con la medesima grafica e senza ricorrere a diciture equivoche come ‘legittimo interesse’. Chi li vuole dice sì. Chi non li vuole dice no. Senza alcuna preclusione all’utilizzo del sito».
Insomma: il saccheggio prosegue imperterrito. Ma per quanto accurati e invasivi, gli attuali metodi sono nulla rispetto a ciò che potrebbe avvenire con il ricorso all’Intelligenza Artificiale.
Massima allerta sui dati biometrici
L’innovazione principale, e il rischio smisurato, risiede qui: nella possibilità di processare costantemente non soltanto le azioni compiute mentre si naviga, ma le reazioni involontarie che si producono nell’organismo e che si manifestano, innanzitutto, nei movimenti facciali.
Grazie alle sue immense capacità di elaborazione, la Ia potrebbe operare con straordinaria e inquietante efficacia in ciascuna delle tre fasi del monitoraggio: acquisire le immagini, interpretarle e modellare i contenuti da «offrire» in base al profilo personalizzato che ne sia emerso.
Nonché, si intende, memorizzare il tutto in archivi aggiornati via via e funzionali ai successivi utilizzi.
Questo tipo di sfruttamento, per di più, non si esaurisce affatto nella sfera prettamente commerciale, ma si estende alle questioni sociali e politiche. In base alle preferenze individuali, che una volta aggregate diventano tendenze collettive, si plasmano i messaggi da somministrare in seguito.
Per un verso si asseconda il pubblico, per l’altro lo si orienta. In apparenza gli si dà quello che desidera. In realtà se ne solleticano i gusti per poi arrivare a indirizzarne le scelte.
Lo Ia Act, almeno per ora, pone una lunga serie di divieti specifici, riguardo ai dati biometrici. Escludendo, tra l’altro, i database di riconoscimento facciale e i sistemi di riconoscimento delle emozioni, sia nelle aziende che nelle scuole.
Che questo sia stato fatto è sacrosanto. Ma non deve farci dimenticare che la partita è ancora agli inizi: gli interessi in gioco sono troppo grandi, per pensare che l’assalto alle nostre identità sia scongiurato per sempre.
Gerardo Valentini
A PROPOSITO DI IA
Regole stringenti in arrivo dall’Europa del 16 giugno 2023