L'Intelligenza Artificiale: abbiamo bisogno di una grande legge per governarla?

Valutazione sull'EU Artificial Intelligence Act.

WhatsApp Image 2024 03 22 at 11.37.45

Articolo pubblicato da Francesco Grillo per Il Messaggero e Il Gazzettino

Ha senso provare a governare attraverso la legge uno sviluppo tecnologico come quello dell’intelligenza artificiale (IA)? Di quali strumenti intellettuali abbiamo bisogno per leggere un fenomeno che sta cambiando il modo in cui noi – gli umani – trasformiamo informazioni in conoscenza? È da considerazioni alle quali non siamo più abituati, che deve partire il giudizio sullo sforzo titanico che le istituzioni comunitarie hanno compiuto per fare dell’Europa il primo continente ad avere una legge (appena approvato dal Parlamento europeo) sull’IA.

Il progresso tecnologico è, in effetti, caratterizzato da due famiglie di invenzioni che hanno impatti completamente diversi. Alcune - molto più numerose – hanno uno scopo specifico (lo è la lavatrice che pure ha avuto enormi meriti). Altre hanno utilizzi teoricamente infiniti (lo fu la scoperta del fuoco durante il neolitico). L’intelligenza artificiale è la venticinquesima nella storia delle “tecnologie ad uso generale” (GPT) secondo la classificazione di Oxford University Press. Ed assomigliarli di più fu l’invenzione degli strumenti che consentirono di scrivere (il papiro, 5000 anni fa in Egitto); la macchina per la stampa di Gutenberg che decretò la fine del Medioevo. La straordinaria caratteristica di questo tipo di tecnologie è che cambiano tutte le attività umane. In più, però, l’IA si appresta a modificare i nostri stessi processi cognitivi. Per tutte le tecnologie ad uso generale e, ancora di più per l’IA, la difficoltà è dunque quella di provare governare un processo che ha esiti non ancora prevedibili. 

Non sembrano essere stati sfiorati da queste considerazioni filosofiche e assai concrete, i legislatori dell’Unione Europea. E la prima cosa che sorprende è la magnitudine dello sforzo. La proposta di regolamento su IA consta di 458 pagine articolate in 180 premesse, 113 articoli e 13 allegati. È una dimensione cresciuta rispetto alle precedenti versioni dell’atto e che si aggiunge ad altre nove – tra direttive e regolamenti – prodotti dall’Unione sulle questioni digitali negli ultimi otto anni. Questa bulimia regolamentare sembra, tuttavia, il riflesso condizionato di un legislatore che sentendosi sorpassato dal fenomeno su cui intervenire, cerca di inseguirne le manifestazioni che nel frattempo si moltiplicano.

Quando la Commissione sottopose al Parlamento e al Consiglio la prima bozza di regolamento su IA era l’Aprile del 2021 e il mondo viveva in un’altra era tecnologica. Il vaccino di ultima generazione contro il COVID19 non era stato ancora approvato e FACEBOOK non aveva ancora cambiato il proprio nome lanciando il METAVERSE. Nessuno immaginava che una fondazione creata da Microsoft (OPENAI) avrebbe un anno e mezzo dopo introdotto un modello di intelligenza artificiale capace di raggiungere 100 milioni di utilizzatori in soli due mesi (stracciando tutti i record precedenti).  Il mondo ha superato le istituzioni e affidare la risposta ai soli giuristi produce un numero di paradossi.

Può essere un errore (tragicomico in Italia) l’aver deciso, ad esempio, aver classificato “ad alto rischio” l’utilizzo dell’intelligenza artificiale anche solo per supportare l’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti. E persino l’aver deciso di cominciare il regolamento, vietando l’utilizzo di sistemi che valutino il comportamento sociale di gruppi di persone, può spuntare un’arma della quale potremmo aver presto bisogno per contrastare disastri ambientali. Ma ciascuna delle norme di una strumentazione così vasta si presta strutturalmente a poter far perdere opportunità (soprattutto di ricerca rispetto a processi che rischiano di escluderci). Senza, peraltro, evitare che i pericoli di innovazioni non controllate ci arrivino addosso da Paesi che vanno avanti con le sperimentazioni con meno scrupoli. Quale può essere un approccio diverso? 

Una strada è quella tentata da qualche tempo dagli inglesi che, proprio sul digitale, potrebbero aver il vantaggio di non dover rispettare il metodo europeo. L’idea è quella di intervenire con un’autorità (si chiama CBI a Londra ed è l’equivalente del nostro ANTITRUST) che aggiungi alle proprie competenze non tanto la regolamentazione di un processo tecnologico di “applicazione generale” che non è regolamentabile, ma lo studio degli impatti di quelle tecnologie per settori industriali (e servizi pubblici).  Pool di medici, biologi e informatici potrebbero, ad esempio, concentrarsi sull’identificazione dei rischi e delle opportunità per sanità e ricerca di nuovi farmaci. E lo stesso varrebbe per la scuola, dove gli effetti delle tecnologie sono diverse per materia e età degli studenti/ insegnanti.  

L’ufficio per l’intelligenza artificiale previsto dalla nuova legge andrebbe riarticolato in questa maniera (evitando l’errore epistemologico di continuare a illudersi che ci siano davvero “esperti di intelligenza artificiale”, laddove questa ondata tecnologica ci costringe a cercare lenti totalmente nuove).

Ma la vicenda del regolamento su IA fa anche intravedere una concezione del consenso che è davvero strana. Sembra che tempistiche e contenuti dell’atto approvato la scorsa settimana siano state molto condizionate dalla volontà politica di chiudere una partita (che, invece, rimane aperta) prima delle prossime elezioni. È una concezione strana perché è difficile immaginare che anche solo il voto dei familiari dei parlamentari europei possa essere stato spostato dal poter dire di essere i “primi” ad avere una legge sull’intelligenza artificiale del mondo. 

In realtà, parte del problema che dobbiamo risolvere è che – tra tanti tecnicismi ridondanti – non sono più di un paio di migliaia i cittadini europei che sanno che in gioco su questi temi, c’è il futuro di tutti. Il futuro dovrebbe diventare questione politica e morale. Invece, è il territorio di “esperti” che, per definizione, non possono immaginare ciò che non c’è ancora; e di avvocati/ lobbisti che di mestiere fanno i manutentori dello status quo; e di funzionari della Commissione che non dovrebbero avere alcun interesse a cercare “consenso”.

Follow Us

Partner

vision and value logo

© Copyright 2024 Vision & Value srl a socio unico | Via dei Banchi Vecchi 58, 00186 ROMA (RM) | P.IVA 04937201004 | Registro delle Imprese di Roma | Nr. REA RM - 819795 | Capitale Sociale: € 45.900,00 i.v.
Credits elmweb