La sfida più grande del 2024

Dobbiamo trovare un metodo per capire e regolare l'inteligenza artificiale.

Articolo di Francesco Grillo per Il Messaggero.

 93bae7fa 9e4d 4d57 9cac 6db031b98c6b 

Che cosa è davvero l’intelligenza artificiale? Cosa dobbiamo intendere quando parliamo dell’evoluzione tecnologica che, con ogni probabilità, dominerà – insieme ai temi della guerra e del cambiamento climatico – il dibattito politico ed economico nel 2024? E come possiamo immaginare di governare un processo così veloce?

Fu uno dei più grandi matematici del XX secolo, Alan Turing a fornire nel 1950, quella che è la definizione più utile e potente di intelligenza artificiale: una macchina può essere considerata “intelligente” quando diventa capace di produrre contenuti in maniera tale che una persona che la interroghi, non riesca più a distinguerla dalle risposte che otterrebbe da un essere umano. Per riuscirci, il suo creatore dovrà consentirle di imparare progressivamente, proprio analizzando le proprie interazioni con altri esseri umani. Così facendo la macchina riuscirà nel tempo ad imitare (parola questa cruciale) non solo un uomo generico. Ma il più esperto tra gli uomini. In qualsiasi settore. Questo robot non proverà emozioni e farà errori sempre più piccoli. Non sarà mai un uomo ma ne replicherà i processi cognitivi, moltiplicandone la potenza.

Macchine che replichino il risultato dei nostri processi cognitivi, analizzando in tempi velocissimi tutta la conoscenza disponibile e fornendo risposte immediatamente, può aprire possibilità che facciamo fatica ad immaginare: per ciascun problema avremo la soluzione che consuma meno energia; per ciascuna malattia un trattamento personalizzato; per qualsiasi caso la migliore sentenza. Ma essa rende anche possibili gli incubi peggiori. Molto nei mesi scorsi si è discusso sul rischio che essa può avere per molti lavoratori che, per mestiere, aggregano contenuti facendone una “media”: ricercatori universitari, magistrati, medici, giornalisti, assistenti parlamentari rischiano di essere disintermediati da automi molto più veloci e meno costosi. E, tuttavia, il pericolo più grande è quello che un altro grande matematico – John Von Neumann – vide prima di chiunque altro: se un computer acquisisse la capacità di generare conoscenza nuova, sarebbe, persino, capace di generare nuovi programmi e l’uomo ne perderebbe definitivamente il controllo (sorpassando quel limite che Von Neumann chiamò “singolarità”).

L’Unione Europea sta – dopo una lunga gestazione – arrivando ad un risultato che quasi tutti ritengono essere necessario: una regolamentazione di una famiglia tecnologica (cresciuta quasi esclusivamente tra Stati Uniti e Cina) che utilizzi vincoli crescenti per situazioni di crescente rischio. Nelle applicazioni di minore impatto, si prevede che chi le utilizzi sia consapevole che di interagire con un robot; in quelle di rischio medio (nella chirurgia a distanza, nelle automobili a guida autonoma) gli obblighi crescono e si prevede, ad esempio, che ci sia sempre una persona a controllare la macchina; infine, alcuni utilizzi sembrano vietati (quelli che usano il riconoscimento facciale per proteggere da furti o che discriminano il premio pagato dagli assicurati sulla base del comportamento). E, tuttavia, il terreno è scivolosissimo e il resto del mondo sembra curioso di vedere su quale buccia scivoli la coraggiosa Europa.

Almeno tre, infatti, i problemi dell’approccio dell’Unione. Troppo ampie sono le definizioni e si rischia di vietare, persino, pratiche già diffuse (ad esempio, la telesorveglianza). C’è, poi, il problema che vietando alcune innovazioni, rischiamo di perderne anche gli effetti positivi (in sanità, l’utilizzo di dati personali può ridurre enormemente il costo di sviluppo di nuovi farmaci). Infine, e soprattutto, vietare o rendere difficile qualcosa in Europa (ad esempio, “chat” in grado di rendere verosimili notizie false), non impedisce che la stessa applicazione raggiunga gli elettori europei da uno qualsiasi degli altri 171 Stati che dell’Unione non fanno parte (facendoci perdere, persino, la possibilità di capire come funziona il “nemico” che vogliamo sconfiggere).

Quali le soluzioni allora? Di fronte a un fenomeno di cui non abbiamo ancora una teoria, tre sembrano gli ingredienti indispensabili. Dobbiamo ricominciare, innanzitutto, a studiare prima di precipitarci a scrivere leggi o a investire miliardi di euro dei contribuenti. Studiare con la passione dei grandi intellettuali che compresero, in anticipo, certi sviluppi. E abolendo, magari, la parola “esperti” perché nessuno può esserlo di una questione così ovviamente interdisciplinare come quella della macchina che pensa.

In secondo luogo, dobbiamo popolarizzare il dibattito sulla tecnologia e coinvolgere tutti, perché il confronto tra iniziati non basta se è sulla forma della società del futuro che stiamo discutendo. Infine, il dibattito non può che essere globale (neppure quello europeo basta), perché è a livello mondiale che si può governare una tecnologia, una trasformazione che, ovviamente, buca i confini di Stati inventati quando non c’era, neppure, la televisione.

Nel gioco d’imitazione di Turing, la macchina diventa indistinguibile dall’uomo. E però Turing avverte che continuerà a mancare al robot quella consapevolezza di sé stesso che definiva, secondo Cartesio, l’essere umano. Nello scontro finale tra il robot e il suo creatore, sarà decisivo ricordarci quello che siamo.

Follow Us

Partner

vision and value logo

© Copyright 2024 Vision & Value srl a socio unico | Via dei Banchi Vecchi 58, 00186 ROMA (RM) | P.IVA 04937201004 | Registro delle Imprese di Roma | Nr. REA RM - 819795 | Capitale Sociale: € 45.900,00 i.v.
Credits elmweb