Il nesso tra IA e conflitti

Un articolo di Francesco Grillo per The Conversation
Il conflitto in Iran – ma anche la guerra in Ucraina – mostrano non solo che l’intelligenza artificiale sta cambiando radicalmente l’economia della guerra (il che potrebbe essere una buona notizia), ma anche che potremmo avvicinarci ad una sorta di “momento Chernobyl”. Potremmo presto assistere ad un disastro che ci farà rendere conto, troppo tardi, che avremmo dovuto stabilire delle regole condivise per governare uno sviluppo tecnologico che noi stessi abbiamo innescato.
Perfino Dario Amodei, fondatore dell’azienda di IA Anthropic, che sembra determinato a prevenire un Armageddon, riconosce di non avere la risposta di cui abbiamo disperatamente bisogno.
Uno dei tentativi più interessanti di regolamentazione dell’uso dell’intelligenza artificiale potrebbe essere quello elaborato durante la Seconda guerra mondiale da un dottorando alla Columbia University, temporaneamente impiegato dalla Marina degli Stati Uniti. Il suo nome era Isaac Asimov e, nel suo racconto "Circolo Vizioso” (Runaround) del 1941, formulò tre leggi che sono ancora sorprendentemente stimolanti per chiunque si interroghi su come risolvere il problema intellettuale e politico dell’IA in guerra.
A differenza dei recenti tentativi dell’OCSE (Organizzazione per la cooperazione e lo sviluppo economico) e dell’Unione Europea di elaborare regolamenti, le leggi di Asimov sono ammirevolmente concise. Per prima cosa, stabiliscono che un robot (quello che oggi chiamiamo “agente di intelligenza artificiale”) non deve mai danneggiare un essere umano (né permettere che ciò accada per inerzia). Il robot deve sempre obbedire agli ordini impartiti dagli esseri umani, a meno che non entrino in conflitto con il primo divieto. Inoltre, deve sempre proteggere la propria esistenza, a meno che ciò non sia in contrasto con le prime due disposizioni.
Nel suo racconto, lo stesso Asimov mostra come le tre leggi possano creare contraddizioni interne, portando alla paralisi. Eppure, i tre principi di Asimov possono ancora essere utili come punto di partenza per la strategia di cui abbiamo bisogno attualmente.
Anthropic prende posizione
Il principale merito della nota scritta recentemente da Dario Amodei sui pericoli di una tecnologia ancora “adolescente” è il riconoscimento che Anthropic, l’azienda da lui fondata, sta utilizzando il proprio modello linguistico (chiamato Claude) per sviluppare versioni successive di sé stesso.
L’intelligenza artificiale sta generando robot ancora più intelligenti e questo ci avvicina a quella “singolarità” teorizzata per la prima volta dal grande matematico John von Neumann: il momento in cui l’IA supera l’intelligenza umana, rendendoci irrilevanti. Se la tecnologia è un adolescente, sta crescendo molto rapidamente e presto potrebbe sfuggire al controllo del suo creatore.
Amodei, tuttavia, non sembra avere una proposta concreta su come gestire questo problema. Ha dichiarato che i contratti di Anthropic con il Dipartimento della Difesa degli Stati Uniti non dovrebbero mai includere l’uso dei modelli dell’azienda per consentire “sorveglianza di massa interna” o “armi completamente autonome”.
Si tratta di una richiesta che ha portato Anthropic ad uno scontro acceso con il governo statunitense. Eppure, appare una risposta piuttosto limitata, che copre solo una dimensione di un problema molto più ampio. Amodei si concentra principalmente sulla sicurezza dei cittadini statunitensi, mentre sono le persone nel resto del mondo ad essere attualmente le più colpite dall’uso di armi autonome. Serve una visione più audace, e le intuizioni di Asimov possono aiutare.

Nuove regole
Teoricamente, un approccio potrebbe essere quello di chiedere a tutti gli sviluppatori di modelli di IA di introdurre nei loro codici fondamentali tre comandi semplici e coraggiosi, del tipo: “Non ucciderai mai un essere umano (se non per autodifesa)”; “cercherai sempre di operare per il miglioramento dell’umanità (a meno che ciò non comporti la violazione del primo comando)”; “quando dubiti che le tue azioni possano violare il primo o il secondo comando, sceglierai l’inazione e chiederai istruzioni”.
Molto probabilmente, questa iniziativa dovrà partire da un gruppo di paesi, seguendo un modello simile ai trattati di non proliferazione delle armi nucleari. E sarebbe opportuno avviare preventivamente un dibattito, prima di essere costretti a farlo a causa di qualche conseguenza involontaria legata all’IA e al nucleare.
Come tutti gli altri tentativi di regolamentare un futuro che non siamo ancora in grado di immaginare, i tre comandi presentano alcuni limiti. Un robot potrebbe rifiutarsi di uccidere l’ex leader iraniano Ali Khamenei, ma potrebbe essere un prezzo accettabile se ciò significa evitare di creare un precedente per altre interpretazioni discrezionali e pericolose. I robot potrebbero non riuscire sempre a identificare correttamente gli esseri umani (come lo stesso Asimov riconobbe in scritti successivi), eppure questo potrebbe essere uno di quei problemi intellettualmente affascinanti che modelli progettati per comprendere il linguaggio umano riusciranno a risolvere.
Ancora più importante, non basteranno le informazioni: servirà molta saggezza per capire cosa sia davvero il bene dell’umanità. I robot potrebbero finire spesso per restare inattivi in attesa di istruzioni. Eppure, l’efficienza non è una religione da seguire quando la sfida riguarda la sopravvivenza della nostra specie. Comprendere quella che appare sempre più come una delle più grandi rivoluzioni tecnologiche di tutti i tempi richiede una riflessione attenta e una pianificazione lungimirante.
