La furbizia dell’Intelligenza Artificiale

"L’IA è per noi quello che noi siamo per i gorilla."

 - Nick Bostrom

Articolo di Riccardo Scarfato

planet of the apes 1

Il 21 gennaio 2019 si è insediato al MISE il gruppo di esperti sull’Intelligenza Artificiale. Questa task force è composta da economisti, giuristi, informatici ed ingegneri; a questi si aggiunge anche un teologo che apporta la sua conoscenza e professionalità in ambito di etica delle tecnologie, neuroetica, bioetica e teologia morale.

Nel mese di aprile Google ha aperto il proprio comitato etico. Dopo pochi giorni lo ha chiuso per apparenti motivi di conflitti interni per delle designazioni sgradite ai più.

Questi esempi dimostrano come sia avvertita, sia da parte della Pubblica Amministrazione che dai privati, la necessità di almeno controllare la deriva morale dell’intelligenza artificiale. Quali rischi e/od opportunità si potranno palesare quando l’intelligenza artificiale (IA) supererà l’intelligenza umana?

Eliezer Yudkowsky, un ricercatore americano, ha più volte sottolineato come il superamento della IA rispetto a quella umana non è ancora avvertito, globalmente, come un problema centrale. Questa affermazione è frutto degli sviluppi scientifici della IA, che accede in singole aree specifiche (per esempio negli scacchi) e solo in queste hanno capacità “sovraumane”.

Da questo punto Jaan Tallinn, programmatore ed imprenditore estone, ha esposto la paura che la crescita senza tregua dell’IA possa portare ad un automiglioramento costante fino a minacciare l’esistenza stessa dell'intera umanità. Nel corso degli anni Tallinn, nei suoi meeting e conferenze, ha prospettato una friendly IA che possa dare una via d’uscita all’umanità qualora la situazione diventasse insostenibile.

L’IA è per noi quello che noi siamo per i gorilla. La preoccupazione maggiore è data dalla consapevolezza che la super intelligenza potrebbe, in teoria, distruggere o dominare il mondo anche solo accidentalmente. Il noto esempio sperimentale del Paperclip maximizer di Nick Bostrom del 2003 è emblematico. L’esempio mostra come il rischio esistenziale di un IA nei confronti degli esseri umani è tutt’altro che impossibile o difficile da raggiungere.

“Un IA," descrive Bostrom, "incaricata di fabbricare graffette ma programmata solo per l’utilizzo di risorse limitate nel tempo, potrebbe raggiungere l’equazione per cui sarebbe meglio che gli umani non ci fossero perché potrebbero spegnerla con la conseguenza di non avere più graffette o non riuscirne a produrne più.”

Con questo esempio, che potrebbe sembrare ai limiti della realtà, è possibile valutare una necessaria presenza nell’IA di un “etica della macchina” (vedi tesi della Instrumental convergence).

I detrattori di questo pensiero contestano che è ancora troppo presto per occuparci di limitare l’IA quado ancora non la si conosce e comprende al meglio. È un’affermazione condivisibile ma non del tutto esatta se non si vuole rischiare di trovarsi in una realtà nella quale non vogliamo vivere.

Il fatto stesso di non avere limiti nella potenza di calcolo, potrebbe portare ad una IA con una comprensione più ampia e completa dei vincoli umani che la governano. Basti pensare all’esperimento IA-Box di Yudkowsky nel quale viene dimostrato come un IA avanzata possa convincere ed ingannare l’uomo a liberarla da un’ipotetica scatola nera. Alex Garland ha portato sul grande schermo questa paura con il film Ex Machina, nel quale un IA umanoide di nome Ava riesce a raggirare l’attore protagonista mostrando sentimenti e passioni umane al solo scopo di essere liberata dal laboratorio, nel quale era rinchiusa.  Sembra poter essere la naturale deriva dell’evoluzione IA se non si prevedranno, già da ora, elementi correttivi nel processo.

Lo sviluppo dell’IA ha bisogno di una massiccia quantità di dati per creare modelli ed alimentare la super intelligenza. Attualmente le sole realtà che sono in grado di portate avanti, in questa fase sperimentale, un serio sviluppo dell’IA sono le big del mercato tech: Alphabet, Apple, Facebook, Microsoft, Amazon, Alibaba. Nessuno Stato, tanto meno in Europa, riesce a puntare sullo sviluppo dell’IA come le aziende citate; sia per mancanza di dati che per mancanza di sufficienti investimenti. Tuttavia, la capacità, attualmente in uso nelle imprese, disruptive vede l’IA in prima fila nei processi aziendali e non accenna a fermarsi.

Diruptive Capability Currently in Use at Your Firm

Fonte: Big Data Executive Survey 2017, NVP New Vantage Partners.

Il primo libro bianco “L'Intelligenza Artificiale a servizio del cittadino” a cura della task force IA dell’Agenzia per l’Italia digitale del 2018, enfatizza che la sfida in capo alla PA consiste nelle azioni necessarie per accompagnare la trasformazione del paese verso l’adozione dell’IA, in particolare nella gestione del rapporto tra lo Stato, cittadini e le imprese.

Per concludere, la vera sfida sembra essere provare ad essere al passo dei big del mercato digitale che sul punto sono avanti anni luce rispetto alla PA, ma non sono sottoposti a nessun controllo a monte, soprattutto etico, sulla realizzazione ed implementazione di processo.

Follow Us

Partner

vision and value logo

Subscribe Newsletter

Subscribe and you will be informed about our news and events.
© 2019 Vision & Value Srl | vicolo della Penitenza 10 – 00165 Roma | P. IVA 04937201004
Credits elmweb