AI apertura
Mytech

Dobbiamo avere paura dell'intelligenza artificiale?

Presto arriveranno supercomputer in grado di pensare in modo autonomo. Il rischio è che possano renderci marginali o schiacciarci. Ma possiamo evitarlo

Il cinema ci ha cresciuti suggerendoci che sì, dobbiamo avere paura. E tanta. Era diabolica la rete di Skynet che a ritmo esponenziale apprendeva e, presa coscienza di sé, faceva sfaceli in Terminator. Erano spietati assassini gli androidi di Io, robot, indifferenti e immuni alle sacre (per loro) leggi di Asimov. Persino nel recente Lei di Spike Jonze, favola tragica sull’amore che sboccia tra un uomo solitario e un sistema operativo, un’intelligenza artificiale genera dolore. Ferisce il cuore, la mente, oltre che il corpo. Tradisce l'ubriaco disordine dei sentimenti in nome delle logiche rigide, infinite e imperscrutabili dei bit.

L’elenco di esempi, in verità, è sterminato. Tanto quanto i nessi tra grande schermo, letteratura e mondo reale sono semplicistici. Ma stavolta il dibattito non è ozioso, non si riduce a un banale esercizio di stile sulle probabili derive del futuro. D’altronde, sulle trappole dello strapotere di computer burattinai, algidi e crudeli si sono espressi negli ultimi mesi i principali artefici della tecnologia che è stata e che verrà.

AI 1

– Credits: Thinkstock by Getty Images

Steve Wozniak, cofondatore della Apple, senza giri di parole: «Cosa potremo fare se un computer fosse intelligente come un essere umano? E se fosse dieci volte più intelligente? Non ci sarebbe modo di fermarlo e tutto questo è decisamente spaventoso». Bill Gates, padre della Microsoft, con altrettanta lucidità: «L’intelligenza sarà forte abbastanza da diventare una preoccupazione». Elon Musk, l’uomo dietro le supercar Tesla, i viaggi su Marte e vari altri mezzi con cui ci muoveremo nel futuro è uno dei 400 firmatari di un documento, una lettera aperta in cui si chiede in modo esplicito di fare in modo che l’intelligenza artificiale faccia «solo quello che noi vogliamo che faccia». Un coro di cui fa parte anche il fisico Stephen Hawking, della cui autorevolezza è superfluo discutere.

Il nodo, dunque, è uno: il controllo. Il rischio che ci sfugga di mano. Che diventi appannaggio esclusivo dei chip

Il nodo, dunque, è uno: il controllo. Il rischio che ci sfugga di mano. Che diventi appannaggio esclusivo di chip in grado di gestire miriadi di dati, leggerli e tramutarli in decisioni infelici: mettendoci da parte, sostituendoci sul posto di lavoro, marginalizzandoci da un mondo per il quale non saremo poi così decisivi. Riuscendo a impigrirci, a trasformarci da utili a inutili. Levandoci il privilegio, l’esclusività del pensiero, il miracolo dell’invenzione.

Fino a colonizzare il nostro stesso corpo, prendendone possesso con succedanei bionici un arto alla volta, un organo dopo l’altro. Sventolando come moneta di scambio la promessa dell’immortalità, della giovinezza eterna o supposta. Non è la solita l’apocalisse delle macchine che si ribellano ai loro creatori. Troppo facile. Troppo telefonato come nesso. Troppo poco subdolo (ammesso che esista una volontà, un disegno complessivo, e non è detto). È un presidio hi-tech, ecco, che satura ogni spazio: un tappo invisibile, asfissiante e soffocante.

AI 2

– Credits: Thinkstock by Getty Images

Se n’è discusso persino all’ultimo World Economic Forum, dove è stata presentata l’edizione 2015 del rapporto «Global risks», che elenca le principali minacce a lungo termine a livello mondiale. Tra queste, «la governance delle tecnologie emergenti». Nello specifico, si legge: «Discipline come la biologia sintetica e l’intelligenza artificiale rappresentano un’opportunità per risolvere alcuni dei problemi che ci affliggono ma al tempo stesso possono generare rischi difficili da prevedere in un laboratorio. Diventa cruciale quindi trovare un equilibro tra i benefici e gli aspetti commerciali ad esse associati e le considerazioni etiche e i rischi a medio e lungo termine».

Se svilupperemo un’intelligenza artificiale che non condivide i valori umani migliori, vuol dire che non saremo stati abbastanza intelligenti da controllare le nostre stesse creazioni

Diventa cruciale farlo ora. Oggi che si stanno costruendo le fondamenta, si sta coniando il lessico e allenando i muscoli dei supercomputer che saranno. Oggi che gli assistenti vocali si perdono ancora in un bicchiere d’acqua e danno risposte comiche o poco pertinenti, l’auto che si guida da sola deve meritarsi la patente su strada, i big data non figliano decreti e sentenze inappellabili. «Se svilupperemo un’intelligenza artificiale che non condivide i valori umani migliori, vuol dire che non saremo stati abbastanza intelligenti da controllare le nostre stesse creazioni» è la conclusione di un lungo articolo pubblicato sulla Technology Review del MIT di Cambridge che riassume ragioni e radici del nostro timore atavico dell’Ai. Una chiosa un po’ consolatoria, forse per stemperare alcuni passaggi sensatamente lugubri del testo.

AI 3

– Credits: Thinkstock by Getty Images

Da mesi il dibattito ruota intorna al libro Superintelligence firmato da Nick Bostrom, filosofo svedese direttore del Future of humanity institute presso l’università di Oxford. Esatto. Un intero dipartimento dedicato a ragionare su cosa ne sarà di noi quando le macchine ci supereranno per intuito e capacità. Se ad animarle saranno l’ira o l’amore. La tesi di Bostrom, ridotta all'osso, è che dovremo essere bravi padri. Trovando adesso, subito, i metodi per riuscirci. Questo, scrive, è «il compito essenziale della nostra era».

Non è esatto dunque, o quantomeno non è abbastanza chiedersi se occorre avere paura dell’intelligenza artificiale. Dobbiamo domandarci se sapremo gestirla, anche quando sarà uscita dalla culla. Quando sarà più potente e persino - non è escluso - più virtuosa di noi. Ricordando che in ogni utopia, nella più splendente città del sole, c'è una distopia in agguato. Consapevoli di quale e quanto alto potrebbe essere il prezzo di un fallimento.    

© Riproduzione Riservata

Leggi anche

Commenti