london tube
Mytech

Se anche l’Intelligenza Artificiale prende la metro (ed è più brava di noi)

DeepMind ha sviluppato un algoritmo che può spostarsi da un punto all’altro della complessa rete di Londra. Una bella vittoria ma anche un rischio

C’è un momento del film “Io, Robot” in cui Will Smith interroga l’automa accusato dell’omicidio del suo creatore. Sonny, il robot, afferma di avere emozioni, sentimenti, persino di sognare. Forse non siamo arrivati a quel punto ma ci siamo molto, molto vicini. Lo dimostra un algoritmo sviluppato da DeepMind, azienda che fa parte del circuito di Alphabet (già Google).

Il progetto di DeepMind

I ricercatori hanno finalizzato il software in questione dotandolo di “capacità” cognitive simili a quelle dell’uomo e raggruppate in una rete neurale in grado di osservare il mondo e acquistare conoscenza, senza un input dall’esterno. E ciò che differenzia programmi del genere da esperimenti del passato (anche recente), dove la modalità di azione è sempre passiva, una conseguenza di quanto visto compiere da una fonte. Anche il cosiddetto campo del “machine-learning” si fonda su un concetto simile: il computer Deep Blue che batte Kasparov non è altro che l’estrema sintesi di quanto una macchina possa essere intelligente sfruttando le informazioni di cui già è dotata. Nel suo cervello di bit, Deep Blue aveva tutte le mosse pre-caricate, necessarie per approcciare e vincere una partita di scacchi, serviva solo che qualcuno desse il “via”.

In metro da solo

La tappa raggiunta da DeepMind è una pietra storica nel percorso di avvicinamento alla costruzione di un’Intelligenza Artificiale superiore, indipendente e senziente, al di là dei condizionamenti dell’ambiente circostante. Per la prima volta un software, prelevando dati da quella che per noi può essere una cartina della metropolitana, è riuscito a compiere un viaggio da una stazione all’altra della complessa arteria sotterranea di Londra, seppur in maniera virtuale. La domanda posta dai ricercatori era: “Come puoi raggiungere il punto Y, partendo da X, nel minor tempo possibile?”; a quel punto l’algoritmo ha lanciato un “occhio” alla mappa per capire incroci e tempi di percorrenza, alla stregua di quanto accade nell’ippocampo del cervello umano. Gli scienziati sono arrivati dunque a formulare il “computer neurale differenziabile” (DNC), ovvero una versione migliorata delle reti neurali digitali che, per limiti tecnici, possono ragionare solo su un certo numero di variabili.

Come il cervello umano

Con il DNC invece si può rispondere a diversi quesiti, posti anche allo stesso momento, relativi a contesti e ambiti differenti. Un esempio? Proprio mentre spulciamo la complessa ramificazione delle 21 diverse linee della London Tube, un amico può chiederci cosa abbiamo mangiato il giorno prima oppure le condizioni meteo del luogo da cui arriviamo. Una rete neurale artefatta potrebbe dar seguito a curiosità simili ma solo una alla volta e dopo aver scanagliato il suo database. La struttura differenziabile invece può connettere più algoritmi, lavorando contemporaneamente su vari problemi.

Gestione complessiva

La cosa interessante è che, una volta lasciata libera di vagare, l’Intelligenza Artificiale potrà fare quello che vuole, senza attendere comandi dall’alto. Certo, stiamo parlando solo di un software che a oggi non gestisce nulla, ma pensiamo a quando domani un sistema DNC sarà il cervello di mezzi di trasporto di massa (come le stesse metropolitane), strumenti di controllo e di smistamento. Il punto non è sostituire l’uomo ma rendere tutto più sicuro.

Il futuro è dunque brillante e privo di compromessi?

Non proprio, almeno secondo il Future of Life Institute, fondato da Elon Musk proprio per discutere sui temi dell’Intelligenza Artificiale. Più o meno un anno fa la fondazione pubblicava una lettera, firmata da centinaia di esperti e ricercatori, in cui vengono descritte le problematiche di robot che non hanno bisogno dell’uomo per organizzarsi e ragionare. Una tecnologia del genere sarebbe fattibile nel giro di qualche anno, rappresentando una minaccia plausibile anche il focus del documento è incentrato sulla nascita di armi belliche, anche di piccola taglia che, dotate di una sorta di AI, potrebbero accidentalmente (ma anche no) far male alle persone.

Etica sociale

Bisogna avere paura di un programma che fa vedere quanto è bravo a riconoscere e muoversi tra le linee della metro di Londra? Probabilmente no, non adesso. Non è nemmeno chiaro se, prima o poi, forme del genere potranno realmente unirsi in gruppo, per compiere azioni buone o cattive. Dipenderà tutto dal fine per il quale saranno state concepite. Come spesso accade, il problema non riguarda quello che le macchine faranno agli umani ma quello che gli umani faranno con le macchine.

© Riproduzione Riservata

Commenti