Mytech

Robot: e adesso...vogliamo anche decidere

Gli esperti
 di intelligenza artificiale dicono che presto gli androidi saranno capaci di pensare e di giudicarci. Ma forse non sarà un bel giorno: un'inchiesta su Panorama

Robot

– Credits: Simon Mills/Corbis

di Riccardo Meggiato

Nel 1968, lo scrittore Philip K. Dick nel suo Do androids dream of electric sheep? (che ispirò Blade Runner) ipotizzava un futuro lontano, nel quale la linea di confine tra umani e androidi, robot mossi da intelligenza artificiale, era labile. Così labile che servivano cacciatori specializzati pronti a riconoscere e catturare i finti umani: esseri sintetici capaci di relazionarsi, osservarci, studiarci e confondersi tra la folla. Nel romanzo, quel futuro cade nell’anno di grazia 1992. Oggi, vent’anni dopo, Dick sarebbe probabilmente deluso nel vedere che gli androidi pensanti e autocoscienti, come li intendeva lui, devono ancora arrivare. Ma quanto manca?

Non moltissimo, secondo alcuni ricercatori. Al momento, ci sono robot che assistono anziani e indigenti, che giocano a pallone, si arrampicano su percorsi impossibili, e altri progettati per scopi militari, ma nessuno riesce a farci dubitare di essere di fronte a un umano o a un ammasso di circuiti elettronici. Proprio in questi giorni si celebra il 100° anniversario nella nascita di Alan Turing, padre dell’intelligenza artificiale . Turing, con il suo omonimo test, stabilì che una macchina, per essere considerata pensante, deve essere in grado di sostenere un colloquio con un umano senza che questo sia in grado di riconoscere la sua natura sintetica. Per un robot, non si tratta solo di rispondere a domande, ma anche di capire chi gli sta di fronte, farsene un’opinione e adattare la conversazione. Ancora oggi il test di Turing deve essere superato.

I ricercatori che, nel mondo, si occupano di robot, androidi, automi e computer sono a caccia del Sacro Graal dell’intelligenza artificiale: un software che simuli in modo credibile il comportamento, e il ragionamento, umano. Perché parlare di robot è come parlare di corpo, ma i pensieri stanno nella mente, in questo caso un programma per computer, né più né meno. Alcuni sensori, variabili per tipo e numero, inviano dati sull’ambiente circostante al computer interno, dove il software dell’intelligenza artificiale li elabora, prende decisioni e aziona le parti mobili del droide. Motori, braccia, gambe, teste, eliche o, addirittura, un volto con pelle artificiale che sorride o si dispera.

«Non ci sono limiti a ciò che è possibile fare nel ramo della robotica e dell’intelligenza artificiale: abbiamo davanti l’infinito» dice Alberto Broggi, professore nel dipartimento di ingegneria dell’informazione all’Università di Parma.

Broggi è famoso nel mondo per essere a capo di Vislab , un team che da anni progetta e realizza automobili automatiche: corrono, sterzano, sorpassano (e rispettano il codice stradale) senza intervento umano: un buon esempio da cui partire, a proposito di robot. Un sistema di sensori (quattro laser e nove telecamere) rileva ostacoli, veicoli e linee stradali, passando i dati al computer centrale. Questo, grazie al software messo a punto al Vislab, trasmette i comandi ai componenti elettronici, collegati a freni, cambio, acceleratore, sterzo. Un perfetto connubio tra intelligenza artificiale e sistema robotico.

Siamo dunque davanti a un sistema artificiale in grado di pensare? «A suo modo sì, ma nel nostro caso si tratta dell’analisi di segnali ricevuti dai sensori dislocati intorno all’autoveicolo» continua Broggi. «Sono sempre stato critico con chi parla con leggerezza di intelligenza artificiale, ma se non mi date scadenze dico che sì, i robot saranno in grado di capirci davvero, farsi un’opinione su di noi e comportarsi di conseguenza. Del resto lo slogan di una vecchia azienda di computer, la Thinking Machine, dichiarava: “We are building a machine that will be proud of us”, stiamo costruendo una macchina che sarà orgogliosa di noi».

E, una volta acquisita la capacità di giudicarci, come ci vedranno i robot del futuro? Broggi ridacchia, poi si fa pensoso: «Come amici da aiutare. Non credo arriveranno a un livello da film di fantascienza, pronti a farci la guerra, dopotutto saremo sempre noi a programmarli. Altrimenti, sarebbero guai». Dalla chiacchierata con Broggi emerge che la qualità del pensiero artificiale dipende anche da quella dei segnali ricevuti dall’esterno. Il discorso, quindi, non è solo capire come i robot ci percepiranno in senso intellettivo, ma anche in senso pratico. Come ci vede la telecamera innestata nell’occhio di un robot? Come ci percepisce il sensore termico di un droide?

È il regista e ricercatore norvegese Timo Arnall, col suo video Robot readable world, realizzato quest’anno, a tentare di spiegare l’arcano, come i robot vedono il nostro mondo.

«Per realizzare questo cortometraggio ho scavato nei meandri del web, raccogliendo filmati di ricercatori di computervision di tutto il mondo. Montandoli assieme, sono arrivato a qualcosa di completamente nuovo, mai visto finora». Il corto parte mostrando il punto di vista di un robot (dotato di telecamera) che riconosce mezzi e persone in movimento, individua il senso di marcia dei veicoli, ne stima lo spazio, le accelerazioni, i rischi di collisione. Che riconosce e interpreta i cartelli stradali, traccia i percorsi di ciascun individuo nel mezzo di una folla, registra e analizza espressioni facciali. Una visione di osservatori pazienti, immobili e passivi, assoggettati al volere dei loro creatori. O, meglio, di un’intelligenza artificiale che per adesso non è in grado di andare oltre la loro volontà. Manca l’interpretazione completamente autonoma dei segnali ricevuti. «Al momento» continua Arnall «l’interpretazione del mondo umano da parte di una macchina è un argomento difficilmente spiegabile anche dai migliori ricercatori. Ma arriverà un giorno, non lontano, nel quale uomini e robot interagiranno liberamente: ci faranno passare anche momenti di frustrazione e tristezza, così come accade con i neonati o con gli animali domestici».

Uno spunto che ci porta a scoprire che buona parte del futuro dell’intelligenza artificiale, e dunque dei ragionamenti robotici, passa per il mondo dei videogiochi. Il curriculum dell’inglese Demis Hassabis lo prova: oggi 35enne, a 13 anni raggiunge il grado di master negli scacchi e, a 17 anni, inizia a programmare l’intelligenza artificiale di video- giochi di successo, come Syndicate, Theme Hospital e Black & White. Nel 2005 torna alla sua vecchia passione: le neuroscienze cognitive. Pubblica studi di livello mondiale e, quest’anno, partorisce «Is the brain a good model for machine intelligence?» (su Nature). «Qual è la situazione attuale dell’intelligenza robotica? A dispetto di progressi interessanti, mancano sistemi d’intelligenza artificiale capaci di fare tesoro di un problema risolto, per risolverne uno nuovo» risponde a Panorama. «Ma stiamo facendo progressi nel comprendere come il cervello si comporta in questo caso, e ciò porterà a grossi sviluppi nel settore».

Black & White, gioco del 2001, già mostrava un’intelligenza artificiale che interpretava le azioni del giocatore e tendeva a diventare malvagia o benevola. Hassabis racconta che sfruttò una tecnica chiamata Reinforcement learning: il giocatore era libero di premiare o castigare la creatura a seconda delle azioni che compiva, fossero moralmente giuste o sbagliate. L’intelligenza artificiale messa a punto da Hassa- bis, a questo punto, inter- pretava bonus e malus e rendeva l’essere virtuale più buono o più cattivo. Un trucco, insomma, nel quale il videogioco «gira» le azioni del giocatore alla sua stessa creatura, dandole un’apparente capacità di farsi un’opinione del suo inventore.

Parlando con Cristiano Castelfranchi, professore di scienze cognitive dell’Università di Siena e direttore dell’Istituto di scienze e tecnologie della cognizione al Cnr, scopriamo che anche l’uomo bara allo stesso modo. E lo fa pesantemente: «Ci rapportiamo con gli altri sfruttando modelli sociali prestabiliti. Riproducendoli uno per uno, tramite software, potremmo parlare di una coscienza robotica, capace di farsi un’idea della persona con cui il droide interagisce. E per arrivare a questo non manca molto». La pensa così anche Giorgio Metta del di- partimento di robotics, brain & cognitive sciences all’Università di Genova. Sostiene che una delle prime cose che l’uomo impara relazionandosi con i propri simili è creare modelli predefiniti. Se incontriamo una persona e, in base ai nostri «sensori», capiamo che è irascibile (un modello preciso, nella nostra memoria), il cervello comanda di moderare il linguaggio. Sensori, modelli, cervello sono i tre elementi ricorrenti in questa caccia al droide pensante. In un futuro prossimo ci regaleranno robot di cui sarebbe orgoglioso anche Philip Dick.

Conclude Metta: «Il robot imparerà a vederci bene, costruirà un modello di noi e sarà in grado di distinguerci dalle altre persone, e comportarsi di conseguenza». Insomma, nessuna visione romantica o diversa del genere umano. Il robot ci vedrà come siamo, individualmente, con i nostri difetti, le nostre paure e le nostre ambizioni. E magari qualcuno, a quel punto, chiederà di spegnergli il cervello artificiale. Clic.

© Riproduzione Riservata

Commenti