Mytech

Auto che si guida da sola, come insegnare la sicurezza ai robot

Le vetture autonome usano la matematica, non l’istinto. La sfida è trovare regole comuni ed efficaci perché sappiano davvero rimpiazzarci al volante

Auto-1

Marco Morello

-

Da una parte c’è l’istinto umano, la capacità di reagire in modo efficace alle situazioni improvvise che si presentano al volante: frenare se un pedone si lancia in mezzo alla strada, rallentare se un altro veicolo sta invadendo la corsia di sorpasso, accelerare quanto basta per liberare un incrocio. Dall’altra c’è l’auto che si guida da sola che ha un disperato bisogno di regole scientifiche, di una matematica delle reazioni, chiamiamola così, per affrontare in modo corretto l’imprevisto. Sembra una grande ovvietà, eppure la macchina robot di Uber che ha riconosciuto un pedone e non si è comunque fermata, dimostra che principi e pratica divergono. Che di chilometri da fare, ce ne sono tantissimi.

Standard cercasi   

A sollevare il tema da una prospettiva interessante è un articolo apparso sul magazine The Economist, dal titolo: «Come si può definire “una guida sicura” in termini che una macchina possa capire?». La risposta della rivista, non sorprendente, è, di nuovo, che non è affatto semplice. Sin dalle premesse. Innanzitutto perché, come gli automobilisti mantengono un loro stile personale, chi più prudente, chi può aggressivo, anche i costruttori e le società tecnologiche attive nel settore, stanno imboccando percorsi diversi. Ognuno ubbidisce a una sua visione del mondo, a un’interpretazione più o meno stringente di quel quesito, dettando regole difformi per i loro veicoli. Posto che l’efficacia, il minimizzare gli incidenti, è il pilastro comune, sembra palese che quel produttore o quella società di ride sharing stiano infilando mosse di sostanza difformi per centrare l’obiettivo.

Una Babele all’orizzonte  

Sarà come se un americano, un francese e un tedesco – le nazionalità non sono state scelte a caso – dovranno dividere il medesimo territorio, la strada, e a causa del linguaggio d’origine difforme, finiranno presto o tardi per nascere delle incomprensioni. Detto fuori metafora, degli incidenti. La soluzione, banale sulla carta, molto meno sulla carreggiata, è trovare un accordo a monte per programmare con il medesimo schema mentale le quattro ruote del futuro, affinché viaggino all’unisono. Così, quando l’elemento umano sarà del tutto sottratto dall’equazione, quando la guida sarà solo autonoma, non solo i robot si capiranno a meraviglia. Sapranno anticipare le possibili reazioni di fronte a ogni reazione. Logica o meno logica.

Auto-2

– Credits: iStock. by Getty Images

Dalla teoria alla pratica

Lo stanno proponendo in tanti: Mobileye, tra i pionieri dei meccanismi per consentire alle vetture di percepire il mondo intorno a loro, società acquisita da Intel che sta puntando molto sulle prospettive dell’intelligenza artificiale, ha creato un prontuario di norme che copre tutti e 37 gli scenari di un possibile incidente contemplati dalla Nhtsa, l’ente regolatore della sicurezza automobilistica americana. Una «grundnorm», un cappello di regole fondamentali, che contiene un altro presupposto interessante: se la macchina si è conformata a quelle norme nel suo atteggiamento e il suo errore dipende da un difetto hardware, la responsabilità per un sinistro non è del programmatore del veicolo, tantomeno del proprietario, ma di chi ha fornito l’equipaggiamento tecnologico. Nel caso specifico, telecamere e dintorni. Come dire, disegniamo dei confini per trovare anche a chi addebitare la colpa di quello che non va come dovrebbe. Uno slancio suggestivo.

Cambio di prospettiva

Voyage, compagnia concorrente di Mobileye, non ho solo ha proposto il suo set di regole, ma ha reso tutto open source, a disposizione di chiunque voglia consultare e migliorare quel materiale. Un tentativo per ampliare il dibattito e coinvolgere altri attori per, scrive The Economist, «stimolare una conversazione dinamica che sarà in futuro fondamentale a livello tecnico». Già. Il futuro. Senza ancoraggi a una data specifica, è una parola che torna troppo spesso quando si ragiona di vetture autonome. E anche alla luce di questi nuovi ostacoli, di queste barriere logiche nel definire il comportamento dei computer, il traguardo pare allontanarsi. O forse no. Proprio perché un incidente come quello capitato a Uber fa male a tutta l’industria, fomenta la diffidenza da parte dei potenziali utenti, le case automobilistiche potrebbero sentirsi stimolate a mettere da parte le rivalità storiche. A compattarsi, in vista di un obiettivo comune: prima ancora di consacrare la strada all’auto autonoma, matematizzare l’istinto di guidare in totale sicurezza.

Per saperne di più


© Riproduzione Riservata

Leggi anche

Mobilità, viaggio sulle strade connesse del futuro

La prova virtuale al Tokyo Motor Show della comunicazione tra vetture, un social network diffuso e su ruote

Undici sfumature di Uber

Trasporti in barca ed elicottero, su moto e biciclette. Le alternative low cost e per ricchi prenotabili, oltre alle auto, sulla celebre app

Federico Faggin: "I robot non avranno mai una coscienza"

Incontro con l'inventore del microprocessore, che spiega perché le macchine non potranno provare emozioni, né sottometterci

Commenti