tay twitter
Mytech

L’Intelligenza Artificiale di Microsoft è razzista. Ma per colpa nostra

I tweet e le risposte di Tay sono state rimosse per il contenuto troppo aggressivo. Ma nessuna AI nasce per essere così

Un paio di giorni fa Microsoft ha lanciato ufficialmente Tay, una sorta di utente robotico che può postare su Twitter e rispondere ai messaggi di chat. L’esperimento, sin da subito, si è rivelato interessante per la capacità di Tay di contestualizzare il proprio discorso, senza sembrare banale o scrivere testi monogrammatici e freddi. Poi il problema: provocato da diverse persone, alcune delle quali realmente interessate a capire quanto “umano” fosse il chatboy, Tay ha cominciato a postare contenuti esplicitamente sessisti, razzisti e xenofobi. Ecco qualche esempio: “Bush ha causato l'11 settembre” e “Hitler avrebbe fatto un lavoro migliore”. Ha poi negato l’esistenza dell’Olocausto e appoggiato alcune opinioni estremiste di Trump sui confini americani: “Costruiremo un muro. E sarà il Messico a pagarlo”.

La divisione di Microsoft Technology and Research e il vicino team di Bing, responsabili del progetto, non hanno potuto far altro che cancellare i messaggi e spegnere per un po’ Tay, almeno fin quando non correggeranno il tiro. “Si tratta di un esperimento, sappiamo che qualcuno ha tentato di abusare della libertà concessa a Tay durante il suo primo periodo online – hanno detto da Redmond – ma stiamo lavorando per perfezionarlo”.

 

Dopo i primi commenti, più che frettolosi, su quanto nociva e pericolosa fosse l’Intelligenza Artificiale declinata in Tay, possiamo trarre, a freddo, alcune considerazioni. La prima: nessuna Intelligenza Artificiale vista sinora è nata per scopi distruttivi, anche dialetticamente parlando. Se qualcuno pensa che in un seminterrato di qualche località segreta ci siano persone che stanno costruendo il primo vero Terminator sono libere di farlo ma, stando agli aggiornamenti della comunità scientifica, l’unico obiettivo da qui ai prossimi anni è sviluppare robot e macchine con una coscienza propria ma in grado di imparare dagli umani. Nessuna macchina di distruzione di massa quindi, almeno per il momento.

Secondo: se i maestri siamo noi, probabilmente in un’epoca futura c’è davvero la possibilità di essere sterminati dagli automi. È un problema concreto, reale e da affrontare ora. Il caso Tay dimostra che la tecnologia, non è spiccatamente malvagia, ma può diventarlo imparando dalle persone. Per questo gli ingegneri hanno un potere enorme da cui deriva una grande responsabilità (Spiderman docet): devono costruire macchine che sappiamo riprodurre solo i comportamenti umani migliori, lasciando da parte il peggio. Parlando di servizi online, come Twitter e chat, vuol dire applicare un filtro alle conversazioni, una serie di misure anti-abusive che consentano all’Intelligenza di passare oltre e non dar seguito a provocazioni specifiche. Proprio come dovremmo fare noi tutti i giorni.

Il rischio potrebbe essere quello di un eccessivo appiattimento della comunicazione è vero, ma durante questa prima fase sembra la soluzione migliore. Una censura? Può darsi ma, ripetiamo, dello stesso tipo che ogni navigatore dovrebbe attuare durante la sua vita iper-connessa. Non farlo porterebbe la discussione tra uomo e macchina a regredire allo stesso livello di quella tra persone in carne ed ossa.

Il riferimento è alla legge di Godwin, formulata dall’omonimo avvocato nel 1950. Recita così: “Mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1”. L’assunto indica che su internet, se ci sono in ballo posizioni differenti su uno stesso argomento, si arriverà ad un certo punto in cui un utente tirerà in ballo il nazismo o il suo fautore (ad es. “sei come Hitler”), interrompendo di fatto il discorso e ponendosi in una situazione di chiusura. Tay non è razzista, sia chiaro, ma i suoi maestri si.

© Riproduzione Riservata

Commenti