ibm watson
Mytech

Se la politica fosse nelle mani dei robot

Prendiamo tante decisioni a seguito di analisi informatiche. Immettere codici etici all’interno delle macchine è il passo successivo a un mondo migliore

Gli estimatori della serie Black Mirror in onda su Netflix ricorderanno Waldo, episodio della seconda stagione in cui un irriverente pupazzo conquista migliaia di voti durante la corsa al governo inglese. Certo non si tratta di un robot ma della consapevolezza che con il web chiunque può diventare eleggibile, persino un cartone animato pilotato da un teatrante attraverso la tecnologia motion capture.

Ma cerchiamo di andare oltre: cosa ne sarebbe della nostra società se a governarci fossero le macchine? Non parliamo di un’era in cui l’uomo è schiavo di Terminator ma di una rappresentazione idealmente più vicina, in cui le decisioni della politica vengono prese attraverso algoritmi, complessi calcoli statistici e modelli matematici ricorrenti. Pensateci bene: si potrebbe ottenere un ottimo paretiano con un grado di errore minimo; scontentando una percentuale minore di cittadini, sicuramente più piccola di chi si lamenta oggi dei politici in carne e ossa.

Oggi abbiamo robot che fanno praticamente di tutto: lavano, stirano, cucinano, presto guideranno e ci diranno cosa indossare prima di uscire di casa. Le basi ci sono già, arrivano dal campione di scacchi Deep Blue fino a IBM Watson, passando per le reti semantiche di Google e l’intelligenza artificiale di Microsoft (e di tante altre, persino Facebook). Nessuna sorpresa dunque, si tratta solo di applicare gli stessi sistemi a input diversi. Quali? La ripresa dell’economia, il surriscaldamento globale, l’emarginazione sociale, il debito pubblico. Potrebbe essere tutto più semplice del previsto.

Così almeno la pensa il portale Phys.org, che in tempi non sospetti si chiedeva se fosse davvero possibile sostituire l’homo politicus con una controparte più razionale e concreta, fatta di bulloni e viti. Il più grande dilemma nell’uso di un software per decidere in che modo agire non riguarda tanto aspetti quotidiani della vita civile, come il costruire nuovi supermercati o case popolari, quanto scelte prettamente morali, che non dipendono solo dai numeri, tra cui l’eutanasia, i matrimoni gay, la gestione degli enormi sbarchi di migranti. Come si comporterebbe un programma dinanzi a tali quesiti?

Il fatto è che continuiamo a pensare che la nostra abilità nell’esprimere giudizi sia indipendente dalle macchine, anzi rappresenti ciò che ci eleva nei confronti di quelle. Ma cosa succederebbe se potessimo immettere codici etici decisionali nei computer così da spingerli a scegliere alternative in base a linee guida predeterminate? Il rispetto della vita, la famiglia come valore, la libertà come meta, diventerebbero framework contestuali entro cui prendere posizione, per consigliare l’umanità. Una forza superiore sulle nostre teste? No, una AI infallibile (si spera) invece di persone suscettibili a cambiamenti troppo repentini.

Diversi studi dimostrano che la politica moderna sfrutti già abbastanza l’automazione informatica a scopo dialettico. In che modo? Frasi fatte, ripetizioni, periodi, sembrano ripetersi costantemente, anche a distanza di anni, rendendo molto difficile (quasi impossibile) comprendere cosa sia cambiato nel panorama politico degli ultimi decenni, almeno nel modo di proporre le proprie idee alla massa. Se il tutto si riduce a qualche comparsa in TV, viene da chiedere cosa potremmo mai perdere a seguito di un cambio del genere, con la comprensione che di anima ce n’è ben poca da entrambe le parti.

L’avvento di una politica deterministica non taglierebbe l’uomo fuori dai giochi. Servirà sempre una figura di raccordo, il tecnico addetto ad aggiornare l’eticità della piattaforma, a controllarne la validità e la fattibilità (si aprirebbe poi il discorso degli hacker dei cervelli in silicio); un ruolo forse marginale, inferiore a quello attuale ma con un sacco di responsabilità e pesi sulla coscienza in meno. Se non quello di aver ceduto il passo alle macchine.

© Riproduzione Riservata

Commenti