YouTube
Social

YouTube, algoritmi e pensiero umano per combattere i video offensivi

Contenuti violenti, razzisti e sessualmente espliciti nel mirino della piattaforma di Google, che li nasconderà grazie al supporto dell’uomo

Come già accaduto su Facebook, anche YouTube riscopre il valore del revisore umano per migliorare la sua piattaforma. Nell’ottica di ridurre sempre più la visione di video offensivi, soprattutto da parte dei minori, la compagnia del gruppo Alphabet, ha reso ufficiali gli sforzi che da qui al 2018 la porteranno a investire su nuovi dipendenti come forma di implementazione del controllo sulla diffusione, normalmente ad opera degli algoritmi.

Non solo bit

Il problema è che i software di monitoraggio normalmente utilizzati dai social network per gestire la produzione degli utenti non bastano a rendere perfetti i flussi di aggiornamento e le bacheche, semplicemente perché all’interno del linguaggio umano esistono sfumature che possono essere colte diversamente dalle persone.

Come evitare che un filmato venga mostrato a un iscritto qualunque e non a un pubblico minore di 16 o 18 anni? Semplice, con l’intervento di un tipo di intelligenza artificiale di cui fidarsi, quella dell’uomo. “Sin da giugno abbiamo rimosso, manualmente, circa 2 milioni di video, tra cui molti espressamente estremisti e lesivi del senso comune. Addestriamo la nostra tecnologia di machine learning per identificarli meglio in maniera automatica ma la forza è nell’integrazione” - ha detto di recente l’amministratore delegato di YouTube.

Stop a fake news e propaganda estremista

Il senso è che gli algoritmi rimangono essenziali ma non esclusivi nelle procedure di controllo del servizio. Il giudizio umano è ancora fondamentale per prendere alcune decisioni che non possono essere una scelta dicotomica tra nero o bianco ma vanno contestualizzate e comprese nel profondo.

Il modo in cui YouTube ha messo insieme bit e pensiero per affinare i filtri di visualizzazione è più o meno lo stesso che Facebook e Twitter usano da mesi con lo scopo di eliminare, o almeno penalizzare, le fake news e i post di propaganda islamista.

Machine learning + cervello umano

Da un lato l’apprendimento automatico, dall’altro il supporto dei collaboratori. Il machine learning, quale branchia dell’informatica, parte dal concetto che un software, quando organizzato in una rete avanzata, può imparare dall’ambiente circostante per scegliere tra due o più possibilità in maniera indipendente. Quindi, in teoria, l’algoritmo di YouTube potrebbe decidere da solo cosa mostrare e a chi, a seconda del tipo di utente.

L’organizzazione del contesto

Ma sarebbe tutto troppo facile. Questo tipo di apprendimento tecnologico presume l’esistenza di categorie dentro le quali l’AI deve muoversi; lasciando ogni cosa invariata, anche a distanza di anni, non permette al programma di crescere e svilupparsi, cioè di riconoscere i video offensivi. L’uomo deve quindi donare, periodicamente, nuove basi concettuali agli algoritmi, lasciando che gli stessi si organizzino per creare nuove inferenze di senso, cercando ad esempio uno stesso contenuto lesivo su varie piattaforme, per capire se è presente altrove oltre che su YouTube.

Etica reale, etica digitale

La collaborazione tra il mondo fisico e quello virtuale è necessaria per umanizzare i siti e le app che usiamo di più, togliendo di mezzo l’idea che su internet sia tutto possibile e fuori controllo. Non si tratta di mettere dei paletti alla libertà di espressione, peraltro molto discutibile nel caso di certi filmati di YouTube tranquillamente censurabili, ma di distinguere ciò che è eticamente accettabile nella produzione digitale contemporanea da tutto il resto, come forma di educazione e formazione, concetti che se esistono nella società organica dovrebbero godere della stessa importanza anche online.

Per saperne di più

© Riproduzione Riservata

Commenti