Facebook divieto
Social

Facebook: contro il terrorismo (e la pedofilia) si può fare di più

Il social network sotto accusa: le maglie del suo sistema di vigilanza non fanno abbastanza selezione

Facebook non è più (solo) un libro dell’amicizia. E forse nemmeno un social network. È il microcosmo più rilevante del Web, un subcontinente nel quale convivono persone di tutti i tipi e di tutte le etnie. Anche terroristi e pedofili.

A lanciare l’allarme è questa volta il Times, con un’inchiesta che mette a nudo le inadempienze della società di Mark Zuckerberg di fronte ai contenuti inopportuni che spesso e volentieri transitano sulla piattaforma. Facebook non ha rimosso materiale pedopornografico e contenuti che inneggiano all’Isis, anche a fronte di ripetute segnalazioni, spiega l’autorevole testata britannica, sottolineando le conseguenze penali che tale atteggiamento potrebbe comportare, almeno in Gran Bretagna.

Maglie troppo larghe
È la riprova del fatto che il sistema di protezione del social network, quello che in buona sostanza dovrebbe essere la polizia di Facebook, non è più affidabile. Troppi utenti (1,86 miliardi, secondo le ultime stime), troppe interazioni da gestire: le maglie della complessa rete di vigilanza costruita da Menlo Park in questi anni non sono evidentemente così selettive.

Ad aggravare il problema la presa di coscienza da parte di alcune aziende inserzioniste sui rischi che tale atteggiamento puà comportare a livello di reputazione. “Occorre monitorare costantemente la pubblicità, capire su quali profili appare", spiega Noelle Clemente, Vice President, S-3 Public Affairs, società di PR che gestisce la comunicazione di molti enti governativi.

Ancora più duro il commento di Ben Foster, SVP Global Strategy and Innovation at Ketchum, che definisce il comportamento di FacebooK "imperdonabile", trattandosi di contenuti che devono essere obbligatoriamente rimossi.

Cosa farà Facebook
Per provare ad arginare il problema, Facebook ha recentemente annunciato un giro di vite contro il cosiddetto revenge porn, la pratica che porta a condividere foto personali di terzi (spesso intime) senza il loro esplicito consenso.

LEGGI ANCHE: Revenge porn, cos'è e come contrastarlo

Da sottolineare, in quest’ottica, l’utilizzo di un nuovo sistema di intelligenza artificiale sviluppato ad hoc proprio per riconoscere le foto “trafugate” dagli account dei legittimi proprietari.

Un problema che va affrontato di petto
L’impressione, al di là di tutto, è che Menlo Park voglia evitare per quanto possibile di issarsi a giudice supremo su foto e altro materiale “sospetto”, lasciando agli utenti l’onere di segnalarne la presenza e in alcuni casi di esprimersi sulla rimozione.

Presto o tardi, però, Zuckerberg sarà costretto a uscire da questa impasse: se è vero che nel mondo Web il confine fra filtraggio e censura è sempre molto sottile, d’altro canto non si può pensare che il governo di una nazione de facto che conta ormai quasi 2 miliardi di abitanti sia affidato alle indicazioni e al (buon) senso civico dei suoi abitanti. Né tanto meno alla mano degli algoritmi. 

Se l'intelligenza artificiale considera una delle foto più commoventi della storia dei reportage di guerra più pericolosa di un contenuto pedopornografico, significa che c'è qualcosa che non va.

© Riproduzione Riservata

Leggi anche

Fake News, perché non serve una legge

Al Senato un ddl bipartisan contro le "bufale maligne" sul web: più facile da elogiare che da far funzionare. E pieno di pericoli, anche di censura, e di obblighi per i blogger

Commenti