Internet

Google e Microsoft sbarrano la strada ai pedofili

Via i risultati sospetti dai motori di ricerca e, sponda Redmond, anche un meccanismo per identificare le immagini di abusi

Il bello è che su internet si trova di tutto in modo semplice e veloce. Basta digitare un paio di termini su un motore di ricerca e si ha accesso a una miniera di risposte pertinenti. Il brutto, il rovescio della medaglia, è che quegli stessi motori sono talmente potenti e capillari da spalancare ogni porta. Incluse quelle che, forse, sarebbe opportuno mantenere chiuse a doppia mandata. Inclusa, per esempio, la pedofilia, che pur muovendosi nei sotterranei della rete, nel lato nascosto e non tracciabile del web, non fatica a volte a emergere in superficie e insinuarsi tra le strade in assoluto più frequentate: i risultati di Google e Bing.

La novità è che i colossi di Mountain View e di Redmond, in passato restii o comunque molto dubbiosi di fronte a ogni tentativo di filtro, a ogni censura preventiva, hanno deciso di modificare la loro rotta. Ubbidendo alla logica, sottintesa, che la protezione dei più deboli venga prima della pura e libera espressione del pensiero. Che fa un passo indietro, c’è poco da speculare sul punto, quando si commette il reato di pubblicare e dunque diffondere, distribuire immagini o filmati di abusi su minori.

Google, per bocca del grande boss Eric Schmidt, ha annunciato di avere imposto una sterilizzata ai risultati del suo motore. Se prima 100 mila richieste (parole o frasi) potevano portare a contenuti di tipo pedopornografico, ora condurranno a un vicolo cieco. A un nulla di fatto. Allo scopo è stata messa in piedi una squadra di 200 persone e il cambiamento non sarà limitato a chi digita in inglese: coinvolgerà 150 lingue, quindi avrà un impatto globale. Il team, l’intervento umano, è necessario per un motivo molto semplice: un algoritmo, per quanto complesso, può solo trovare nomi di file sospetti ma non indagare nel merito delle immagini, separare quelle innocue da quelle che innocue non sono. Ecco perché la scrematura, almeno di elementi multimediali, non può essere affidata a un robot. Che, peraltro, potrebbe cassare ingiustamente elementi innocui dando vita a una censura, seppure non voluta.

Non solo: Google intende mostrare un avviso, un avvertimento, a chi bussa al motore sperando di trovare questo tipo di contenuti. «Questi alert» ha detto lo stesso Schmidt «dicono con chiarezza che commettere abusi sui bambini è illegale e danno informazioni sulle organizzazioni per ricevere aiuto». Insomma, una deterrenza corretta con un’ottica di servizio. Di sicuro una presa di posizione esplicita da parte di Big G: non una semplice e banale dichiarazione d’intenti, ma un meccanismo che scatta, che si attiva in seguito a una precisa e consapevole azione dell’utente. La speranza, magari ingenua, è che essere messi all'indice dal motore di ricerca possa sortire un qualche effetto.

Stessa aria in casa Microsoft, che già da quest’estate è al lavoro per portare i risultati puliti (o meglio, ripuliti) sul suo Bing. In effetti la società di Redmond è molto attiva sull’argomento e non per un tentativo di emulazione della decisione annunciata da Google: già a marzo 2012 aveva presentato in giro per il mondo, fornendolo anche alla Polizia Postale italiana, il suo PhotoDNA: una tecnologia di corrispondenza delle immagini che assegna una sorta di impronta digitale univoca a ogni foto e permette così di trovare quelle identiche in modo immediato. Significa che quando qualcuno s’imbatte in uno scatto con abusi su minori, può cercare e rimuovere le tante copie diffuse in siti web, forum e affini. Risalendo nel frattempo a individui e siti internet sospetti.

Certo, la mossa di Google e Microsoft non potrà eliminare un fenomeno che non smette di crescere e radicarsi nelle zone franche, nelle sacche di anonimato del web, ma almeno renderà meno probabile trovare la pedopornografia come primo risultato dei motori di ricerca. Che saranno meno liberi, ma, almeno, un tantino più puliti.    

© Riproduzione Riservata

Leggi anche

Commenti