Facebook-notifiche
iStock. by Getty Images
Tecnologia

Facebook prova l'intelligenza artificiale per prevenire i suicidi

Il social network testa nuovi strumenti di prevenzione. Fra questi anche un sistema di AI che promette di scovare sul nascere i post con intenzioni dubbie

Aggiornato il 02/03/2017

In un continente digitale che conta quasi 2 miliardi di iscritti puoi incontrare persone di ogni genere. Anche dei potenziali suicidi. Facebook lo sa bene e pensa di avere il diritto - e forse anche il dovere - di fare qualcosa per la prevenzione. 

Prevenire, già, ma come? Secondo i responsabili di Menlo Park, spesso le persone che si tolgono la vita preannunciano le loro nefaste intenzioni pubblicando sui social network un aggiornamento di stato più o meno esplicito. Forse un'ultima disperata richiesta di aiuto prima di farla finita. 

Da qui il suggerimento di Mark Zuckerberg: "Gli esperti sostengono che uno dei modi migliori per aiutare chi è difficoltà è far sentire loro che ci sono persone che tengono a loro", spiega il guru di San Francisco in un post apparso ieri sulla sua bacheca nel quale si parla esplicitamente dei nuovi strumenti che verrano resi disponibili sulla piattaforma a questo scopo. 

Post sospetto? Segnalalo a Facebook
Facebook dispone già di un sistema che consente ad amici e parenti di segnalare post di persone “a rischio”: tali segnalazioni spiega lo staff del social network, vengono immediatamente esaminate da un team di esperti attivo 24 ore su 24, 7 giorni su 7, e - qualora fosse opportuno - invitare chi ha pubblicato quel contenuto contattare un amico, una linea di assistenza piuttosto che ricevere suggerimenti di supporto.

Facebook

Nelle prossime settimane, però, il social network più popolato del Pianeta darà modo ai suoi utenti di fare qualcosa in più. Permetterà ad esempio di intervenire in diretta in un video pubblicato da un potenziale suicida o di offrire una consulenza diretta da parte di quelle organizzazioni che trattano quotidianamente di questi problemi (si parte per il momento dagli Stati Uniti, grazie alla collaborazione con Crisis Text Line, Lifeline, e National Eating Disorder Association).

Una sfida molto (troppo?) ambiziosa
Ma c'è dell'altro. Facebook ha infatti dichiarato di voler a cominciare a testare dei sistemi di intelligenza artificiale per scovare sul nascere post propositi suicidi più o meno nascosti fra le righe.

Vista così sembra un'iniziativa piuttosto ambiziosa, forse persino troppo, se si pensa che in molti casi neppure i parenti più stretti sono in grado di intuire le tendenze autodistruttive dei propri cari. Facebook però non ha altra scelta: l'intelligenza artificiale è ad oggi l'unico mezzo disponibile per controllare in tempo reale una massa di utenti così vasta.

Bisognerà a questo punto capire come faranno i sofisticati algoritmi del libro dell'amicizia a gestire il problema dei falsi positivi. Ad esempio: come reagirà la piattaforma davanti a un messaggio, magari ironico, di un utente che commenta una giornata faticosa scrivendo "Sono stanco della vita"?

Questione di tono
"Il difficile, in casi come questi, è riuscire a discriminare tra un tono provocatorio, sarcastico o serio"
, spiega Barbara Forresi, psicologa e responsabile del Centro Studi di Telefono Azzurro, società che insieme a Telefono Amico partecipa al programma di intervento sviluppato da Facebook. "La nostra speranza è riuscire ad intervenire prima che sia tardi”.

“La crisi degli ultimi anni ci ha riportato a lavorare in maniera importante sulla prevenzione al suicidio”, le fa eco Dario Briccola, Presidente Nazionale di Telefono Amico, sottolineando il numero sempre più allarmante di telefonate contenenti minacce di suicidio: più di 1100, solo nel 2015, pari a circa il 2,5% delle chiamate valide totali.

I più letti

avatar-icon

Roberto Catania

Faccio a pezzi il Web e le nuove tecnologie. Ma coi guanti di velluto

Read More