Tecnologia

Bot, il 10% del traffico internet non è generato da esseri umani

Il peso degli internet bot in Rete è pari al 10% del traffico totale. Quello dei bot è un problema che costa quasi 5 miliardi di dollari ogni anno

Avete presente i CAPTCHA ? Quei riquadri con sopra scribacchiate parole incomprensibili che dovrebbero servirti a dimostrare a un sito che tu sei davvero un essere umano e non, magari, un software programmato per interpretare codici scritti? Ecco, ogni volta che mi ritrovo a perdere diottrie nel tentativo di decifrare le parole dei CAPTCHA, una parte di me si consola pensando: be’, se non altro questo sistema sarà a prova di bomba.

Quella magra consolazione è andata in fumo nel momento in cui ho avuto per le mani il nuovo studio condoto da Solve Media , che rivela che, in media, il 10% di tutto il traffico internet non è generato da esseri umani, bensì da software dedicati ormai comunemente conosciuti come bot. Per chi non conoscesse il personaggio, il bot (abbreviazione di web robot) è un software programmato per eseguire dei compiti automatizzati in Rete e, nello specifico, per cammuffarsi da utente in carne e ossa. Ne esistono di svariati tipi: c’è il chatterbot , una forma di intelligenza artificiale che viene utilizzata per simulare conversazioni o chat, c’è il votebot , che ha come compito quello di seminare commenti e voti (pollice su, pollice giù) strategicamente calibrati su contenuti definiti, ci sono gli spambot che seminano pubblicità non richiesta in forum, siti e caselle email, e poi ancora i web crawler , i gamebot , i botnet e così via.

Per valutare il peso che questa minoranza ha nella popolazione generale di Internet, SolveMedia ha analizzato il comportamento di 100 milioni di visitatori unici su oltre 5000 piattaforme. Hanno così scoperto l'esistenza di un vero e proprio esercito di bot la cui compagine più nutrita è schierata negli Stati Uniti, dove il 16% del traffico web è generato da utenti non-umani. Esistono però paesi in cui, sebbene il numero assoluto non superi le cifre americane, il rapporto bot/umani raggiunge picchi preoccupanti. Nelle Filippine il 43% del traffico web deriva da bot, in Taiwan il 54%, in Singapore il record del 56%.

Questo rappresenta un problema innanzitutto economico. Basti pensare che al giorno d’oggi il costo di gran parte della pubblicità online viene calibrato sul numero di click che un ad riceve. SolveMedia calcola che la diffusione attuale di bot potrebbe causare una perdita di 4,7 miliardi di dollari annui. La questione è tornata d’attualità un paio di mesi fa quando una startup aveva annunciato di voler interrompere la sua collaborazione con Facebook, dopo aver scoperto che l’80% dei click pubblicitari per cui pagava cifre importanti erano in realtà generati da bot .

In questi giorni, Facebook ha assicurato di avere messo al lavoro una task force assoldata per chiudere i cancelli ai bot, eliminare i profili fasulli e assicurarsi che tutti i like siano prodotti da utenti in carne ed ossa. Ma un approccio tradizionale potrebbe non bastare a risolvere un simile problema. La tecnologia dei web robot è in continua evoluzione, basti pensare che solo pochi giorni è stato presentato un nuovo tipo di gamebot (un’intelligenza artificiale operante in un ambiente videoludico) capace di effettuare un particolare tipo test di Turing con performance addirittura superiori a quelle umane (50% contro 40%). Di questo passo, distinguere in Rete i bot dagli utenti in carne e ossa sarà sempre più difficile. E non passerà molto prima che spambot e webspiders troveranno il modo di aggirare i più sofisticati sistemi di  individuazione. Per non parlare degli obsoleti e fastidiosissimi CAPTCHA.

Seguimi su Twitter: @FazDeotto

I più letti

avatar-icon

Fabio Deotto