Ormai è ufficiale: la metà del traffico online generato su Internet è creato da robot (bot). E’ diventato un numero impressionante: bot che controllano la ”salute” dei siti, applicazioni software commerciali, ”ragni” che analizzano informazioni autorizzate sui siti di e-commerce per mostrarci pubblicità su misura e tanto altro ancora. Un mondo incredibile e sotterraneo…
Incapsula, uno dei leader mondiali che monitorano il traffico Web, ha calcolato nel suo Bot Traffic Report quinta edizione, che i bot regolari ormai costituiscono il 22,9% del traffico online. Il fatto è che sommati agli altri bot (fratelli cattivi) con il 28,9%, i software automatici sono diventati la maggioranza online col 51,8% del traffico generato. Gli esseri umani si fermano al 48,2%: un nuovo sorpasso visto che l’anno scorso erano gli utenti reali a creare circa il 53% di tutto il traffico online.
Bot buoni e bot cattivi
Questi autentici “investigatori” del web, sono spesso lanciati dai motori di ricerca, raccolgono dati su una pagina o su un sito per comprendere come inserirlo nel proprio motore, a disposizione dei propri utenti. Altri bot servono a fornire le pagine ottimizzate rispetto al device utilizzato per navigare e tanto altra ancora, “robot” perfettamente legali. Esistono poi tutta una serie di software che non agiscono per aiutare gli utenti, anzi, estrapolano più informazioni possibili dalle nostre navigazioni e presenza sul web per attrarci con pubblicità mirate, spam, o veri e propri attacchi al nostro sistema operativo. Per questo motivo molti utenti sono passati a navigare tramite VPN professionali per proteggersi dai bot “cattivi”. Ultimamente è possibile farlo gratuitamente grazie al browser norvegese Opera e la sua VPN gratuita ed illimitata.
Entrando più nel dettaglio dei bot “cattivi” (si sa che i cattivi sono sempre soggetti più interessanti), Incapsula categorizza quattro identikit:
-
- Bot ”falsari” o “camaleonti”, sono capaci di modificare il loro aspetto esteriore ed assumere delle identità “legali” per ingannare i sistemi di sicurezza. Generalmente sono bot utilizzati per attacchi DDoS, in pratica creano reti di Pc e server “zombi” per attaccare altri server e metterli fuori uso con una valanga di richieste continue;
- Bot utilizzati da hacker e cracker che in automatico cercano in rete vulnerabilità su server e siti web per poi utilizzarle in diversi modi. Un grosso problema che si amplierà tra qualche anno con i rischi sicurezza collegati all’Internet delle cose.
- Bot “copioni” che digeriscono interi siti web e li replicano. Anche se Google ha posto un limite a questi siti clone che infestano il web, accade spesso che i siti web attaccati da questi bot perdano comunque posizioni importanti nelle pagine di Google;
- Bot “spammer”, cioè software automatici che peggiorano sensibilmente il dibattito online su social o sui forum pubblicando in automatico link malevoli collegati a malware e virus.
Nella schiera dei software cattivi, la maggior parte, con il 24,3%, sono quelli che cercano continuamente delle vulnerabilità per poi portare attacchi informatici. Molto alta anche la percentuale dei robot spammer che riversano tonnellate di contenuti fasulli sui social, forum e anche email.
Il bot legale, più diffuso e tecnologicamente avanzato è Googlebot, in verità sono migliaia di bot; altri bot da motori di ricerca sono Yandex Bot e Bingbot, creato dal motore di Microsoft. Percentuali minori, per Yahoo! Slurp, Majestic 12 e Baidu Spider, un motore cinese. Facebook ha dei bot per ottimizzare il suo sito rispetto ai device che utilizzati, poi l’Android Framework bot e il Cfnetwork bot di Apple.
Un bot fra i cattivi, invece, molto noto è: Mirai, un “geniale” malware che trasforma i gadget come webcam, sensori e router connessi ad Internet, in computer zombie. Tempo addietro ha colpito la rete di Telekom tedesca; altri bot di questo genere sono Nitol, Cyclone e Sentry Mba: il primo è un trojan, il secondo un bot per gli attacchi e il terzo un software che cerca di “assimilare” password per poi entrare nei vari sistemi illegalmente.
I siti più colpiti da questi visitatori (sia tra i legali che i “cattivi”) sono ovviamente i siti più famosi e presenti da più tempo nel Web. Le visite, in confronto ai siti appena nati o poco noti, sono quattro volte superiori nei siti più affermati.