- Date citate de WIRED arată că boții AI generează deja o parte semnificativă din traficul web global
- TollBit estimează că în T4 2025, aproximativ 1 din 50 de vizite pe site-urile monitorizate provenea de la scrapers AI (față de 1 din 200 la începutul lui 2025)
- Tot mai mulți boți ignoră regulile clasice precum robots.txt, iar comportamentul lor devine greu de diferențiat de cel uman
- Industria răspunde cu soluții agresive: blocare automată, „taxe pe crawl” și infrastructură anti-bot oferită de Cloudflare și Akamai
- Miza nu e doar copyright: se redesenează economia internetului și felul în care informația ajunge la oameni
Internetul a fost, timp de trei decenii, un spațiu construit pentru oameni: dai click, citești, comentezi, te enervezi, închizi tab-ul.
Dar în 2026, web-ul începe să arate tot mai mult ca o autostradă pe care circulă… mașini fără șofer.
Un nou raport citat de WIRED sugerează că boții AI nu mai sunt o prezență marginală, ci un nou tip de „vizitator” care împinge tot mai adânc în infrastructura internetului.
„Majoritatea internetului va fi trafic de boți în viitor”, spune Toshit Pangrahi, CEO-ul TollBit, companie care monitorizează scraping-ul automatizat.
Pe scurt: internetul nu mai e doar pentru oameni. Acum e și pentru agenți.
Un bot la fiecare 50 de vizite: cifrele care arată cât de repede se schimbă web-ul
Dacă ideea sună încă SF, cifrele sunt mult mai concrete.
TollBit estimează că în trimestrul 4 din 2025, în medie, 1 din 50 de vizite pe site-urile clienților săi provenea de la un bot AI care scana conținut pentru modele și agenți.
La începutul lui 2025, era doar 1 din 200.
Adică într-un singur an, prezența lor a explodat.
Akamai, una dintre cele mai mari companii de infrastructură web și securitate, confirmă tendința: traficul bot legat de AI crește constant, atât pentru antrenare, cât și pentru acces în timp real.
Robert Blumofe, CTO Akamai, rezumă miza simplu:
„AI schimbă web-ul așa cum îl știm. Iar cursa înarmărilor va decide viitorul internetului.”
Robots.txt devine decor: boții învață să se strecoare ca niște utilizatori reali
În internetul clasic exista o regulă aproape „gentleman agreement”:
site-ul îți spune unde ai voie să intri, iar crawlerul respectă.
Acea regulă se numește robots.txt.
Problema? Nu e lege. E doar o pancartă.
TollBit susține că în T4 2025, peste 13% din cererile boților AI au ignorat robots.txt, iar fenomenul ar fi crescut rapid în a doua jumătate a anului.
Mai interesant (și mai înfricoșător): boții nu mai arată ca boți.
Unii:
- se deghizează în browsere normale
- trimit cereri care imită click-uri umane
- se comportă aproape identic cu utilizatorii reali
Raportul TollBit notează că unii agenți AI sunt deja „aproape imposibil de distins” de traficul uman.
Asta înseamnă că internetul intră într-o zonă ciudată: site-urile nu mai știu cine le citește. O persoană sau un algoritm.
Cloudflare și Akamai ridică ziduri digitale: noul război al publisherilor cu AI-ul
Pentru publisheri, problema e simplă:
dacă boții îți citesc articolele și le rezumă în altă parte, cine mai vine pe site?
De aici începe un conflict economic major, comparabil cu primele lupte despre piraterie digitală.
În 2025, Cloudflare a anunțat măsuri drastice: va bloca implicit crawler-ele AI care încearcă să scrapeze conținut fără permisiune.
În paralel, apar modele noi de monetizare:
- pay-per-crawl (plătești ca să citești automat)
- acces negociat pentru training
- filtre anti-agent by default
Cloudflare și TollBit promovează ideea unui „schimb de valoare programatic”: dacă AI-ul consumă conținut, trebuie să existe o formă de plată.
Este practic începutul unei economii machine-to-machine.
Ce urmează: un internet în care agenții citesc tot, iar oamenii primesc doar rezumatul
Poate cea mai mare schimbare nu este tehnică, ci culturală:
web-ul se mută de la „oameni care citesc pagini” la „agenți care consumă pagini”.
În loc să intri pe un site de știri:
- agentul citește pentru tine
- extrage informația
- îți dă un rezumat
- și tu nu mai vezi sursa
De aici apar întrebări grele:
- Cine mai finanțează jurnalismul dacă traficul uman scade?
- Ce se întâmplă cu copyright-ul și munca editorială?
- Cum deosebim accesul legitim de atac automatizat?
În plus, apare o industrie complet nouă: GEO (generative engine optimization), adică optimizarea conținutului pentru a fi „vizibil” în răspunsurile AI, nu în Google.
Internetul nu dispare. Dar se transformă într-un teritoriu în care principalii utilizatori nu mai sunt oameni.
Ci programe.

