De când Google a închis parametrul num=100, discuțiile din SEO au luat o nouă direcție: cine, ce și unde s-a modificat în modul în care măsurăm vizibilitatea în căutări. De la furnizori de instrumente care foloseau crawlere pentru a extrage top 100 de rezultate, până la datele din Google Search Console ale site-urilor, efectele s-au văzut rapid în rapoarte și în conversațiile din comunitate.
Parametrul num=100 permitea afișarea a 100 de rezultate organice pentru o interogare, iar multe instrumente de monitorizare a cuvintelor-cheie îl foloseau pentru a colecta rapid pozițiile site-urilor. Odă ce a dispărut, accesul la top 100 devine mult mai scump: dacă înainte informația putea fi obținută cu o singură cerere, acum furnizorii trebuie să mărească volumul de crawlare de zece ori pentru aceleași date. Practic, Google a forțat ecosistemul la un upgrade tehnic greu de susținut la scară largă.
Reacțiile jucătorilor din piață au fost variate. Mike Roberts, fondatorul SpyFu, a scris că intenția lor este să găsească o soluție pentru a continua să ofere date despre top 100, chiar dacă asta ar însemna costuri semnificative și eventual pierdere financiară. Mesajul lui a fost unul de mobilizare: nu e doar SpyFu versus Google, ci o problemă care afectează întregul ecosistem de instrumente SEO. În schimb, Tim Soulo, CMO la Ahrefs, a adoptat o poziție mai pragmatică, pentru el, viitorul datelor de ranking se va concentra rezonabil pe top 20. Top 10 rămâne esențial pentru trafic, top 20 e zona oportunităților, iar pozițiile 21–100 sunt, în mare parte, doar indicații că o pagină este indexată, fără aplicații practice relevante pentru majoritatea strategiilor SEO.
Această schimbare a scos la iveală și o problemă mai veche: multe modele de raportare erau probabil distorsionate de crawlere terțe. Mai mulți administratori de site-uri au observat scăderi semnificative ale impresiilor afișate în Search Console după blocarea parametrului. Impressions în Search Console reprezintă cât de des apare o pagină într-un rezultat de căutare, deci o scădere în aceste cifre înseamnă vizibilitate raportată mai mică. Analiza lui Tyler Gargula pe peste 300 de proprietăți Search Console arată că 87, 7% dintre site-uri au avut scăderi la impresii, iar 77, 6% au pierdut vizibilitate în numărul de interogări unice. Gargula a observat că cuvintele-cheie short-tail și mid-tail au înregistrat cele mai mari scăderi, iar pozițiile care apăreau anterior pe pagina 3 sau mai departe s-au redus, în timp ce s-au înregistrat creșteri în top 3 și pe prima pagină, ceea ce sugerează că datele actuale sunt mai apropiate de realitate comparativ cu perioada când num=100 părea să contrasteze pozițiile reale.
Miza pe termen lung este clară: Google nu doar a dezactivat un parametru, ci a lansat o ofensivă tehnică mai largă împotriva scraping-ului SERP. Compania angajează ingineri pentru analiza statistică a modelelor SERP și pentru a colabora la crearea unor soluții care să identifice și să limiteze activitatea crawlerelor abuzive. Motivația e simplă: scrapingul masiv compromite calitatea și acuratețea datelor din Search Console, iar pentru SEOs devine tot mai dificil să interpreteze performanța reală a paginilor.
Ce înseamnă asta pentru profesioniștii SEO și pentru furnizorii de instrumente? Pe termen scurt, pare probabilă o recalibrare a valorii datelor: informațiile din top 10 și top 20 vor rămâne centrale, iar datele din pozițiile 21–100 vor deveni mai greu și mai costisitor de obținut și, deseori, mai puțin relevante pentru deciziile practice. Furnizorii de tool-uri vor trebui să decidă dacă susțin costurile unei colectări extinse sau își reproiectează serviciile pentru a oferi insighturi concentrate pe primele pagini, unde se află traficul și oportunitățile reale. Pentru companii și site-uri, concluzia practică rămâne: optimizarea pentru a urca în primele 20 de poziții are mai mult sens decât urmărirea zecilor de poziții din spatele paginii a doua și a treia; pozițiile îndepărtate semnalează, de regulă, probleme de relevanță sau calitate care trebuie rezolvate.
Blocarea parametrului num=100 poate fi văzută ca un moment de curățenie în ecosistem: reduce dependența de date obținute prin scraping și, în același timp, conduce la date mai reprezentative în Search Console. Dacă asta va încuraja practici mai bune de atribuire și metrici mai clare rămâne de văzut, dar tendința pare orientată spre a face datele de performanță mai apropiate de realitate. În plus, costurile sporite pentru obținerea top 100 vor favoriza jucătorii care pot investi serios în infrastructură sau care oferă modele alternative de distribuție a datelor, cum ar fi API-uri centralizate.
Date concrete din text: parametrul num=100 a fost dezactivat, analiza lui Tyler Gargula a acoperit peste 300 de proprietăți și a arătat scăderi de impresii pentru 87, 7% dintre ele, iar 77, 6% au pierdut interogări unice. Tim Soulo recomandă concentrarea pe top 10 și top 20, iar SpyFu încearcă să mențină accesul la top 100 în ciuda costurilor. Cum te pregătești tu, ca specialist sau proprietar de site, pentru o lume în care datele din pozițiile 21–100 devin mai rare și mai scumpe?
Fii primul care comentează