Google avverte: I parametri URL creano problemi di crawl

Aggiornato recentemente a Ottobre 12th, 2024 alle 06:12 pm

parametri url

Google avverte: I parametri URL creano problemi di crawl

Image by brgfx on Freepik

Gary Illyes di Google avverte che i problemi dei parametri URL causano inefficienze del crawler, soprattutto per i siti di e-commerce.

Punti salienti

  • I parametri URL possono creare URL infiniti, causando inefficienze di crawling.
  • I siti di e-commerce sono i più colpiti da questo problema.
  • Google sta studiando delle soluzioni, tra cui nuovi algoritmi e una migliore comunicazione con i proprietari dei siti.

Gary Illyes, analista di Google, ha evidenziato un problema importante per i crawler: I parametri URL.

Durante un recente episodio del podcast Search Off The Record di Google, Illyes ha spiegato come i parametri possano creare URL infiniti per una singola pagina, causando inefficienze di crawling.

Illyes ha affrontato gli aspetti tecnici, l’impatto SEO e le potenziali soluzioni. Ha inoltre discusso gli approcci adottati in passato da Google e ha accennato alle soluzioni future.

Queste informazioni sono particolarmente importanti per i siti di grandi dimensioni o di e-commerce.

Il problema degli URL infiniti

Illyes ha spiegato che i parametri URL possono creare un numero infinito di URL per una singola pagina.

Spiega:

Tecnicamente, è possibile aggiungere un numero quasi infinito di parametri a qualsiasi URL e il server ignorerà quelli che non alterano la risposta.

Gary Illyes

Questo crea un problema per i crawler dei motori di ricerca.

Anche se queste varianti potrebbero portare allo stesso contenuto, i crawler non possono saperlo senza visitare ogni URL. Questo può portare a un uso inefficiente delle risorse di crawling e a problemi di indicizzazione.

I siti di e-commerce più colpiti

Il problema è diffuso tra i siti di e-commerce, che spesso utilizzano parametri URL per tracciare, filtrare e ordinare i prodotti.

Ad esempio, una singola pagina di prodotto potrebbe avere più varianti URL per diverse opzioni di colore, dimensioni o fonti di riferimento.

Illyes ha sottolineato che:

Perché si possono aggiungere parametri URL… significa anche che quando si effettua un crawling, e un crawling nel senso proprio del termine, come “seguire i link”, tutto diventa molto più complicato.

Gary Illyes

Contesto storico

Google ha affrontato questo problema per anni. In passato, Google offriva uno strumento per i parametri degli URL in Search Console per aiutare i webmaster a indicare quali parametri erano importanti e quali potevano essere ignorati.

Tuttavia, questo strumento è stato deprecato nel 2022, lasciando alcuni SEO preoccupati su come gestire questo problema.

Soluzioni potenziali

Pur non offrendo una soluzione definitiva, Illyes ha accennato a potenziali approcci:

  1. Google sta esplorando modi per gestire i parametri URL, potenzialmente sviluppando algoritmi per identificare gli URL ridondanti.
  2. Illyes ha suggerito che una comunicazione più chiara da parte dei proprietari dei siti web sulla struttura degli URL potrebbe aiutare. “Potremmo semplicemente dire loro: ‘Ok, usate questo metodo per bloccare quello spazio URL'”, ha osservato.
  3. Illyes ha menzionato che i file robots.txt potrebbero essere utilizzati maggiormente per guidare i crawler. “Con robots.txt è sorprendentemente flessibile quello che si può fare”, ha detto.

Implicazioni per la SEO

Questa discussione ha diverse implicazioni per la SEO:

  1. Crawl Budget: Per i siti di grandi dimensioni, la gestione dei parametri degli URL può aiutare a conservare il budget di crawl, assicurando che le pagine importanti vengano crawlate e indicizzate.in
  2. Architettura del sito: Gli sviluppatori potrebbero dover riconsiderare la struttura degli URL, in particolare per i siti di e-commerce di grandi dimensioni con numerose varianti di prodotti.
  3. Navigazione sfaccettata: I siti di e-commerce che utilizzano una navigazione sfaccettata devono tenere presente l’impatto che questa ha sulla struttura degli URL e sulla crawlabilità.
  4. Tag canonici: L’uso di tag canonici può aiutare Google a capire quale versione dell’URL deve essere considerata primaria.

: conclusione

La gestione dei parametri degli URL rimane complicata per i motori di ricerca.

Google ci sta lavorando, ma è comunque necessario monitorare le strutture degli URL e utilizzare strumenti per guidare i crawler.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


Il periodo di verifica reCAPTCHA è scaduto. Ricaricare la pagina.