Aggiornato recentemente a Ottobre 12th, 2024 alle 06:12 pm

Google avverte: I parametri URL creano problemi di crawl
Gary Illyes di Google avverte che i problemi dei parametri URL causano inefficienze del crawler, soprattutto per i siti di e-commerce.
Punti salienti
- I parametri URL possono creare URL infiniti, causando inefficienze di crawling.
- I siti di e-commerce sono i più colpiti da questo problema.
- Google sta studiando delle soluzioni, tra cui nuovi algoritmi e una migliore comunicazione con i proprietari dei siti.
Gary Illyes, analista di Google, ha evidenziato un problema importante per i crawler: I parametri URL.
Durante un recente episodio del podcast Search Off The Record di Google, Illyes ha spiegato come i parametri possano creare URL infiniti per una singola pagina, causando inefficienze di crawling.
Illyes ha affrontato gli aspetti tecnici, l’impatto SEO e le potenziali soluzioni. Ha inoltre discusso gli approcci adottati in passato da Google e ha accennato alle soluzioni future.
Queste informazioni sono particolarmente importanti per i siti di grandi dimensioni o di e-commerce.
Il problema degli URL infiniti
Illyes ha spiegato che i parametri URL possono creare un numero infinito di URL per una singola pagina.
Spiega:
Tecnicamente, è possibile aggiungere un numero quasi infinito di parametri a qualsiasi URL e il server ignorerà quelli che non alterano la risposta.
Gary Illyes
Questo crea un problema per i crawler dei motori di ricerca.
Anche se queste varianti potrebbero portare allo stesso contenuto, i crawler non possono saperlo senza visitare ogni URL. Questo può portare a un uso inefficiente delle risorse di crawling e a problemi di indicizzazione.
I siti di e-commerce più colpiti
Il problema è diffuso tra i siti di e-commerce, che spesso utilizzano parametri URL per tracciare, filtrare e ordinare i prodotti.
Ad esempio, una singola pagina di prodotto potrebbe avere più varianti URL per diverse opzioni di colore, dimensioni o fonti di riferimento.
Illyes ha sottolineato che:
Perché si possono aggiungere parametri URL… significa anche che quando si effettua un crawling, e un crawling nel senso proprio del termine, come “seguire i link”, tutto diventa molto più complicato.
Gary Illyes
Contesto storico
Google ha affrontato questo problema per anni. In passato, Google offriva uno strumento per i parametri degli URL in Search Console per aiutare i webmaster a indicare quali parametri erano importanti e quali potevano essere ignorati.
Tuttavia, questo strumento è stato deprecato nel 2022, lasciando alcuni SEO preoccupati su come gestire questo problema.
Soluzioni potenziali
Pur non offrendo una soluzione definitiva, Illyes ha accennato a potenziali approcci:
- Google sta esplorando modi per gestire i parametri URL, potenzialmente sviluppando algoritmi per identificare gli URL ridondanti.
- Illyes ha suggerito che una comunicazione più chiara da parte dei proprietari dei siti web sulla struttura degli URL potrebbe aiutare. “Potremmo semplicemente dire loro: ‘Ok, usate questo metodo per bloccare quello spazio URL'”, ha osservato.
- Illyes ha menzionato che i file robots.txt potrebbero essere utilizzati maggiormente per guidare i crawler. “Con robots.txt è sorprendentemente flessibile quello che si può fare”, ha detto.
Implicazioni per la SEO
Questa discussione ha diverse implicazioni per la SEO:
- Crawl Budget: Per i siti di grandi dimensioni, la gestione dei parametri degli URL può aiutare a conservare il budget di crawl, assicurando che le pagine importanti vengano crawlate e indicizzate.in
- Architettura del sito: Gli sviluppatori potrebbero dover riconsiderare la struttura degli URL, in particolare per i siti di e-commerce di grandi dimensioni con numerose varianti di prodotti.
- Navigazione sfaccettata: I siti di e-commerce che utilizzano una navigazione sfaccettata devono tenere presente l’impatto che questa ha sulla struttura degli URL e sulla crawlabilità.
- Tag canonici: L’uso di tag canonici può aiutare Google a capire quale versione dell’URL deve essere considerata primaria.
: conclusione
La gestione dei parametri degli URL rimane complicata per i motori di ricerca.
Google ci sta lavorando, ma è comunque necessario monitorare le strutture degli URL e utilizzare strumenti per guidare i crawler.

Andrea Barbieri è consulente SEO, svilppattore di siti web e specialista in web marketing, fondatore di BTF Traduzioni SEO Sviluppo Web. Aiuta aziende e professionisti a ottenere visibilità online con siti ottimizzati, contenuti efficaci e strategie SEO mirate. Visita la mia pagina.


