Robots & Indicizzazione
Nome Card UX: Robots & Indicizzazione
La card Robots e Indicizzazione controlla le istruzioni che la pagina comunica ai motori di ricerca riguardo alla sua accessibilità. Verifica la presenza di meta robots nel codice, l'intestazione X-Robots-Tag e il contesto della pagina nel sito. Un errore in questi segnali può essere devastante: una singola direttiva noindex lasciata per sbaglio in produzione può rendere la tua pagina invisibile su Google nel giro di pochi giorni, anche se il contenuto è eccellente e la SEO tecnica è curata in ogni altro aspetto.
Cosa analizza la card
Legge meta robots (index/noindex, follow/nofollow), X-Robots-Tag via header HTTP, identifica il tipo di pagina e segnala qualsiasi combinazione che possa limitare o bloccare la visibilità sui motori di ricerca.
A cosa serve
Serve come primo controllo di sicurezza prima di qualsiasi altra ottimizzazione. Se la pagina ha problemi di indicizzabilità, tutto il resto è irrilevante: Google non può valorizzare ciò che non riesce a leggere o che gli è stato detto esplicitamente di ignorare.
L'Analogia: Il cartello "Chiuso" sulla porta di un negozio perfetto
Immagina di aver allestito il negozio più bello della strada: vetrina curata, prodotti di qualità, prezzi competitivi, personale preparato. Ma la mattina ti dimentichi di togliere il cartello "Chiuso" dalla porta. Nessuno entra, anche se tutto è pronto. Un noindex involontario funziona esattamente così: la pagina è perfetta, ma Google ha il cartello "Chiuso" davanti e non la mostra a nessuno.
Esempio di vita reale
Un sito WordPress aggiorna il tema durante i lavori di manutenzione e il checkbox "Scoraggia i motori di ricerca dall'indicizzare questo sito" viene dimenticato attivo anche dopo la pubblicazione. La card individua il segnale noindex in home page e in tutte le pagine. Il traffico organico crolla entro due settimane prima che qualcuno se ne accorga. Con il controllo sistematico della card, il problema si intercetta al primo audit post-lancio.
Domande frequenti su questa card
Robots.txt
Gestisce il traffico. Indica dove i bot possono circolare. È fondamentale per risparmiare Crawl Budget, evitando che Google perda tempo su file tecnici o cartelle private.
Meta Robots
Gestisce la memoria. Indica se una specifica pagina deve essere archiviata (Index) o ignorata (Noindex) dai risultati di ricerca.
L'importanza del "Noindex" consapevole
A volte, nascondere una pagina è una mossa strategica. Pagine di ringraziamento (Thanks-page), carrelli o profili utente non devono apparire su Google. Tuttavia, un comando Noindex inserito per errore su una pagina di vendita può azzerare il tuo fatturato in poche ore. Questa card monitora ogni singola direttiva per proteggere la tua visibilità.