Controllo Accessi Bot

Robots & Indicizzazione

Nome Card UX: Robots & Indicizzazione

La card Robots e Indicizzazione controlla le istruzioni che la pagina comunica ai motori di ricerca riguardo alla sua accessibilità. Verifica la presenza di meta robots nel codice, l'intestazione X-Robots-Tag e il contesto della pagina nel sito. Un errore in questi segnali può essere devastante: una singola direttiva noindex lasciata per sbaglio in produzione può rendere la tua pagina invisibile su Google nel giro di pochi giorni, anche se il contenuto è eccellente e la SEO tecnica è curata in ogni altro aspetto.

Cosa analizza la card

Legge meta robots (index/noindex, follow/nofollow), X-Robots-Tag via header HTTP, identifica il tipo di pagina e segnala qualsiasi combinazione che possa limitare o bloccare la visibilità sui motori di ricerca.

A cosa serve

Serve come primo controllo di sicurezza prima di qualsiasi altra ottimizzazione. Se la pagina ha problemi di indicizzabilità, tutto il resto è irrilevante: Google non può valorizzare ciò che non riesce a leggere o che gli è stato detto esplicitamente di ignorare.

L'Analogia: Il cartello "Chiuso" sulla porta di un negozio perfetto

Immagina di aver allestito il negozio più bello della strada: vetrina curata, prodotti di qualità, prezzi competitivi, personale preparato. Ma la mattina ti dimentichi di togliere il cartello "Chiuso" dalla porta. Nessuno entra, anche se tutto è pronto. Un noindex involontario funziona esattamente così: la pagina è perfetta, ma Google ha il cartello "Chiuso" davanti e non la mostra a nessuno.

Esempio di vita reale

Un sito WordPress aggiorna il tema durante i lavori di manutenzione e il checkbox "Scoraggia i motori di ricerca dall'indicizzare questo sito" viene dimenticato attivo anche dopo la pubblicazione. La card individua il segnale noindex in home page e in tutte le pagine. Il traffico organico crolla entro due settimane prima che qualcuno se ne accorga. Con il controllo sistematico della card, il problema si intercetta al primo audit post-lancio.

Domande frequenti su questa card

Sì, e la differenza è sostanziale. Il robots.txt Disallow dice al crawler di non visitare la pagina, ma se esistono link a quella pagina Google potrebbe comunque mostrarla in SERP senza contenuto. Il meta noindex dice invece a Google di non mostrarla nei risultati, anche se la visita. Per rimuovere una pagina dall'indice il meta noindex è la via più affidabile.

È una scelta legittima per ridurre il contenuto duplicato o le pagine thin. Tuttavia va applicata con attenzione: le pagine di categoria possono avere buon traffico e autorità propria. Prima di applicare noindex in modo massivo, verifica il traffico organico attuale di quelle pagine in Google Search Console.

Non è una penalizzazione diretta, ma un nofollow su link interni impedisce il passaggio di autorità tra le pagine del tuo stesso sito, che è uno degli scopi principali del collegamento interno. In generale è meglio evitare il nofollow sui link interni e usarlo solo per link verso risorse esterne non garantite.

Robots.txt

Gestisce il traffico. Indica dove i bot possono circolare. È fondamentale per risparmiare Crawl Budget, evitando che Google perda tempo su file tecnici o cartelle private.

Meta Robots

Gestisce la memoria. Indica se una specifica pagina deve essere archiviata (Index) o ignorata (Noindex) dai risultati di ricerca.

L'importanza del "Noindex" consapevole

A volte, nascondere una pagina è una mossa strategica. Pagine di ringraziamento (Thanks-page), carrelli o profili utente non devono apparire su Google. Tuttavia, un comando Noindex inserito per errore su una pagina di vendita può azzerare il tuo fatturato in poche ore. Questa card monitora ogni singola direttiva per proteggere la tua visibilità.