concetti

Robots.txt

Un file che dice a Google quali pagine può scansionare e quali no. Semplice ma potente se usato bene.

Il file robots.txt è un file di testo nella directory principale del sito che comunica ai crawler dei motori di ricerca quali sezioni possono scansionare e quali no. È uno strumento semplice ma potente: un errore nel robots.txt può impedire a Google di vedere l'intero sito.

Ho trovato siti con il robots.txt che bloccava per errore le pagine più importanti. È uno dei primi file che controllo in un audit SEO. La regola base: blocca solo ciò che non vuoi assolutamente indicizzare (pannelli di amministrazione, risorse interne) e lascia il resto accessibile.

Hai bisogno di chiarezza sulla SEO?

Parliamone