Guida SEO

SEO tecnico: le fondamenta invisibili che decidono tutto

8 febbraio 2026
10 min lettura

Un sito bellissimo che Google non vedeva

Tre mesi fa mi ha contattato il titolare di un'azienda metalmeccanica della Valtrompia. Sito nuovo di zecca, realizzato da un'agenzia milanese per una cifra che preferisco non riportare. Design impeccabile, fotografie professionali, copy scritto da un copywriter serio. Il problema: da Google arrivavano undici visite al giorno. Undici.

Ho aperto Screaming Frog e la situazione era chiara in meno di cinque minuti. Il robots.txt bloccava la cartella /wp-content/uploads/, quindi tutte le immagini erano invisibili al crawler. La sitemap XML puntava ancora all'ambiente di staging. Tredici pagine su ventidue restituivano canonical che rimandavano a sé stesse con il protocollo sbagliato, http anziché https. Il sito caricava in 8,3 secondi su mobile.

Io non ho toccato una virgola dei contenuti. Ho sistemato le fondamenta tecniche e basta. In sei settimane il traffico organico è passato da undici a centonovanta visite giornaliere. I contenuti erano già buoni; erano semplicemente sepolti sotto una colata di errori tecnici che impedivano a Google di vederli.

Racconto questo caso perché sintetizza una convinzione che ho maturato in anni di lavoro su siti bresciani: la SEO tecnica non viene prima dei contenuti in ordine di importanza, ma viene prima in ordine di esecuzione. Se le fondamenta sono marce, il palazzo non regge. Non importa quanto sia bello l'attico.

Core Web Vitals nel 2026: la soglia si è abbassata

Google misura la velocità e la reattività del tuo sito attraverso tre metriche che dal 2021 sono segnale di ranking esplicito. Nel 2026 il loro peso nell'algoritmo è cresciuto, e la soglia per essere considerati "buoni" si è fatta più severa.

La prima è il Largest Contentful Paint, abbreviato LCP. Misura quanto tempo ci vuole perché l'elemento visivo principale della pagina diventi visibile. La soglia è 2,5 secondi. Sembra generosa finché non scopri che il sito medio di una PMI bresciana su hosting condiviso da 5 euro al mese ci mette tra i 4 e i 6 secondi. Ho analizzato il sito di un ristorante del centro storico che caricava una foto dell'ingresso da 4,7 megabyte come hero image. LCP a 9,1 secondi su connessione 4G. Dopo aver convertito quell'immagine in WebP e ridimensionata a dimensioni sensate, LCP a 1,8. Un intervento di dieci minuti.

La seconda metrica, Interaction to Next Paint (INP), misura la reattività del sito quando l'utente interagisce: clicca un pulsante, apre un menu, compila un form. Soglia: sotto i 200 millisecondi. Il colpevole qui è quasi sempre JavaScript. Plugin WordPress caricati a raffica, slider che nessuno usa, chat widget che iniettano script pesanti, analytics installati tre volte perché tre persone diverse li hanno configurati senza coordinarsi. Ho visto siti con sedici script di terze parti nel footer. Sedici.

Terza metrica: Cumulative Layout Shift, il CLS. Misura la stabilità visiva della pagina durante il caricamento. Se stai per cliccare su un link e la pagina salta perché si è caricato un banner pubblicitario, quello è layout shift. Soglia: sotto 0,1. Le cause classiche che trovo nei siti bresciani sono immagini senza attributi di larghezza e altezza definiti nel codice, font web che si caricano in ritardo facendo riformattare tutto il testo, e cookie banner implementati malamente che spingono il contenuto verso il basso.

Una precisazione che ritengo importante: Core Web Vitals da soli non ti portano in prima pagina. Un sito velocissimo con contenuti mediocri resta un sito mediocre. Ma a parità di contenuti e di autorità, il sito più veloce e stabile vince. E nelle nicchie competitive locali, dove ci sono tre o quattro aziende bresciane che si giocano le prime posizioni per le stesse keyword, quella differenza è il margine che decide chi sta sopra e chi sta sotto.

Crawlability: se Google non ti trova, non esisti

Il motore di ricerca non è onnisciente. Ha un budget di scansione limitato per ogni sito, e se sprechi quel budget facendogli esplorare pagine inutili o bloccandogli l'accesso a quelle importanti, il risultato è un'indicizzazione parziale o distorta.

Quando faccio un audit tecnico, il robots.txt è la prima cosa che apro. È un file di testo di poche righe che dice a Google cosa può e cosa non può scansionare. Tre caratteri sbagliati in quel file e il tuo sito sparisce dall'indice. Non è un'iperbole: l'ho visto accadere letteralmente. Un'azienda di Montichiari aveva un robots.txt con Disallow: / nella riga sbagliata. Significava "blocca tutto il sito". Era così da sette mesi. Nessuno se n'era accorto perché il sito continuava a funzionare normalmente per chi lo visitava direttamente, ma Google restava escluso.

Dopo il robots.txt passo alla sitemap XML. Deve esistere, deve aggiornarsi automaticamente quando pubblichi o rimuovi pagine, deve essere registrata in Google Search Console, e deve contenere esclusivamente URL canonici. Trovo regolarmente sitemap che includono URL con parametri di sessione, versioni duplicate con e senza trailing slash, pagine in stato 404. Una sitemap inquinata non è meglio di nessuna sitemap, anzi è peggio, perché manda segnali contraddittori al crawler.

Poi i canonical tag. Ogni pagina del tuo sito dovrebbe dichiarare esplicitamente qual è la sua versione ufficiale. Sembra banale, ma WordPress con i suoi plugin genera una giungla di versioni duplicate della stessa pagina: con parametri UTM, con e senza www, con paginazione, con filtri di ricerca. Senza canonical corretti, Google deve indovinare quale sia la versione da indicizzare. E Google indovina male più spesso di quanto si pensi.

Infine i redirect. Ogni redirect 301 aggiunge un passaggio che il crawler deve percorrere, e ogni passaggio disperde una piccola percentuale di autorità. Le catene di redirect, dove A rimanda a B che rimanda a C che rimanda a D, sono la norma dopo migrazioni gestite male, e io le trovo in almeno la metà dei siti che analizzo. Un'azienda vitivinicola del Garda aveva una catena di cinque redirect per la sua pagina "Chi Siamo" perché in dieci anni quell'URL era stato cambiato quattro volte e nessuno aveva mai pulito i redirect precedenti. Ogni passaggio aggiungeva latenza, ogni passaggio disperdeva PageRank.

Architettura del sito: la gerarchia che Google vuole leggere

La struttura degli URL e la profondità del sito comunicano a Google la gerarchia delle informazioni. Una pagina che richiede sei click dalla homepage per essere raggiunta riceve meno attenzione dal crawler rispetto a una che ne richiede due. Questo non è un principio astratto: è meccanica di base del crawling.

Io lavoro con una regola semplice: ogni pagina importante del sito deve essere raggiungibile entro tre click dalla homepage. Se per arrivare alla scheda di un servizio devo passare per homepage, poi "servizi", poi "servizi per aziende", poi "servizi per aziende manifatturiere", poi finalmente "consulenza qualità", sono troppi livelli. L'utente si perde e Google penalizza quella profondità con una scansione meno frequente.

Gli URL devono essere leggibili da un essere umano. www.esempio.it/servizi/consulenza-seo-brescia/ dice qualcosa sia all'utente che a Google. www.esempio.it/?p=142&category=3&lang=it non dice niente a nessuno. Sembra ovvio, eppure trovo URL del secondo tipo anche su siti lanciati nel 2025. Qualcuno ha lasciato le impostazioni predefinite di WordPress e non ci ha più pensato.

Il linking interno è l'altra faccia della medaglia. Le pagine più importanti del tuo sito devono ricevere link interni da molte altre pagine. Se la tua pagina servizi più redditizia è linkata solo dal menu di navigazione e da nient'altro, stai sottocomunicando la sua importanza a Google. Io costruisco mappe di linking interno che distribuiscono l'autorità in modo strategico: non casuale, non automatico via plugin, ma ragionato pagina per pagina.

Dati strutturati: parlare la lingua madre di Google

I dati strutturati in formato JSON-LD sono frammenti di codice che spiegano a Google il significato dei tuoi contenuti senza ambiguità. Non li vede l'utente; li legge solo il motore di ricerca. Per un'impresa bresciana i markup che contano sono LocalBusiness con indirizzo fisico, orari e contatti; BreadcrumbList per comunicare la gerarchia delle pagine; Article per i contenuti editoriali; FAQPage per le sezioni domande e risposte; Product e Offer per chi vende online.

Implementarli correttamente non garantisce i rich snippet, quei risultati arricchiti con stelline, FAQ espandibili, indirizzo in evidenza che vedi nelle SERP. Però ne aumenta la probabilità in modo sostanziale. E i rich snippet aumentano il click-through rate in modo misurabile: un risultato con FAQ espandibili occupa più spazio visivo nella pagina dei risultati e attira più click anche se non è in prima posizione assoluta.

Il problema che trovo nei siti bresciani non è l'assenza di dati strutturati, anzi molti plugin li generano automaticamente. Il problema è che li generano male. Schema LocalBusiness con il campo "indirizzo" compilato come testo libero anziché con i sotto-campi corretti. Orari di apertura in formato sbagliato. Tipo di business generico anziché specifico. Google non rompe nulla se il markup è impreciso, semplicemente lo ignora. E tu non saprai mai perché i tuoi rich snippet non appaiono.

HTTPS e sicurezza: il minimo che non basta più

HTTPS è il requisito base dal 2018. Non è un vantaggio competitivo, è la soglia di ingresso. Ma la sicurezza nel 2026 va oltre il certificato SSL.

Google penalizza attivamente i siti con mixed content, cioè pagine HTTPS che caricano risorse (immagini, script, fogli di stile) via HTTP non sicuro. Penalizza i certificati scaduti, le vulnerabilità note, le versioni obsolete di PHP. Un sito WordPress con plugin non aggiornati da due anni non è solo un rischio per la sicurezza dei dati dei tuoi clienti, è anche un segnale negativo per Google.

Ho analizzato il sito di uno studio tecnico bresciano che aveva quattordici plugin installati, di cui otto non aggiornati da oltre un anno e tre non più supportati dagli sviluppatori. Uno di quei plugin abbandonati aveva una vulnerabilità nota che permetteva injection di codice. Google Safe Browsing aveva flaggato il sito come potenzialmente pericoloso. Il danno reputazionale e SEO era già fatto prima che qualcuno se ne accorgesse.

Come faccio un audit tecnico (e perché i report automatici non bastano)

Screaming Frog, Ahrefs, Google Search Console, PageSpeed Insights, Chrome DevTools. Sono gli strumenti che uso. Ma lo strumento è il mezzo, non il fine. Chiunque sa scaricare un report da Screaming Frog, ci vuole un click. Il valore di un audit tecnico sta nell'interpretazione di quei dati nel contesto del business specifico.

Un e-commerce con ventimila prodotti ha problemi di crawl budget che un sito vetrina da otto pagine non avrà mai. Uno studio professionale ha bisogno di dati strutturati diversi da un ristorante. Un'azienda manifatturiera B2B che vende a cinque clienti all'anno non ha le stesse priorità di un negozio online che fa cento ordini al giorno. Io non consegno un PDF di ottanta pagine con semafori verdi e rossi. Consegno un documento di priorità: queste tre cose le sistemiamo subito perché hanno l'impatto maggiore, queste cinque le facciamo nel secondo mese, queste le teniamo monitorate.

L'audit tecnico è il punto di partenza di qualunque strategia SEO seria. Non perché sia più importante dei contenuti o dei backlink, ma perché senza fondamenta solide ogni intervento successivo lavora a una frazione del suo potenziale. Io lo dico sempre ai clienti che mi contattano chiedendo "contenuti SEO": prima apriamo il cofano. Se il motore perde olio, non ha senso mettere benzina premium.

CN
SEO & AI Specialist

Claudio Novaglio

Fondatore di SEO Atelier, specializzato in strategie di posizionamento organico per il settore manifatturiero e professionale bresciano.

Articoli correlati

24 marzo 2026

Audit SEO: quello che la maggior parte dei consulenti sbaglia

Un audit SEO non è una checklist da 200 voci scaricata da Screaming Frog. È un atto diagnostico che richiede giudizio, esperienza e il coraggio di dire al cliente cosa non funziona.

Leggi tutto
23 marzo 2026

AI e SEO nel 2026: la verità che nessuno vuole sentire

Gli AI Overviews non hanno ucciso la SEO. Hanno ucciso la SEO pigra. Quello che resta, e che funziona, richiede competenza reale, dati reali, opinioni reali. Ecco cosa ho imparato lavorandoci ogni giorno.

Leggi tutto
20 marzo 2026

SEO per e-commerce a Brescia: quello che le agenzie non vi dicono sulle vendite organiche

Ho visto e-commerce bresciani con cinquemila schede prodotto e zero vendite da Google. Il problema non era il traffico, ma come il sito era costruito. Anatomia di cosa funziona davvero nella SEO per shop online.

Leggi tutto

Vuoi risultati SEO concreti?

Ogni progetto SEO è unico. Contattami per una consulenza personalizzata e scopri cosa posso fare per il tuo sito.

Richiedi una Consulenza