Quando il Googlebot satura la CPU dell’hosting

,

Quando il Googlebot “satura” l’hosting: la verità che nessuno ti dice

Hai un sito su hosting condiviso (ad esempio con SiteGround) e improvvisamente noti che la CPU del server è alle stelle. Il tuo provider minaccia di sospendere tutti i siti sullo stesso server per “uso eccessivo” e ti chiedi: perché?

Spesso la causa non è un attacco hacker né un plugin malato: è semplicemente che il Googlebot (il robot di scansione di Google) effettua troppe richieste al tuo sito, in un breve lasso di tempo, generando un carico elevato sulla CPU.
Il risultato? L’hosting “condiviso” è penalizzato: se uno dei siti “si sbilancia”, l’intera risorsa comune può essere messa in allarme o il servizio sospeso per tutti i siti presenti!

✅ Perché è un problema

  • Gli host condivisi (come quelli di SiteGround) hanno risorse limitate – quando un singolo sito riceve un’impennata di richieste, queste risorse comuni vengono “ridotte” o bloccate.
  • Il Googlebot non è un “male” in sé: è indispensabile perché scandisce, indicizza e rende il tuo sito visibile. Bloccarlo o limitarlo con un robots.txt con un  troppo può significare perdita di posizionamento in pochi giorni.
  • Le soluzioni “tradizionali” online spesso indicano: vai in Google Search Console → Impostazioni → “Riduci velocità di scansione” → salva. Peccato che oggi non sia più possibile farlo come una volta.
  • Se blocchi il bot dall’hosting (ad esempio via firewall o .htaccess) perdi visibilità e posizionamento, oppure rischi che gli utenti subiscano rallentamenti perché le risorse sono sature.

🔍 La soluzione operativa che abbiamo adottato

Ecco i passaggi pratici che mettiamo in atto per risolvere il problema, senza compromettere il posizionamento:

1 – Analisi dei log del server:

  • Identifichiamo le richieste provenienti dal Googlebot o da altre “scan” massicce.
  • Verifichiamo gli IP da cui il bot  si collega, direttamente dalle statistiche dell’hosting.
  • Verifichiamo che si tratti effettivamente di Googlebot (mediante reverse DNS o confronto con le liste ufficiali).

2 – Contatto con l’hosting / provider:

  • Spieghiamo che la causa è “legittima” (non un attacco), e chiediamo la possibilità di limitare il carico del bot, non bloccarlo.
  • Richiediamo esplicitamente che il bot venga “messo in condizione di non saturare” le risorse: ad esempio impostando un numero massimo di richieste al minuto, o intervenendo sul server per garantire priorità alle richieste reali degli utenti.

3 – Verifica in Google Search Console → Rapporto “Statistiche di scansione”:

  • Controlliamo se la “host status” segnala problemi di disponibilità del sito.
  • Se lo stato è “rosso”, significa che Google ha avuto difficoltà a scansionare il sito per problemi di disponibilità → questo è un segnale che il tuo hosting è “stressato”.

4 – Miglioramenti tecnici lato sito – adottati contemporaneamente:

  • Ottimizzazione della velocità di risposta del sito (cache, CDN, compressione) in modo da ridurre lo sforzo per ogni richiesta.
  • Utilizzo corretto di sitemap, canonical e robots.txt per evitare di far “girare” Googlebot su pagine inutili o duplicati.
  • Esclusione selettiva (quando appropriato) di pagine a scarso valore SEO da scansione frequente, riducendo “rumore” per il bot.

📝 Perché questa strategia è efficace

  • Non blocchi il Googlebot: lo lasci “lavorare”, ma gli chiedi di farlo con moderazione.
  • Non fai affidamento su una funzione obsoleta (riduzione della velocità tramite Search Console) che oggi è limitata o non più disponibile come prima.
  • Dai priorità all’esperienza utente e al posizionamento SEO: un sito lento o temporaneamente escluso dalle scansioni peggiora sia la visibilità che il servizio.
  • Intervieni lato hosting e sito: non è la “colpa” del bot, ma della capacità del server condiviso di sostenere il carico; quindi è equo richiedere che venga trattato come “motore di scansione” e non “utenti”.

🚨 Quali errori evitare

  • Non risolvere → ignorare il problema = hosting che prima o poi ti penalizzerà (site sospesi, downgrade di performance, penalizzazione SEO).
  • Bloccare completamente il bot (via .htaccess, firewall) senza precedenti misure → magari risolvi temporaneamente il caricamento CPU ma comprometti la SEO in pochi giorni.
  • Non comunicare con il tuo provider di hosting: spesso la saturazione CPU viene gestita come “sito troppo pesante”, senza considerare che può essere il bot. Un dialogo tecnico apre soluzioni.
  • Pensare che la sola velocità del sito basti: è necessario che anche il bot “segua” un ritmo sostenibile per il server.