Esercitazioni

Qual è il budget di scansione

Sommario:

Anonim

Un termine che viene menzionato molto oggi nella comunità SEO è il budget di scansione. Se lo traduciamo, verrà letto come "budget di tracciamento". È una rara via di mezzo, ma questo è un concetto molto vecchio nell'area SEO.

Coloro che lavorano con progetti su larga scala come il grande e-commerce, portali di contenuti e specialisti SEO, comprendono il budget di scansione come il tempo che Google impiega a leggere le pagine del tuo sito Web in un determinato giorno.

Indice dei contenuti

È il tempo impiegato dal crawler di Google per leggere le pagine di un sito Web. Ma questa volta il crawler spende sul tuo sito Web dipende da diversi fattori; come autorità del sito Web, percentuale di contenuti duplicati, errori di pagina e molti altri.

Tuttavia, secondo il blog ufficiale dei webmaster di Google, si afferma che non tutti dovrebbero essere preoccupati per questo problema del budget di scansione. Cioè, se hanno un sito Web con poche dozzine di pagine, non è necessario preoccuparsi di questa domanda di scansione delle pagine, poiché Google lo farà senza problemi.

Ma se hai un negozio online o qualsiasi altro progetto web con poche migliaia di pagine, dovrai prestare molta attenzione e ottimizzare il budget di scansione del tuo sito web.

Scansione del budget e posizionamento web

Da Google affermano che il budget di scansione non influenza il posizionamento, ma che tuttavia può influenzare e talvolta controllare, negativamente, altri degli oltre 200 fattori da classificare nel motore di ricerca.

Ma perché vogliamo che Google esegua la scansione delle pagine del nostro sito Web più volte? D'altra parte, troviamo diversi esperti SEO che assicurano che avere un buon budget per la ricerca per indicizzazione migliorerà il posizionamento complessivo delle pagine del sito Web nella classifica e quindi aumenterà il traffico organico.

Fondamentalmente, Google ha un certo tempo da trascorrere all'interno del tuo sito, dal momento che deve decidere quanto tempo trascorrerà su ciascuno dei siti in tutto il mondo, per il quale dovrà calcolare quante connessioni simultanee sarà in grado di effettuare per poter leggi le pagine del tuo sito web.

La qualità del sito Web

Google passa il tempo per connettersi sul sito Web, leggere queste pagine e interrompere questa lettura. Ripeti tutto il giorno, ma c'è sempre una frazione del tempo. Quella frazione di tempo, di solito è proporzionale all'autorità del tuo sito Web, al numero di nuove pagine e alla pertinenza che ha nei confronti di Google.

Ciò è dato dalla qualità dei tuoi contenuti e dai link che rimandano al sito, vale a dire, se hai molti link di qualità che puntano, è possibile che Google ti capisca con più qualità e passi più tempo sul tuo sito Web, purché ci sia un maggior volume di pagine.

In generale, il budget di scansione non cambia molto per un sito di 10, 50 o 100 pagine, quindi in alcune pagine non c'è molta differenza. Ma per i siti di grandi dimensioni, se Google ha un secondo per passare attraverso il tuo sito e gli dici cosa leggere, sarà molto utile per il crawler, completando la loro attività di scansione più rapidamente.

Imposta quali sono le pagine importanti

Innanzitutto, è necessario mappare un'architettura più organizzata delle informazioni sul sito, stabilire quali pagine non sono necessarie e non consentire che determinate pagine vengano indicizzate controllando il file robots.txt.

Google non dovrebbe passare del tempo nella sezione di ricerca del sito Web o anche nella sezione in cui è presente la navigazione del filtro, ad esempio, come in un negozio online, in cui è possibile scegliere la dimensione della scarpa, la dimensione dell'appartamento o il colore della camicia. Questi filtri sono quelli che normalmente le persone chiamano "navigazione frontale" o "filtri di navigazione".

Alcuni webmaster tendono a bloccare questi filtri e quelle ricerche nel file robots.txt, solo per fare in modo che Google non passi il tempo a leggere queste pagine, perché, in realtà, si concentrano sull'utente che sta cercando quell'esperienza e sono già contenuti disponibile su altre pagine interne del sito.

Si consiglia di leggere: errori da evitare durante la creazione di un sito Web

Un'altra linea è che stabilendo quali sono le pagine importanti del tuo sito, risparmi il tempo di Google su pagine che hanno contenuti duplicati, come il caso della navigazione affrontata, la pagina dell'informativa sulla privacy, i termini e le condizioni, e non vuoi che vengano letti. Queste pagine saranno disponibili solo per gli utenti che vogliono vedere queste pagine.

Il tempo non dovrebbe essere sprecato in queste pagine di basso valore, dal momento che non vuoi classificarle per loro e non fanno la minima differenza nella tua vita, ma devono essere lì perché alcuni utenti vogliono comunque consultare queste informazioni.

Come funziona internamente il budget di ricerca per indicizzazione

In generale, il budget di ricerca per indicizzazione si basa sull'architettura. Definisci i collegamenti alle pagine che Google sarà in grado di leggere e assegnale le priorità in base al loro livello di importanza.

Dopotutto, i link che escono da queste pagine sono quelli a cui è probabile che Google abbia la priorità. Quindi, vale la logica pensare molto bene al collegamento interno e al modo in cui è strutturata la tua pagina.

Il budget di ricerca per indicizzazione è il tempo che Google impiega per poter leggere, comprendere le informazioni sul sito Web e valutare elementi come l'organizzazione dell'architettura e il blocco in robots.txt. L'uso del tag nofollow su un collegamento impedisce a Google di seguire tale collegamento. Ad esempio, se un collegamento ha un attributo nofollow, ma un altro collegamento interno non ne ha uno per accedere alla pagina, Google prenderà il secondo percorso, facendoti passare meno tempo.

Vantaggi di un sito ottimizzato

Ci sono cose che ti aiuteranno a leggere più pagine su base giornaliera, che possono essere utili per qualsiasi sito web. Ad esempio, se il tuo server è più veloce, in quel momento Google richiederà più pagine.

Se la tua pagina è compressa, in queste richieste Google richiederà più pagine. E se hai un codice pulito e adeguato, Google riceverà anche una pagina più compressa alla fine della giornata, con bit migliori. Cioè, l' ottimizzazione del sito Web, la velocità del sito e del server, influenzano notevolmente il problema del budget di scansione.

Come calcolare il budget di scansione del tuo sito

Il numero di volte in cui un ragno del motore di ricerca di Google esegue la scansione del tuo sito Web in un determinato momento di assegnazione è ciò che chiamiamo "budget di scansione". Pertanto, se Googlebot visita il tuo sito 32 volte al giorno, possiamo dire che il budget di monitoraggio di Google è di circa 960 al mese.

Puoi utilizzare strumenti come Google Search Console e Bing Webmaster Tools per calcolare il budget di scansione approssimativo del tuo sito web. Accedi e vai su Monitoraggio> Statistiche di monitoraggio per vedere il numero medio di pagine monitorate al giorno.

Budget per indicizzazione e SEO: sono uguali?

Sì e no Mentre entrambi i tipi di ottimizzazione mirano a rendere la tua pagina più visibile e ad influenzare le tue SERP, SEO pone una maggiore enfasi sull'esperienza dell'utente, mentre l'ottimizzazione del ragno riguarda interamente l'attrazione dei robot.

L'ottimizzazione dei motori di ricerca (SEO) è più focalizzata sul processo di ottimizzazione per le query degli utenti. Invece, l'ottimizzazione di Googlebot si concentra su come il crawler di Google accede al tuo sito.

Come ottimizzare il budget di scansione

Esistono diversi modi per ottimizzare il budget di scansione di qualsiasi sito Web, a seconda di ciascun progetto Web, numero di pagine e altri problemi, ecco alcuni punti da considerare:

Assicurati che le tue pagine possano essere monitorate

La tua pagina è rintracciabile se gli spider dei motori di ricerca sono in grado di trovare e seguire i collegamenti all'interno del tuo sito Web, quindi dovrai configurare i file.htaccess e robots.txt in modo che non blocchino le pagine critiche sul tuo sito. Potresti anche voler fornire versioni testuali di pagine che dipendono fortemente da file Rich Media, come Flash e Silverlight.

Ovviamente, è vero il contrario se si desidera impedire che una pagina appaia nei risultati di ricerca. Tuttavia, l'impostazione del file robots.txt su "non consentire" non è sufficiente se si desidera impedire che una pagina venga indicizzata. Secondo Google, la regola "non consentire" non garantisce che una pagina non compaia nei risultati.

Se le informazioni esterne (ad esempio, i collegamenti in entrata) continuano a indirizzare il traffico verso la pagina che hai rifiutato, Google potrebbe decidere che la pagina è ancora pertinente. In questo caso, è necessario bloccare manualmente l' indicizzazione della pagina utilizzando il meta tag noindex o l'intestazione HTTP X-Robots-Tag.

- Meta tag Noindex: inserisci questo meta tag nella sezione della tua pagina per impedire alla maggior parte dei crawler web di indicizzare la tua pagina:

noindex "/>

- X-Robots-Tag: inserisce quanto segue nella risposta dell'intestazione HTTP per indicare ai crawler di non indicizzare una pagina:

Tag X-Robots: noindex

Si noti che se si utilizza il metatag noindex o il tag X-Robots, non si dovrebbe impedire la pagina in robots.txt. La pagina deve essere sottoposta a scansione prima che il tag venga visualizzato e rispettato.

Uso cauto di file multimediali

C'è stato un tempo in cui Googlebot non è stato in grado di eseguire la scansione di contenuti come JavaScript, Flash e HTML. Quei tempi sono passati (anche se Googlebot ha ancora problemi con Silverlight e alcuni altri file).

Tuttavia, anche se Google è in grado di leggere la maggior parte dei file Rich Media, altri motori di ricerca potrebbero non essere in grado di farlo, il che significa che dovresti usare questi file con giudizio, e probabilmente vorrai evitarli del tutto sulle pagine che desideri. posizione.

Evita le stringhe di reindirizzamento

Ogni URL reindirizzato ti fa sprecare un po 'del tuo budget di scansione. Quando il tuo sito web ha stringhe di reindirizzamento lunghe, ovvero un gran numero di reindirizzamenti 301 e 302 di fila, è possibile che ragni come Googlebot si arrestino in modo anomalo prima di raggiungere la pagina di destinazione, il che significa che la pagina non verrà indicizzata. La migliore pratica con i reindirizzamenti è quella di avere il minor numero possibile di reindirizzamenti sul sito Web e non più di due di fila.

Correggi i collegamenti interrotti

Quando a John Mueller è stato chiesto se i collegamenti interrotti influiscono sul posizionamento o meno, ha risposto che è in qualche modo più focalizzato sull'esperienza dell'utente che a fini di posizionamento.

Questa è una delle differenze fondamentali tra l'ottimizzazione SEO e Googlebot, perché significherebbe che i collegamenti interrotti non svolgono un ruolo sostanziale nelle classifiche, anche se ostacolano notevolmente la capacità di Googlebot di indicizzare e classificare un sito Web.

Detto questo, dovresti seguire i consigli di Mueller considerando che l'algoritmo di Google è notevolmente migliorato nel corso degli anni e che tutto ciò che influisce sull'esperienza dell'utente rischia di incidere sulle SERP.

Imposta i parametri negli URL dinamici

Gli spider trattano gli URL dinamici che portano alla stessa pagina di pagine separate, il che significa che potresti sprecare inutilmente il tuo budget di scansione. Puoi gestire i parametri URL accedendo a Search Console e facendo clic su Tracciamento> Parametri URL. Da qui, puoi informare Googlebot se il tuo CMS aggiunge parametri ai tuoi URL che non cambiano il contenuto di una pagina.

Pulisci la mappa del sito

Le Sitemap XML aiutano sia i visitatori che i robot spider, rendendo i contenuti meglio organizzati e più facili da trovare. Pertanto, cerca di mantenere la Sitemap aggiornata e di eliminarla da qualsiasi disordine che potrebbe danneggiare l'usabilità del tuo sito, tra cui pagine di livello 400, reindirizzamenti non necessari, pagine non canoniche e pagine bloccate.

Il modo più semplice per pulire la Sitemap è utilizzare uno strumento come il Website Auditor. Puoi utilizzare il generatore di Sitemap XML di Website Auditor per creare una Sitemap pulita che esclude dall'indicizzazione tutte le pagine bloccate. Inoltre, andando all'opzione "Site Audit" è possibile individuare e riparare tutti gli errori 4xx, i reindirizzamenti 301 e 302 e le pagine non canoniche.

Utilizzare i feed

Entrambi i feed, RSS, XML e Atom consentono di distribuire contenuti ai follower quando non navigano nel sito. Ciò consente agli utenti di iscriversi ai loro siti preferiti e ricevere aggiornamenti regolari ogni volta che vengono pubblicati nuovi contenuti.

Oltre al fatto che i feed RSS sono stati a lungo un buon modo per aumentare i lettori e il coinvolgimento, sono anche tra i siti più visitati da Googlebot. Quando il tuo sito Web riceve un aggiornamento (ad esempio, nuovi prodotti, post di blog, aggiornamenti di pagina, ecc.), Invialo a Google Feed Burner per assicurarti che sia indicizzato correttamente.

Crea collegamenti esterni

La costruzione di link rimane un argomento caldo e non si vede che presto sparirà.

Coltivare relazioni online, scoprire nuove comunità, costruire valore per il marchio; Queste piccole vincite dovrebbero già essere stampate nel processo di pianificazione dei collegamenti. Mentre ci sono elementi distintivi della costruzione di collegamenti che sono ora così 1990, il bisogno umano di connettersi con gli altri non cambierà mai.

Attualmente, abbiamo già prove che i collegamenti esterni sono strettamente correlati al numero di visite di spider che il tuo sito web riceve.

Mantenere l'integrità del collegamento interno

Sebbene la creazione di collegamenti interni non abbia un ruolo sostanziale nella velocità di scansione, ciò non significa che possa essere completamente ignorato. Una struttura del sito ben gestita rende i tuoi contenuti facilmente individuabili dai robot di ricerca senza sprecare il tuo budget di scansione.

Una struttura di link interna ben organizzata può anche migliorare l'esperienza dell'utente, soprattutto se gli utenti possono raggiungere qualsiasi area del tuo sito Web in tre clic. Rendere tutto più generalmente accessibile significa che i visitatori rimarranno più a lungo, il che può migliorare le SERP.

Quale conclusione traiamo?

Ancora una volta, rafforzando ciò che è già stato menzionato sopra, questo problema del budget di scansione sarà importante per i siti Web di grandi dimensioni con centinaia e migliaia di pagine Web, altrimenti non vale la pena preoccuparsi, poiché Google monitorerà il tuo sito web senza problemi.

Non dobbiamo complicare la scansione delle pagine del nostro sito su Google. Esistono molti siti Web con errori sufficienti e persino con barriere create dai file robots.txt e sitemap.xml che impediscono a Google di accedere al contenuto. Se vogliamo migliorare il posizionamento nella classifica di Google, dobbiamo autorizzare e semplificare le pagine del sito Web in modo che Google possa accedere, indicizzare e posizionare rapidamente. Molto semplice.

Ormai avrai probabilmente notato una tendenza in questo articolo: le migliori pratiche per la tracciabilità tendono anche a migliorare la ricerca. Pertanto, se ti stai chiedendo se l'ottimizzazione del budget di scansione è importante per il tuo sito Web, la risposta è sì.

In poche parole, se rendi più facile a Google scoprire e indicizzare il tuo sito Web, ti godrai una maggiore scansione, il che significa aggiornamenti più rapidi quando pubblichi nuovi contenuti. Migliorerai anche l'esperienza utente complessiva, migliorando la visibilità e, in definitiva, la classifica delle SERP.

Questi sono solo alcuni dei punti, tra molti altri, per migliorare e ottimizzare il budget di scansione di un sito Web.

Esercitazioni

Scelta dell'editore

Back to top button