Diego Fernando Torres » Blog di Monetizzazione » Problemi di ottimizzazione della scansione e come risolverli #semrushchat

Problemi di ottimizzazione della scansione e come risolverli #semrushchat

Cercavi un servizio di LinkBuilding o per acquistare backlinks di quilità italiana? Scopri i dettali sui link.

I crawler (o “ragni”) sono script che Google e altri motori di ricerca utilizzano per cercare in ogni angolo della tua pagina web.

In questo modo sono in grado di comprendere lo scopo generale di una pagina e anche di decidere se è degna di essere inclusa nella SERP. Sfortunatamente, la scansione spesso restituisce diversi problemi ed errori, che impediranno agli spider di svolgere il loro lavoro e danneggeranno le tue classifiche.

In SEMrush Chat, abbiamo discusso diversi problemi di ottimizzazione della scansione e modi per risolverli Dawn Anderson @dawnieando e gli altri nostri partecipanti.

Un file robots.txt è un documento che ti consente di controllare come si comportano i crawler limitando l’accesso degli script a determinate pagine. Aiuta quando un sito web ha molti contenuti che non si comportano bene nella ricerca organica: pagine di download, pagine di “ringraziamento” specifiche, ecc.

Ricorda che l’aggiunta di un valore “noindex” alle tue pagine è pericoloso, perché questo potrebbe impedire la scansione dell’intero sito web

L’aggiunta di nuovi contenuti alla tua pagina web è sempre importante, perché segnala a Google che il tuo sito è in fase di sviluppo. Ma non dimentichiamoci delle Sitemap – dove dovrebbero essere menzionati tutti questi nuovi contenuti – e di altre importanti tecniche.

Il modo migliore per pensare ai link interni è come percorsi per i crawler; è importante ottimizzare la struttura dei link interni del tuo sito web. Evita di utilizzare i reindirizzamenti troppo spesso, perché così facendo potresti impedire ai crawler di indicizzare le pagine collegate.

Una struttura URL pulita e semplice è anche considerata uno dei principali fattori di ranking utilizzati da Google e da altri motori di ricerca.

A volte durante la fase di sviluppo del sito Web possono verificarsi più copie di alcune pagine, il che potrebbe causare errori perché i crawler non sanno quale copia considerare attendibile.

L’utilizzo dell’attributo “rel = canonical” corretto aiuta a evitare tali problemi.

I titoli sono importanti. Non sono, beh, non la prima, ma sicuramente la seconda o la terza cosa che i crawler esaminano per determinare quanto sarebbe utile una pagina per qualcuno che digita una query in una casella di ricerca. Ricorda di includere le parole chiave a cui ti rivolgi nel tuo e utilizza i tag appropriati per le tue pagine e pubblicazioni.

Visualizza come Google è uno strumento all’interno di Search Console; è molto utile quando un operatore di marketing vuole valutare una pagina come farebbe Google. Non dimenticare di inviare nuove pagine da indicizzare in modo che i crawler possano trovarle più rapidamente.

Considerando tutti i punti precedenti, le migliori tecniche per aiutare i crawler a indicizzare le pagine più velocemente sono: invio di sitemap, creazione di URL semplici SEO-friendly, collegamenti interni e utilizzo degli attributi rel = canonical corretti, reindirizzamenti e robots.txt.

Prima di risolvere i problemi di scansione comuni, ogni operatore di marketing deve prima identificarli. Quindi esattamente come lo fai? Abbiamo chiesto ai nostri partecipanti.

Le prime cose da considerare sono gli strumenti di Google Search Console che funzionano insieme ai crawler e supportano i professionisti del marketing con informazioni aggiornate sul processo di scansione. La prossima cosa che dovresti fare è utilizzare alcuni crawler di terze parti che simulano il comportamento di GoogleBot.

Ryan Johnson @ rsj8000 ha anche aggiunto che Strumenti per i Webmaster è un ottimo punto di partenza, quindi passa allo strumento Visualizza come Google e Urlando Rana è anche carino.

La maggior parte dei nostri partecipanti concorda sul fatto che gli strumenti nativi di Google sono quasi divini quando si tratta di determinare problemi ed errori e che se utilizzi anche bot di terze parti, renderai la tua pagina web il più amichevole possibile per i crawler.

Un approccio più tecnico consiste nel controllare i log del server e tracciare gli spider quando visitano la tua pagina web. Quali sono le tue trappole per ragni?

Stephen Kenwright @stekenwright aggiunge che Search Console è il migliore per il feedback qualitativo, i log del server sono i migliori per il feedback quantitativo. Dovresti vedere il problema in WMT e vedere la scala nei log per migliorare la pagina web per i crawler.

Ricapitoliamo tutte queste opinioni e tecniche. Per identificare le trappole degli spider, i SEO dovrebbero utilizzare GSC e ScreamingFrog per eseguire la scansione dei siti Web da soli.

Sopra abbiamo parlato di cosa dovrebbero fare le aziende per indurre i motori di ricerca a indicizzare quante più pagine possibile. La prossima cosa di cui parleremo è cosa dovrebbero fare per evitare di essere indicizzati. In quali situazioni ne abbiamo bisogno? Scopriamolo.

Agente Palmer (@AgentPalmer) è stato uno dei primi a rispondere e ha affermato che i contenuti temporanei (come alcune pagine promozionali o di destinazione) utilizzati per un breve periodo per i social media, potrebbero non voler eseguire la scansione.

Come accennato in precedenza, i contenuti duplicati possono essere un grosso problema per le aziende che stanno crescendo rapidamente, poiché potrebbero non essere in grado di gestire tutti i contenuti del proprio sito contemporaneamente. Alcuni di noi scelgono di utilizzare i tag rel = canonical, ma il modo più semplice per farlo è contrassegnare una determinata pagina con “noindex” nel suo file robots.txt.

Le aziende che rispettano i tuoi dati personali sono solitamente interessate alla sicurezza. Ecco perché alcuni di essi possono impedire ai crawler di ricerca di accedere a determinate pagine. Chris Desadoy @EliteYouTubePro notato che le aziende potrebbero anche non voler che le loro pagine di contatto vengano scansionate in profondità per altri ovvi motivi: spam. Ma dipende dalla compagnia.

In effetti, le pagine di aggregazione non sono degne di essere incluse in un indice, perché troppi link e parti di contenuto correlate confonderebbero gli spider e farebbero sì che Google assegnasse punti spam al profilo del tuo sito.

Allora perché evitare di essere indicizzati dai crawler dei motori di ricerca? Ci sono diversi motivi per cui dovresti: duplicare contenuti, dati utente riservati, problemi tecnici o pagine promozionali temporanee.

Un “budget di scansione” è la quantità di pagine che Google o altri motori di ricerca scansioneranno durante ogni visita. Maggiore è il budget di scansione, più visite del crawler riceverai. Pertanto, le tue possibilità di apparire vicino alla parte superiore delle pagine dei risultati dei motori di ricerca aumentano. Quindi, come misuri il tuo budget di ricerca per indicizzazione e cosa dovresti fare per aumentarlo?

Dan O Brian @DanBlueChief è stato il primo a rispondere a questa domanda condividendo un concetto utile racchiuso in sei semplici parole: prova e modifica, prova e modifica. E Google Search Console, che è stato menzionato da Sam Barnes @ Sam_Barnes90, ti aiuterà a monitorare le scansioni dopo aver apportato modifiche al fine di testare i risultati.

Tieni sempre presente la struttura e la gerarchia dei tuoi URL: poche pagine mirate sono meglio di migliaia di pagine inutili. Consenti articoli minori e altri contenuti per far crescere le tue pagine principali.

I reindirizzamenti non sono consigliati e nemmeno i collegamenti interrotti che restituiscono un errore 404 o contenuti duplicati. Un’altra cosa a cui prestare attenzione è la velocità di caricamento delle tue pagine. Mantieni veloce il tuo sito web e a Google piacerà.

Martin Kelly @MartinKSEO suggerito di utilizzare Ricerca su sito, uno dei comandi che costringono Google a restituire tutti i risultati per l’URL di un determinato sito Web nella casella di ricerca.

Un attributo Rel = “nofollow” aiuta a impedire agli spider di seguire un collegamento. Anche se può sembrare strano, viene utilizzato dai professionisti del marketing che desiderano migliorare il proprio budget di scansione. Lo scopo dell’aggiunta di un attributo è mantenere il peso della ricerca sulle pagine mirate. Segue una casella di controllo da Martin Kůra.

Per migliorare il budget di scansione, i professionisti del marketing dovrebbero ottimizzare la struttura e gli URL del proprio sito, rimuovere i 404, migliorare la velocità della pagina e ridurre al minimo i reindirizzamenti.

Sopra abbiamo menzionato Screaming Frog e Google Search Console, ma ci sono altri strumenti che i professionisti del marketing possono utilizzare per prevedere il comportamento del crawler e risolvere possibili problemi?

Ecco cosa hanno aggiunto i nostri partecipanti all’elenco.

Dopo una recente modifica nel design o nell’usabilità, potrebbe essere necessario che i crawler visitino nuovamente il tuo sito. Quali tecniche dovresti usare per attirarli? La domanda successiva rivela le migliori pratiche per riprogettare e modificare il tuo sito.

L’aggiunta di una nuova mappa del sito è una decisione semplice ma efficace. Puoi anche utilizzare un generatore automatico di Sitemap, ma dovresti sempre controllare manualmente le tue Sitemap automatizzate per evitare problemi critici o errori.

Visualizza come Google è uno strumento di prim’ordine qui, perché ha la capacità di inviare all’indice pagine nuove o ridisegnate. E GoogleBot li troverà molto rapidamente. Peter Nikolow suggerisce la seguente lista di controllo.

Secondo WildShark SEO @wildsharkseo, i professionisti del marketing inoltre non dovrebbero dimenticare di condividere nuovi contenuti sui social media. Stephen Kenwright @stekenwright ha suggerito Google+ come la migliore piattaforma da utilizzare, perché anche GoogleBot la visita.

In conclusione, vorremmo riassumere tutti i passaggi per ottenere la ripetizione della scansione di un sito Web il più rapidamente possibile dopo aver implementato un nuovo design o aggiunto nuovi contenuti: inviare una nuova mappa del sito, aggiungere collegamenti a qualsiasi nuovo contenuto, promuovere i nuovi contenuti sui social media e, infine, recupera e visualizza utilizzando Google Search Console.

Per oggi è tutto! Grazie per l’attenzione e per le brillanti risposte.

Un ringraziamento speciale va a Dawn Anderson @dawnieando per la sua esperienza. Ci vediamo mercoledì prossimo alla prossima chat di SEMrush per discutere di un nuovo argomento: “SEO e UX”.

Sono contento che sei arrivato fin qui, puoi tornare alla sezione di Search Engine Optimization.

Cosa pensi di me?
Clicca per votare questo articolo!
[Total: 0 Average: 0]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *