Diego Fernando Torres » Blog di Monetizzazione » 18 modi per migliorare la SEO

18 modi per migliorare la SEO

Cercavi un servizio di LinkBuilding o per acquistare backlinks di quilità italiana? Scopri i dettali sui link.

Hai lavorato molto sul tuo sito web e non vedi l’ora di vederlo in cima alla ricerca. Tuttavia, i tuoi contenuti stanno lottando per superare l’ostacolo della decima pagina. Se hai ottimizzato i tuoi contenuti e sei sicuro che il tuo sito web meritasse di essere classificato più in alto, il problema potrebbe esistere all’interno della scansione del tuo sito web.

Cos’è la crawlability? I motori di ricerca utilizzano i bot di ricerca per raccogliere determinati parametri delle pagine del sito web. Il processo di raccolta di questi dati è chiamato scansione. Sulla base di questi dati, i motori di ricerca includono pagine nel loro indice di ricerca, il che significa che la pagina può essere trovata dagli utenti. La crawlability del sito web è la sua accessibilità per i bot di ricerca. Devi essere sicuro che i robot di ricerca saranno in grado di trovare le pagine del tuo sito web, ottenerne l’accesso e poi “leggerle”.

Inoltre suddividiamo questi problemi in due categorie: quelli che puoi risolvere da solo e quelli che devi coinvolgere uno sviluppatore o un amministratore di sistema per problemi tecnici SEO o siti web più intensivi. Ovviamente, tutti noi abbiamo background e competenze diverse, quindi prendi questa categorizzazione in modo provvisorio.

Cosa intendiamo per “risolvi da solo”: puoi gestire il codice delle pagine del tuo sito web e i file di root. È inoltre necessario avere una conoscenza di base della codifica (modificare o sostituire un pezzo di codice nel posto giusto e nel modo giusto).

Cosa si intende per “delegare a uno specialista”: sono richieste capacità di amministrazione del server e / o sviluppo web.

Problemi con i meta tag o il file robots.txt

Questo tipo di problemi è abbastanza facile da rilevare e risolvere semplicemente controllando i meta tag e il file robots.txt, motivo per cui dovresti prima esaminarlo. L’intero sito web o alcune pagine possono rimanere invisibili a Google per un semplice motivo: i suoi crawler del sito non sono autorizzati a inserirli.

Esistono diversi comandi bot che impediscono la scansione della pagina. Tieni presente che non è un errore avere questi parametri in robots.txt; utilizzati in modo corretto e accurato, questi parametri aiuteranno a risparmiare un budget di scansione e forniranno ai bot la direzione esatta che devono seguire per eseguire la scansione delle pagine che si desidera sottoporre a scansione.

1. Blocco dell’indicizzazione della pagina tramite il meta tag robots

Se lo fai, il bot di ricerca non inizierà nemmeno a guardare il contenuto della tua pagina, passando direttamente alla pagina successiva.

Puoi rilevare questo problema controllando se il codice della tua pagina contiene questa direttiva:

2. Link NoFollow

In questo caso, il crawler del sito indicizzerà il contenuto della tua pagina ma non seguirà i link. Esistono due tipi di direttive no follow:

  • per l’intera pagina. Controlla se ce l’hai

    nel codice della pagina: ciò significherebbe che il crawler non può seguire alcun collegamento nella pagina.

  • per un unico collegamento. Ecco come appare il pezzo di codice in questo caso:

href = “https://www.semrush.com/blog/crawlability-issues/pagename.html” rel = “nofollow” />

3. Blocco dell’indicizzazione delle pagine tramite robots.txt

Robots.txt è il primo file del tuo sito web che i crawler guardano. La cosa più dolorosa che puoi trovare è:

Agente utente: * Disallow: /

Significa che tutte le pagine del sito web sono bloccate dall’indicizzazione.

Potrebbe accadere che solo alcune pagine o sezioni siano bloccate, ad esempio:

Agente utente: * Disallow: / products /

In questo caso, qualsiasi pagina nella sottocartella Prodotti sarà bloccata dall’indicizzazione e, pertanto, nessuna delle descrizioni dei tuoi prodotti sarà visibile in Google.

Collegamenti interrotti interni

I collegamenti interrotti sono sempre una brutta esperienza per i tuoi utenti, ma anche per i crawler. Ogni pagina che il bot di ricerca sta indicizzando (o che tenta di indicizzare) rappresenta una spesa per il budget di ricerca per indicizzazione. Con questo in mente, se hai molti collegamenti interrotti, il bot sprecherà tutto il suo tempo per indicizzarli e non arriverà a pagine pertinenti e di qualità.

Il rapporto sugli errori di scansione in Google Search Console o il controllo dei collegamenti interni interrotti in SEMrush Site Audit ti aiuteranno a identificare questo tipo di problemi.

4. Errori URL

Un errore URL è solitamente causato da un errore di battitura nell’URL che inserisci nella tua pagina (link testuale, link immagine, link modulo). Assicurati di controllare che tutti i link siano digitati correttamente.

5. URL obsoleti

Se di recente hai subito una migrazione del sito web, un’eliminazione in blocco o una modifica della struttura dell’URL, devi ricontrollare questo problema. Assicurati di non collegare a URL vecchi o eliminati da nessuna delle pagine del tuo sito web.

6. Pagine con accesso negato

Se vedi che molte pagine del tuo sito web restituiscono, ad esempio, un codice di stato 403, è possibile che queste pagine siano accessibili solo agli utenti registrati. Contrassegna questi collegamenti come nofollow in modo da non sprecare il budget di scansione.

Problema relativo al server (5xx)

7. Errori del server

Un numero elevato di errori 5xx (ad esempio errori 502) può essere un segnale di problemi del server. Per risolverli, fornire l’elenco delle pagine con errori alla persona responsabile dello sviluppo e della manutenzione del sito web. Questa persona si prenderà cura dei bug o dei problemi di configurazione del sito Web che causano gli errori del server.

8. Capacità del server limitata

Se il tuo server è sovraccarico, potrebbe smettere di rispondere alle richieste degli utenti e dei bot. Quando accade, i tuoi visitatori ricevono il messaggio “Connessione scaduta”. Questo problema può essere risolto solo insieme allo specialista della manutenzione del sito web che valuterà se e quanto aumentare la capacità del server.

9. Errata configurazione del server Web

Questa è una questione delicata. Il sito può essere perfettamente visibile a te come essere umano, ma continua a fornire un messaggio di errore ai crawler del sito, quindi tutte le pagine non sono disponibili per la scansione. Può accadere a causa di una specifica configurazione del server: alcuni firewall per applicazioni web (ad esempio, Apache mod_security) bloccano il bot di Google e altri bot di ricerca per impostazione predefinita. In poche parole, questo problema, con tutti gli aspetti correlati, deve essere risolto da uno specialista.

La Sitemap, insieme a robots.txt, conta per la prima impressione per i crawler. Una mappa del sito corretta consiglia loro di indicizzare il tuo sito nel modo in cui desideri che venga indicizzato. Vediamo cosa può andare storto quando il bot di ricerca inizia a guardare le tue mappe del sito.

Problemi con XML Sitemap

10. Errori di formato

Esistono diversi tipi di errori di formato, ad esempio URL non validi o tag mancanti (vedere l’elenco completo, insieme a una soluzione per ogni errore, Qui).

Potresti anche aver scoperto (al primo passaggio) che il file della mappa del sito è bloccato da robots.txt. Ciò significa che i bot non hanno potuto accedere al contenuto della mappa del sito.

11. Pagine sbagliate nella mappa del sito

Passiamo al contenuto. Anche se non sei un programmatore web, puoi stimare la pertinenza degli URL nella mappa del sito. Dai un’occhiata da vicino agli URL nella tua mappa del sito e assicurati che ognuno di essi sia: pertinente, aggiornato e corretto (senza errori di battitura o errori di stampa). Se il budget di scansione è limitato e i bot non possono passare attraverso l’intero sito Web, le indicazioni della mappa del sito possono aiutarli a indicizzare prima le pagine più preziose.

Non indurre in errore i bot con istruzioni controverse: assicurati che gli URL nella tua sitemap non siano bloccati dall’indicizzazione da meta direttive o robots.txt.

Errori con l’architettura del sito web

I problemi di questa categoria sono i più difficili da risolvere. Questo è il motivo per cui ti consigliamo di eseguire i passaggi precedenti prima di passare ai seguenti problemi.

Questi problemi relativi all’architettura del sito possono disorientare o bloccare i crawler nel tuo sito web.

12. Problemi con i collegamenti interni

In una struttura del sito web correttamente ottimizzata, tutte le pagine formano una catena indissolubile, in modo che i crawler del sito possano raggiungere facilmente ogni pagina.

In un sito Web non ottimizzato, alcune pagine sfuggono alla vista dei crawler. Le ragioni possono essere diverse, che puoi facilmente rilevare e classificare utilizzando lo strumento Site Audit di SEMrush:

  • La pagina che desideri classificare non è collegata a nessun’altra pagina del sito web. In questo modo non ha alcuna possibilità di essere trovato e indicizzato dai bot di ricerca.
  • Troppe transizioni tra la pagina principale e la pagina che desideri classificare. Una pratica comune è una transizione a 4 link o meno, altrimenti c’è la possibilità che il bot non ci arrivi.
  • Più di 3000 link attivi in ​​una pagina (troppo lavoro per il crawler).
  • I collegamenti sono nascosti in elementi del sito inindicabili: moduli di invio, frame, plugin (Java e Flash in primis).

Nella maggior parte dei casi, il problema del collegamento interno non è qualcosa che puoi risolvere in un batter d’occhio. È necessaria una revisione approfondita della struttura del sito Web in collaborazione con gli sviluppatori.

13. Reindirizzamenti errati

I reindirizzamenti sono necessari per inoltrare gli utenti a una pagina più pertinente (o, meglio, quella che il proprietario del sito web ritiene rilevante). Ecco cosa puoi trascurare quando lavori con i reindirizzamenti:

  • Reindirizzamento temporaneo anziché permanente: L’utilizzo di reindirizzamenti 302 o 307 è un segnale per i crawler di tornare alla pagina, ancora e ancora, spendendo il budget di scansione. Quindi, se capisci che la pagina originale non ha più bisogno di essere indicizzata, usa il reindirizzamento 301 (permanente) per essa.

  • Redirect loop: Può accadere che due pagine vengano reindirizzate l’una all’altra. Quindi il bot rimane intrappolato in un loop e spreca tutto il budget di ricerca per indicizzazione. Ricontrolla e rimuovi eventuali reindirizzamenti reciproci.

14. Velocità di caricamento lenta

Più velocemente si caricano le tue pagine, più velocemente il crawler le attraversa. Ogni frazione di secondo è importante. E il sito web la posizione in SERP è correlata alla velocità di carico.

Uso Google PageSpeed ​​Insights per verificare se il tuo sito web è abbastanza veloce. Se la velocità di caricamento può scoraggiare gli utenti, possono esserci diversi fattori che la influenzano.

Fattori lato server: il tuo sito web potrebbe essere lento per un semplice motivo: l’attuale larghezza di banda del canale non è più sufficiente. Puoi controllare la larghezza di banda nella descrizione del tuo piano tariffario.

Fattori di front-end: uno dei problemi più frequenti è il codice non ottimizzato. Se contiene script e plug-in voluminosi, il tuo sito è a rischio. Inoltre, non dimenticare di verificare regolarmente che le tue immagini, video e altri contenuti simili siano ottimizzati e non rallentino la velocità di caricamento della pagina.

15. Duplicati di pagina causati da una scarsa architettura del sito web

Il contenuto duplicato è il problema SEO più frequente, riscontrato nel 50% dei siti secondo il recente studio SEMrush “11 problemi SEO più comuni in loco”. Questo è uno dei motivi principali per cui esaurisci il budget di scansione. Google dedica un tempo limitato a ciascun sito Web, quindi è improprio sprecarlo indicizzando lo stesso contenuto. Un altro problema è che i crawler del sito non sanno quale copia fidarsi di più e potrebbero dare la priorità alle pagine sbagliate, a patto che non si utilizzino i canonici per chiarire le cose.

Per risolvere questo problema è necessario identificare le pagine duplicate e impedirne la scansione in uno dei seguenti modi:

16. Utilizzo errato di JavaScript e CSS

Eppure nel 2015 Google ha dichiarato ufficialmente: “Finché non impedisci a Googlebot di eseguire la scansione dei tuoi file JavaScript o CSS, siamo generalmente in grado di visualizzare e comprendere le tue pagine web come i browser moderni. ” Tuttavia, non è rilevante per altri motori di ricerca (Yahoo, Bing, ecc.). Inoltre, “generalmente” significa che in alcuni casi la corretta indicizzazione non è garantita.

Tecnologie obsolete nel web design

17. Contenuto Flash

L’uso di Flash è una pista scivolosa sia per l’esperienza dell’utente (i file Flash non sono supportati in alcuni dispositivi mobili) che per il SEO. È improbabile che un contenuto di testo o un collegamento all’interno di un elemento Flash venga indicizzato dai crawler.

Quindi ti suggeriamo semplicemente di non usarlo sul tuo sito web.

18. Frame HTML

Se il tuo sito contiene frame, ci sono buone e cattive notizie che ne derivano. Va bene perché questo probabilmente significa che il tuo sito è abbastanza maturo. È negativo perché i frame HTML sono estremamente obsoleti, scarsamente indicizzati e devi sostituirli con una soluzione più aggiornata il più velocemente possibile.

Delega la routine quotidiana, concentrati sull’azione

Non sono necessariamente parole chiave sbagliate o problemi relativi ai contenuti che ti tengono fluttuante sotto il radar di Google. Una pagina perfettamente ottimizzata non è una garanzia che la otterrai classificata tra le prime (e classificata affatto) se il contenuto non può essere consegnato al motore a causa di problemi di scansione.

Per capire cosa sta bloccando o disorientando i crawler di Google sul tuo sito web, devi rivedere il tuo dominio dalla zuppa alla frutta secca. È uno sforzo faticoso farlo manualmente. Questo è il motivo per cui dovresti affidare le attività di routine agli strumenti appropriati. Le soluzioni di controllo del sito più diffuse ti aiutano a identificare, classificare e assegnare priorità ai problemi, in modo da poter procedere all’azione immediatamente dopo aver ricevuto il rapporto. Inoltre, molti strumenti consentono di memorizzare i dati di audit precedenti, il che ti consente di ottenere un quadro generale delle prestazioni tecniche del tuo sito web nel tempo.

Sono contento che sei arrivato fin qui, puoi tornare alla sezione di Search Engine Optimization.

Cosa pensi di me?
Clicca per votare questo articolo!
[Total: 0 Average: 0]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *