Diego Fernando Torres » Blog di Monetizzazione » 6 modi per ridurre l’influenza dei bot sulle analisi di marketing

6 modi per ridurre l’influenza dei bot sulle analisi di marketing

Cercavi un servizio di LinkBuilding o per acquistare backlinks di quilità italiana? Scopri i dettali sui link.

Una recente analisi dell’utilizzo di Internet ha scoperto che nel primo trimestre del 2016 sono state rappresentate fonti non umane circa il 48 percento di tutto il traffico a migliaia di siti. Questi visitatori non umani potrebbero essere crawler dei motori di ricerca che indicizzano un sito per Google, script innocui utilizzati per automatizzare i processi o codici hacker più nefasti che fanno di tutto, dalla frode dei clic agli attacchi informatici in piena regola.

Qualunque cosa siano, però, non sono umani. Per chiunque tenti di ottenere pura analisi dei clienti per un sito Web, questo è un problema.

Il problema del Big Bot

Attribuire quasi la metà del traffico online a bot e crawler sembra oltraggioso per chiunque abbia passato del tempo a studiare i servizi di analisi dei siti web. La maggior parte di questi servizi, come Google Analytics e Adobe Analytics, filtra il traffico di bot e crawler conosciuti prima che il numero raggiunga l’utente, il che può dare sia agli esperti di marketing che agli analisti false impressioni sulla quantità di traffico non umano del sito web.

Per definizione, bot e crawler sono più attivi degli umani. I robot non dormono mai e la nostra ricerca interna ha recentemente scoperto che producono 80 volte più clic e traffico rispetto agli esseri umani. Ciò significa che per ogni clic che un essere umano fa, un bot ne fa 80, complicando ulteriormente la ricerca di analisi affidabili.

I bot di oggi sono molto più avanzati di quelli di pochi anni fa. Sono strumenti automatizzati a basso costo in grado di imitare il comportamento umano. Non sono più limitati alla frode sui clic: ora sono in grado di commentare i contenuti, scaricare software, ritwittare messaggi e persino acquistare prodotti.

I robot moderni sono in grado di farlo perché sono più bravi a eludere i filtri progettati per eliminare il traffico disumano, ma possono essere catturati. Sfortunatamente, molte reti pubblicitarie, affiliati ed editori sono riluttanti a tagliare i bot dai loro rapporti perché i numeri più alti hanno un aspetto migliore, il che ha un effetto negativo sul ROI pubblicitario.

I robot si comportano male

Il costo per acquisizione e il costo per lead sono gli unici modelli pubblicitari che fanno più affidamento sui dati degli inserzionisti che sui dati della rete pubblicitaria o della piattaforma pubblicitaria. I clic e le impressioni di bot falsi aumentano i numeri del costo per clic e del costo per mille impressioni, aumentando le tariffe degli annunci e rendendo la fiducia degli inserzionisti una merce rara.

Alternative migliori alle campagne basate sui clic o sulle impressioni sono legare le campagne pubblicitarie a obiettivi di business concreti, come l’acquisizione di utenti, l’invio di moduli o le conversioni effettive, poiché questi sono generalmente riportati dall’inserzionista e basati sui propri numeri. Queste azioni di conversione riducono anche la probabilità di frode attraverso vari processi di verifica umana, come CAPTCHAs, convalide e-mail e verifica della carta di credito.

L’attività di crawler e bot può occupare molta larghezza di banda, rallentare un sito e talvolta persino bloccarlo con un attacco bot su vasta scala. Se i consumatori devono attendere più di qualche secondo per il caricamento di una pagina, abbandoneranno il sito prima ancora di avere la possibilità di navigarlo, effettuare un acquisto o completare un modulo di contatto, sprecando il budget di marketing che li ha attratti al sito in primo luogo.

Come battere i bot

Con bot e crawler che dipingono un’immagine distorta dell’utilizzo di Internet e complicano la capacità di analizzare il traffico web, cosa possono fare gli imprenditori per reagire?

1. Limita le loro opportunità.

Come prima linea di difesa, limita le aperture attraverso le quali i bot possono influenzare il tuo sito. Prova a richiedere ai visitatori di accedere per commentare il tuo blog, di chiudere parzialmente o completamente il tuo sito web, di aggiungere CAPTCHA ai moduli di contatto o di inviare email di verifica. Rendi difficile per i bot passare attraverso il tuo sito.

2. Impara i tell.

La maggior parte dei bot e dei crawler hanno conosciuto i tell. Cose come alte frequenze di rimbalzo, molto traffico da un singolo indirizzo IP e una quantità oltraggiosa di clic e visualizzazioni di pagina in breve tempo sono tutti indizi. Se scopri un bot che mostra queste tendenze, bloccalo a livello IP, ma fai attenzione a non bloccare uno dei crawler di ricerca che indicizzano il tuo sito poiché la tua apparizione nei risultati dei motori di ricerca organici dipende da loro.

3. Impiegare KPI rigorosi sulle attività di terze parti.

Valuta il rendimento delle tue iniziative di marketing in base ai lead e alle vendite generate, non alle impressioni o ai clic generali. Questi KPI sono più difficili da falsificare e forniscono un sottoinsieme di dati più umano che macchina, soprattutto dopo aver limitato gli ingressi dei bot nel tuo sito.

4. Trova set di dati umani.

Le società di analisi di marketing possono fornire analisi web e informazioni sulla concorrenza basate sull’attività di un panel di consumatori umani. Il pannello dati della mia azienda, ad esempio, contiene uno 0,02% negligente di dispositivi non umani, che identifichiamo sul dispositivo e sui livelli di attività. Fai la tua ricerca e consulta una fonte ampia e affidabile, quindi integra i dati con i tuoi per identificare dove le azioni non umane sono più comuni.

5. Riduci l’esperienza dei crawler.

Questa tattica porta molte controversie, poiché i motori di ricerca preferirebbero che gli sviluppatori trattassero i crawler come esseri umani per un’indicizzazione ottimale, ma limitare l’accesso ai crawler riduce la larghezza di banda assegnata alle loro attività e può aumentare la velocità di caricamento del sito per gli utenti reali. Non perdere affari a causa di un concorrente perché le tue pagine impiegano troppo tempo per caricarsi.

6. Aggiungi il tuo monitoraggio.

Completa il monitoraggio di terze parti con il tuo monitoraggio, identifica le discrepanze e comunicalo ai fornitori. Le reti pubblicitarie e gli affiliati in genere basano le proprie decisioni sui propri rapporti, ma aggiungere il proprio tracker / pixel / cookie nel sito o basare la propria relazione commerciale su azioni per le quali si hanno dati migliori (come lead e vendite effettive), può creare un partnership vantaggiosa.

Non lasciarti ingannare dai bot e dai crawler che potrebbero distorcere i tuoi dati. Imposta precauzioni, analizza attentamente e agisci rapidamente per assicurarti che le analisi che stai ricevendo siano quelle di cui hai bisogno.

Sono contento che sei arrivato fin qui, puoi tornare alla sezione di Search Engine Optimization.

Cosa pensi di me?
Clicca per votare questo articolo!
[Total: 0 Average: 0]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *