Aug 03 2011

HelpSemaforoQuesto semaforo indica il livello difficoltà del post
semaforo giallo - articolo avanzato

Traccia i bot in Google Analytics

autore: categoria: javascript tag: ,

Google Analytics, ormai dovrebbero saperlo anche i muri, è un sistema di web analytics basato su un codice javascript, motivo per cui i bot non vengono tracciati (con qualche rara eccezione). Quando durante i miei corsi avanzati parlo dello snippet di codice dedicato al tracciamento dei siti mobili, spiegando che è completamente lato server e non ha bisogno di javascript, i presenti più attenti subito incalzano con la domanda “ma allora con quello script si potrebbero tracciare anche gli spider?”. La risposta è no – o almeno lo era quando feci la prova direttamente – perché Google sembra applicare una sorta di filtro per non sporcare i dati delle vere visite.

A livello puramente sperimentale già qualche anno fa lessi di qualcuno che aveva riprodotto le chiamate alla gif di 1×1 pixel che serve al tracciamento senza avvalersi del codice di tracciamento di GA, ma la cosa era morta lì: il codice di Analytics cambia, anche le chiamate cambiano, e cmq un SEO ha metodi più efficaci e robusti per controllare quel che fanno gli spider sul proprio sito. Tuttavia non posso non segnalarvi questo articolo di Cardial Path, che fornisce uno script php già pronto che combina il codice di tracciamento dei siti mobili con alcune modifiche fatte da loro, per permettervi di avere anche i crawler nelle vostre statistiche di Google Analytics.

Come prima cosa è consigliato creare un nuovo profilo. Non un profilo copia – che usa lo stesso codice UA dell’originale – ma un nuovo profilo con un nuovo UA. Poi bisogna scaricare il file dal loro sito e decomprimerlo sul proprio computer. Bisogna copiare il contenuto del file sample.php nel proprio sorgente php (tutte le pagine, ovviamente), sostituendo alla riga 5 il proprio account UA-XXXXXX-YY (mi raccomando, UA e non MO) ed eventualmente modificare la riga 6 con il percorso al file ga.php in accordo alla sua posizione sul server. Dopo aver copiato la cartella sul server se tutto è stato configurato per bene inizierete a vedere le visite degli spider nel nuovo profilo creato.

Poiché gli spider non hanno sorgente – vengono di loro spontanea volontà – l’autore dello script ha pensato di usare la sorgente per memorizzare lo User Agent del bot, per averlo a portata di mano nei report drilldown. Inoltre ovviamente il post di Cardinal PAth ci ricorda di focalizzarsi sulle pagine viste e non sulle visite (dato che oltre a non eseguire javascript, i bot mal digeriscono anche i cookies). L’ultima nota riguarda il fatto che per ogni pageview il codice invia anche una variabile personalizzata, di livello pagina appunto, con il timestamp al secondo di quando è stata richiesta, così da sapere chi guarda cosa e quando 🙂

Condividi l'articolo:

3 Commenti

  1. Ciao a tutti,
    io ho provato ad installare il codice e funziona alla grande. Unico limite è che lo script fornisce sempre un cookie _utma identico (999.999.999.999.999.1). Facendo così, una volta raggiunte le 500 hit, si stoppa il tracciamento.

    Ho quindi modifcicato il codice ed ora il valore di _utma è generato dinamicamente.

    E’ l’unica soluzione che mi è venuta in mente. Qualcuno ha provato in altro modo?

  2. secondo me non cambia niente. I bot normalmente non accettano i cookie, quindi il conteggio non lo fa il cookie. Il conteggio lo fa lo script da solo ( http://www.goanalytics.info/nuovo-parametro-utms-nelle-richieste/ ) e quindi siamo daccapo.

  3. Sì, giusto, il conteggio lo fa lo script da solo.
    Il problema è che dentro lo script c’è una riga di codice che setta il cookie _utma sempre identico a se stesso.
    Ed è quella riga di codice che va cambiata rendendo dinamico _utma.

Scrivi un Commento