Feb 11 2015

HelpSemaforoQuesto semaforo indica il livello difficoltà del post
semaforo rosso - articolo per esperti

Cosa sono le analisi coorte?

autore: Marco Cilia categoria: report tag: , ,

Apparse negli account già da qualche giorno, soltanto oggi la pagina Google+ di GA ci rende edotti del fatto che le analisi coorte sono tra noi: le analisi CHE???

Le cohort analysis sono analisi basate sul tempo che servono a mettere in relazione il comportamento degli utenti che hanno manifestato un certo tratto in comune in un dato lasso temporale. Più facilmente, di solito, si tratta di guardare all’evolversi di una metrica da parte degli utenti che sono stati insieme sul sito in un dato momento.

Se vi ricordate, era già possibile fare qualcosa di simile usando una delle ultime feature dei nuovi e potenziati segmenti avanzati:

Schermata 2015-02-09 alle 23.07.56

Le analisi coorte sono simili, ma godono di una rappresentazione visuale tutta loro, e molto carina.
Esempio classico, ovvero come si presenta il report appena lo aprite: NON potete selezionare il range temporale, perché le coorte comprendono già un arco temporale tutto loro (ultimi 7, 14, 21 o 30 giorni): di default gli ultimi 7 giorni escluso oggi. Al momento l’unica coorte possibile è sulla data di acquisizione, cioè il primo giorno del periodo. La dimensione può essere il giorno, la settimana o il mese, la metrica predefinita è la fidelizzazione, cioè il fatto che gli stessi utenti tornino o meno sul sito nei giorni (settimane, mesi) successivi.

Quindi come si legge il report? innanzitutto si noteranno due cose, la prima è che il totale degli utenti non corrisponde al totale degli utenti unici del report PANORAMICA per lo stesso periodo. La seconda è che quel numero è la somma dei singoli giorni. ORRORE, direte voi – lo sanno anche i bambini che i visitatori unici non si sommano mai (cfr. the hotel problem)! corretto, se non che quel numero in realtà NON è il mero numero di visitatori unici di ogni giorno, ma credo si avvicini di più al numero di nuovi utenti.

Per ogni riga quindi viene indicato quanti dei nuovi utenti ritornano negli n giorni successivi. Variando la metrica il report varia di conseguenza, e la colorazione delle celle anche.
Si tratta di un report molto importante, che acquista ancora maggiore valore se utilizzato in una vista che fa uso dello USERID di Universal Analytics, che quindi sorpassa il problema dei device multipli e della moltiplicazione degli utenti.


Nov 24 2009

La mia presentazione al RWME

autore: Marco Cilia categoria: web analytics tag: , , , , ,

Io e Avinash al RWME

Ho avuto l’onore di fare una presentazione subito dopo Avinash Kaushik al Rimini Web Marketing Event 2009. E’ stata una emozione fortissima, e anche una fonte enorme di stress nei giorni precedenti. Per quanti non fossero presenti, riassumo qui i contenuti.

Il futuro della web analytics: orizzontale o verticale?

Dopo aver fatto un brevissimo riassunto di cosa è stata e cosa è oggi la web analytics, poiché non puoi capire chi sarai se non sai chi sei – ho iniziato a tratteggiare alcuni aspetti coi quali dovremo fare i conti prima o poi, partendo da una citazione di Eric Peterson.
La prima questione posta riguarda l’orizzontalità o la verticalità dei prossimi sistemi di WA: con sistema verticale indico strumenti in grado di analizzare nicchie particolari o ambiti molto ristretti e specifici (ad esempio BandMetrics, per i gruppi musicali e le case discografiche, o le statistiche demografiche della fan page su Facebook), con strumenti orizzontali indico sistemi omnicomprensivi in grado di analizzare la nostra presenza sul web più o meno ovunque essa si manifesti (le suite complete di Webtrends e Omniture, ad esempio). Poiché oggi usiamo troppi codici per tracciare tutto, e questo è male sia per noi che per gli utenti, la strada sembra abbastanza tracciata in favore dei sistemi orizzontali, perché spesso non ci servono strumenti diversi, ma viste diverse sugli stessi dati. Tra l’altro ho portato l’esempio di MeasureMap e Feedburner, due strumenti verticali che oggi sono integrati in Google Analytics e che lo rendono più orizzontale.

Integrazione

Altra questione interessante per il futuro della WA è l’integrazione dei dati: se torniamo all’esempio precedente, ha senso sapere che ho 20000 persone sulla fan page di Facebook e 15000 sul sito se poi non sono in grado di capire se 3/4 sono le stesse persone?
Ieri l’integrazione dei dati veniva fatta manualmente su Excel, oggi sono disponibili delle API che permettono di astrarre di un livello l’operazione, domani quando le fonti saranno ancora più numerose i sistemi di WA dovranno prendersi in carico l’onere di decidere un formato condiviso per l’integrazione e dovranno essere fornite di API bidirezionali, poiché non è detto che tutto vada integrato nel medesimo posto per tutti, le necessità saranno molteplici.

Manipolazione

Oggi la web analytics è sostanzialmente descrivibile con un diagramma di flusso: raccolta dei dati grezzi, analisi e memorizzazione, reportistica. Con il crescere delle fonti e delle necessità potrebbe diventare sempre più reale l’esigenza di manipolare direttamente i dati (grezzi o memorizzati, ma comunque prima della fase di reportistica). La manipolazione di ingenti quantità di dati richiede però potenza di calcolo e capacità di storage, che quindi si tramutano in costi infrastrutturali, richiede la presenza di qualcuno che si occupi di decidere quali sono le viste sui dati interessanti, e soprattutto si presta ad errori di manipolazione, che sono potenzialmente molto dannose per le decisioni di business legate alla web analytics.

Video Analytics

Che i video siano ormai un grande veicolo di marketing e fonte di visite è cosa nota, e come tutte le cose che hanno a che fare con il marketing e la promozione, i risultati vanno misurati. Al momento Youtube fornisce qualche informazione tramite Insights, ma non è abbastanza. Shinystat ha in corso di brevetto una tecnologia per mostrare i punti di interesse sul video, sicuramente interessante, ma visto che in futuro non si potrà prescindere dal video, non si potrà prescindere dalla video analytics. Oggi analizziamo video in molte forme (su portali terzi come Youtube, Vimeo, ecc o sui nostri siti, sia “statitici” che in streaming) ma sappiamo sempre a priori che un video ci sarà. Domani avremo bisogno di tracciare anche streaming che partono in tempo reale (avete mai usato Qik o Livestream?).
Inoltre alcuni banner evolveranno in video, quindi sarà necessario analizzare anche il comportamento degli utenti su di essi e comunque video professionali richiedono un budget generoso e meritano un calcolo molto puntuale del ritorno dell’investimento.

Mobile Analytics

Il web fruito da mobile ha tassi di crescita elevati e una penetrazione dilagante, complici gli abbassamenti dei costi di connessione. Per contro quasi tutti i fruitori di smartphone evoluti sono propensi alla spesa (si pensi al mercato delle applicazioni per Iphone e Android, ad esempio). Come stimolo ulteriore per l’analisi mobile vi è il fatto che la fruizione da mobile ha necessità completamente diverse da quelle desktop. Esigenze del navigatore da telefonino sono reperire informazioni, più che svagarsi, la navigazione è tipicamente “mordi e fuggi” con alto tasso di rimbalzo, che quindi non sempre va interpretato con una negativa esperienza utente.
I tempi sono quindi spesso piccolissimi, il fruitore mobile non aspetta che la pagina si carichi per gli stessi minuti di un utente desktop, ha fretta; si collega a qualunque ora del giorno e della notte (anzi, spesso più la sera quando non ha il computer dell’ufficio), e anche se è perennemente connesso a internet fa visite di pochi minuti, se non di pochi secondi. Infine la connessione avviene ovunque ci sia necessità di avere un’informazione, in piedi, sull’autobus, in macchina, al ristorante.

App Analytics

Con App Analytics intendo la possibilità di tracciare puntualmente cosa un utente di smartphone fa sulle applicazioni create da noi, e non necessariamente legate al web. Addirittura ipotizzando che il tracciamento possa avvenire senza una connessione internet, quindi in differita, e i dati possano essere inviati al sistema di analisi alla prima occasione utile, operazione che ridurrebbe un po’ l’efficacia dell’analisi, ma sempre meglio che non avere nessun dato. Un utente appena fidelizzato di un albergo (quelli di lunga data alzano il telefono o prenotano di anno in anno infatti) potrebbe avere il piacere di avere un’applicazione che gli consenta in tempo reale di verificare se in una certa data è disponibile una camera, magari perché sta consigliando l’hotel a un amico. Tracciarlo significherebbe avere a disposizione un’informazione su un desiderio e una necessità che non verrebbero espressi con una azione classica (una visita sul sito e/o una conversione).

Phone Tracking

Oggi tracciare le telefonate generate da un sito web è una operazione piuttosto farraginosa, basata su questionari individuali fatti al momento della chiamata e poco integrati con i sistemi di web analytics. La via più semplice è quella di mettere sul sito un numero differente e capire quanti lo usano, ma in futuro si diffonderanno sistemi come Mongoose e Adinsights, che mostrano numeri differenti a persone differenti e quindi sanno sempre puntualmente quale pagina ha generato quale chiamata. Questo porta ad una unificazione dei dati on e offline, e permette di recuperare audience del sito che normalmente sfugge ai sistemi di tracciamento. Inoltre in questo modo il calcolo del ritorno dell’investimento sul sito è più puntuale e comprende anche i lead generati con un sistema tradizionale come il telefono. E questo per non parlare del Voice-over-IP, su cui però non ho ancora riflettuto abbastanza 🙂

Game Analytics

Il tema della game analytics lo avevo già affrontato su questo blog, ve ne ricorderete. Dopo ho avviato una discussione (invero piuttosto lenta, per via dei miei impegni) con Federico Fasce di Urustar sul valore dei sistemi di achievement, e direi che siamo concordi nel dire che un trofeo ha un alto valore di convincimento nel giocatore/utente, e che dare un trofeo a fine livello dopo una certa serie di operazioni è sostanzialmente uguale al registrare un obiettivo sul sito dopo un funnel predefinito. Se in futuro ci sarà una integrazione tra il concetto di visitatore e di giocatore (per esempio perché un hotel mette sul sito un gioco con un palio una camera per un week end) si avranno a disposizione moltissime informazioni di qualità sulla persona.
Ovviamente quando parlo di game analytics non intendo solo e soltanto i metaversi con avatar 3D, alla second life, ma in generale tutti i giochi online. Ho portato l’esempio di Pet Society su Facebook, che solo all’apparenza è un giochino futile, e invece porta parecchio denaro alla Playfish che lo realizza, poiché si possono acquistare con denaro vero oggetti per il proprio pupazzetto. Inoltre la Playfish ha a disposizione le informazioni demografiche di tutti i giocatori, e così torniamo al discorso del verticale.
Per quel che invece concerne strettamente i metaversi, la possibilità di sapere dove i giocatori si soffermano e dove guardano porterà il vantaggio competitivo di poter proporre la creatività corretta alla persona giusta nel momento giusto e nel posto giusto!

Everything goes digital

Al giorno d’oggi tutto sta diventando digitale e massivo. Ho portato l’esempio dell’audiocassetta, che da qualche anno si è trasformata in mp3, e oggi è podcast, fruibile in massa via internet (quindi tracciabile). Poi mi sono spinto oltre, indicando il libro cartaceo, che prima è divenuto brevemente pdf e oggi è ebook, fruibile in massa e via internet. Sicuramente tracciare il download di un ebook (ma anche di un pdf) è cosa buona e giusta, ma domani, quando gli ebook reader tipo Kindle saranno molto più diffusi e connessi, si potrà sapere anche quante persone hanno effettivamente letto l’ebook, fino a che pagina sono arrivati (quindi se era interessante in toto o solo in parte) e addirittura se qualcuno ha sottolineato un certo passaggio – e quale – a che pagina.

Ultima suggestione

Se tutto è digitale, tutto è misurabile. Come ultima suggestione, che ho saltato per mancanza di tempo, volevo portare il nuovo Google Chrome OS, presentato qualche giorno fa. Il nuovo sistema operativo di Mountain View fa il boot in sette secondi e serve sostanzialmente per facilitare le persone a fare quel che Google preferisce facciano: stare online. Al suo interno tutto avverrà online, comprese le applicazioni, che saranno appunto applicazioni web. Ma se sono “web” sono tracciabili e analizzabili!

Conclusione

La conclusione che ho tratto è che secondo me la definizione di web è una cosa che sta velocemente perdendo senso: ci riferiamo ad esso perché ci siamo affezionati, ma la realtà è che la rete è sempre più pervasiva (beh, io comunque ho quattro connessioni ad internet, comprendendo anche quella aziendale che non pago di tasca mia) e che entrerà in un numero sempre maggiore di dispositivi. Penso che domani dovremo imparare a chiamare la nostra attività semplicemente “ANALYTICS” perché avrà a che fare con il web solo marginalmente. Il consiglio che do a tutti è di iniziare a fare bene adesso web analytics, perché domani con l’analytics ci sarà da divertirsi parecchio.

[photo credit: marcoziero on flickr


Jun 16 2008

I tempi di analisi dei dati

autore: Marco Cilia categoria: generale tag: , ,

OrologiUna delle maggiori critiche che mi sento opporre quando parlo di Google Analytics suona circa come “si, ma non è in tempo reale”. Questo è indubbiamente vero, ma molto meno di quanto si sospetti.

Innanzitutto sarebbe utile fare un esame della propria attività e chiedersi se è realmente necessario avere i dati in tempo reale: molto spesso infatti il desiderio delle persone è di avere i dati fino all’ultimo minuto quelle due o tre volte alla settimana in cui sbirciano le statistiche. Il dato real-time invece è pensato (e dovrebbe essere rivolto) a chi fa web analytics di mestiere e sta tutto il giorno con i dati aggiornati davanti, dovendo decidere in tempo reale modifiche alla strategia o ai budget o dovendo tenere sotto controllo le vendite minuto per minuto.
Questo come premessa generale, non è mia intenzione dire a nessuno come deve fare analisi, ma vorrei solo porre l’accento sul fatto che larga parte di chi mi pone questa obiezione non lo fa perché ne ha realmente bisogno, ma per sottolineare una mancanza di GA.

Mancanza che, come dicevo prima, è molto minore di come appare. Quando accediamo ai rapporti, GA ci mostra per impostazione predefinita (e ahimé immutabile) gli ultimi 30 giorni di dati, partendo dal giorno precedente, e questo basta a molte persone per pensare che i dati siano fermi, e che i dati di oggi saranno disponibili domani. Tramite una semplice selezione nel calendario è possibile rendersi conto che le cose stanno diversamente: selezionando la data odierna infatti il sistema ci mostra i dati di oggi in modo incompleto, sottostando a queste tre regole:

  1. i dati sono fermi a tre ore prima il momento in cui li si visualizza
  2. i dati si aggiornano ogni ora
  3. i dati possono variare entro 24 ore

Per capire come mai questo accade è necessario fare un ulteriore passo nella comprensione del percorso che i dati fanno da quando il vostro sito viene visualizzato a quando voi guardate i report, percorso che ho iniziato a spiegare nel post “l’ordine è importante“. Quando si richiama la gif trasparente __utm.gif da http://www.google-analytics.com in realtà non si sta interrogando un solo server. www.google-analytics.com viene risolto dai dns in www-google-analytics.l.google.com, che è un round robin di server sparsi per la rete: facendo un nslookup da vari server nel mondo si ottengono indirizzi IP differenti, per minimizzare il percorso che i dati trasmessi dai client dei visitatori devono fare. E’ quindi assolutamente normale che un visitatore italiano e un visitatore cinese “sparino” i dati dello stesso codice di Analytics su due server Google differenti.

Una volta ogni ora Google li recupera dalle sue macchine in giro per il mondo e li analizza, e a causa del numero di analisi necessarie li presenta con tre ore di ritardo. Inoltre, poiché non è garantito che il recupero dei dati avvenga da tutti i server del mondo, ogni 24 ore Google Analytics effettua una rianalisi del giorno precedente per colmare eventuali lacune e garantire la solidità del dato. Per questo motivo i dati vanno considerati definitivi solo dal giorno successivo, e per questo motivo all’accesso Google presenta gli ultimi 30 giorni escludendo la data odierna.