• User Attivo

    Confermo quanto detto da Riccardo: ho da poco preso una campgna con un big spender di telefonia e i click hanno un suffisso refer=unimagazine. Ho notato che la stessa campagna in altri siti, utilizza lo stesso identico sistema.

    Credo attualmente sia una delle migliori soluzioni per l'inserzionista...


  • User Attivo

    Interessante questa soluzione del "dichiarare" il referrer con un parametro che poi effettivamente non viene utilizzato dalle pagine, ma serve solo per tracciare.

    Cmq, il problema dei numeri che non tornano mai c'è sempre e sempre ci sarà.
    A mio avviso i numeri più precisi in assoluto li danno solo le analisi dei log. Li c'è l'attività reale del server. Qualsiasi cosa viene inviata ad un utente genera per forza una riga di log e da li non si scappa.
    Accessi dai siti esterni compresi.


  • User

    @Icelord said:

    Interessante questa soluzione del "dichiarare" il referrer con un parametro che poi effettivamente non viene utilizzato dalle pagine, ma serve solo per tracciare.

    Cmq, il problema dei numeri che non tornano mai c'è sempre e sempre ci sarà.
    A mio avviso i numeri più precisi in assoluto li danno solo le analisi dei log. Li c'è l'attività reale del server. Qualsiasi cosa viene inviata ad un utente genera per forza una riga di log e da li non si scappa.
    Accessi dai siti esterni compresi.

    Ice, solo una domanda. Si può capire dai log gli utenti unici? Io questa cosa non l'ho proprio capita, forse perchè non ho la piena conoscenza ti tutto ciò che si possa loggare (so che i log sono "personalizzabili").
    Grazie 🙂


  • User

    bhe quando ho scritto il codice per il mio sistema, ho approfondito molte cose. bisogna capire quale strategia e' stata usata per individuare un visitarore unico e come questo viene monitorato nel tempo.
    (ossia si puo' essere unici nella giornata ma non nella settimana per esempio)
    una tecnica sovrana non esiste ovviamente.

    per capire se un visitatore e' unico ci si puo' basare sulla unicità degli ip nell'arco della giornata

    ci puo' basare sulla creazione delle sessioni

    ed i risultati sono ovviamente molto differenti

    una tecnica che vi consiglio per avere una stima di attendibilità e' la seguente:

    se il vostro sito ha beccato x visite ed i visitatori unici sono y .. basta fare la media di pagine viste per visitatore unico... VU=x/y ora se il vostro sito contiene 5 pagine e dalla media risulta che VU e' molto maggiore.. bhe qualcosa non quadra e per avere conferma potete osservare il tempo di permanenza su ogni pagina e gli accessi per pagina.


  • User Attivo

    @Argema said:

    Ice, solo una domanda. Si può capire dai log gli utenti unici? Io questa cosa non l'ho proprio capita, forse perchè non ho la piena conoscenza ti tutto ciò che si possa loggare (so che i log sono "personalizzabili").
    Grazie 🙂

    Allora, dai log i dati che si possono ottenere sono tantissimi. Ecco uno schema:

    Data ed Ora
    IP del client
    Username (se l'utente è autenticato con i sistemi previsti dal sistema operativo)
    Tempo impiegato per soddisfare la richiesta
    Useragent (che si porta dietro anche il sistema operativo)
    Byte inviati
    Byte ricevuti (non serve quasi a nulla)
    Referer (ed eventuale query string)
    URI richiesta
    URI Query (sempre richiesta)
    Cookie

    Ci sono anche altri dati, ma sono poco utili. Per avere un esempio completo vi pubblico qualche riga di log.

    
    #Fields: date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) cs(Cookie) cs(Referer) sc-status sc-substatus sc-win32-status sc-bytes cs-bytes 
    
    2007-02-23 12:51:34 W3SVC1833263418 88.149.157.134 GET /index.php - 80 - xx.xx.xxx.171 Mozilla/5.0+(Windows;+U;+Windows+NT+5.1;+it;+rv:1.8.1.1)+Gecko/20061204+Firefox/2.0.0.1 __utmz=99245389.1170693909.9.3.utmccn=(referral)|utmcsr=giorgiotave.it|utmcct=/forum/software-per-e-commerce/28387-errato-acquisto-pessimo-e-commerce-aiuto.html|utmcmd=referral;+__utma=99245389.980414501.1164982057.1170338090.1170693909.9 http://www.haloscan.com/comments/sbrana/rw_unique_entry_id_95_page0/ 200 0 0 45722 744
    
    
    

    Facendo l'anatomia del dato pubblicato:
    Data ed orario: 2007-02-23 12:51:34
    Nome del sito, riferimento interno di IIS: W3SVC1833263418
    IP dell'host (il server): 88.149.157.134
    Motodo utilizzato: GET (vuol dire che è una richiesta di pagina)
    Pagina richiesta: /index.php
    Query fatta: - (Nessuna)
    Porta del server: 80
    Username: - (nessuno, sarebbe utente anonimo)
    Ip del client: xx.xx.xxx.171
    Browser+sistema operativo+altro: Mozilla/5.0+(Windows;+U;+Windows+NT+5.1;+it;+rv:1.8.1.1)+Gecko/20061204+Firefox/2.0.0.1
    Cookie dell'utente (poi ci tornerò su): __utmz=99245389.1170693909.9.3.utmccn=(referral)|utmcsr=giorgiotave.it|utmcct=/forum/software-per-e-commerce/28387-errato-acquisto-pessimo-e-commerce-aiuto.html|utmcmd=referral;+__utma=99245389.980414501.1164982057.1170338090.1170693909.9
    Referer (sito di provenienza): http://www.haloscan.com/comments/sbrana/rw_unique_entry_id_95_page0/
    Status: 200 (vuol dire che òa pagina èstata servita correttamente
    Substato e stato win32: 0 (non saprei)
    Byte trasmessi: 45722 (la pagina è di 44,65 Kbyte circa)
    Byte ricevuti: 744

    Vorrei farvi notare il Cookie. In questo caso, facendo ricerche, ho visto che quello li è un cookie di Urchin, quindi google analytics, che ci da molte informazioni addizionali, ma che non tutti i programmi di log sanno elaborare.
    Per sempio scopriamo che il nostro utente era passato prima ancora dal forum di GT, poi non so gli altri numeri a cosa servano.

    Per tornare alla domanda di Argema, gli utenti unici vengono misurati in maniera precisa o quanto meno più precisa, se si utilizza un programma di statistiche web che è in grado di lasciare un cookie univoco all'utente, come fa per esempio webtrends o anche Urchin e quindi google analytics.
    In questo caso il cookie viene memorizzato nel log e può essere elaborato. Non tiene conto nel calcolo degli utenti unici il numero di IP proprio perchè non è un dato affidabile, sia per via degli IP variabili delle connessioni, sia per il fatto che spesso dietro un unico IP pubblico ci sono decine o centinaia di client. Pensate ad un'azienda con tanti dipendenti oppure a Fastweb che ha una rete su IP privati per i propri clienti.

    I sistemi di analisi statistiche dei siti on-line utilizzano proprio il cookie come elemento discriminante. Facendo richiamare una loro immagine o script dalla vostra pagina, infatti, non fanno altro che crearsi un log molto simile a quello generato dal vostro server. Poi questi dati vengono elaborati e presentati all'utente on-line. Questo per lo meno è quello che fanno quelli più grossi, tipo analytics.

    Questo perchè se facessero il log delle pagine viste cont utti i dati relativi interrogando ogni volta un DB per inserire i dati relativi alla visita ci sarebbe un traffico allucinante che sarebbe quasi impossibile per un database soddisfarlo. Introducendo anche rallentamenti sensibili nella navigazione degli utenti.

    La via più efficace spesso è quella più semplice.

    Aggiungo un'altra cosa, i log sono personalizzabili nel senso che puoi decidere quali campi (di quelli riportati in alto) loggare e quali no. Puoi addirituttura scrivere degli script che per ogni visita vanno a popolarti dei campi in più (detti custom) nel log file, ma poi è un casino andarli ad analizzare perchè dovresti modificare anche il programma di reportistica.
    Per esempio una volta abbiamo provato a metter dentro il log un dato personalizzato, che era il nome dell'utente loggato tramite la nostra applicazione web. Era un e-commerce. Per analizzarlo avevamo modificato awstats, ma poi alla fine abbiamo deciso di rinunciare ed analizzare questo dato (l'utente loggato) in altro modo sfruttando l'inserimento in una tabella apposta di questi dati ed incrociandoli con altro.

    Ciao 🙂


  • User

    Grazie molte Ice 🙂
    Mi scuso del ritardo della risposta.
    Certo che noi abbiamo 2 software entrambi su cookie e danno numeri completamente differenti. Che strano.
    Vabbè, vuol dire che creeremo un nostro software basato sui cookies. Per il momento mi interessa soprattutto il numero di visitatori, quindi è un pezzo di codice breve e semplice.
    Anche se forse, come leggevo in giro, vista la difficoltà di contarli, è più utile come trend quello delle visite, oppure una media pesata di visite e visitatori.
    Staremo a vedere. 🙂 Appena ho qualche risultato lo posto qui 🙂


  • User

    Non mi sono dimenticato eh 🙂
    Entro un paio di giorni penso di poter dire qualcosa. Infatti sto per avere la possibilità di fare un test con Red Sheriff.


  • User Attivo

    si, facci sapere, Red Sheriff dovrebbe essere lo standard di mercato..


  • User Newbie

    Buongiorno a tutti,
    Dopo aver letto con molta attenzione molti dei vostri interventi, volevo portare la mia esperienza e capire se qualcun'altro può confermare o meno le conclusioni a cui sono giunto.

    Ho avuto modo di poter confrontare, per una sezione del portale, i report Google Analytics con quello Site Census di Nielsen Net Ratings (Red Sheriff, per intenderci).

    L'analisi è stata fatta su base giornaliera, settimanale e mensile.
    Vi anticipo i dati e poi faccio seguire qualche considerazione:

    GIORNALIERO - SCOSATMAMENTI MEDI
    UVs 0,13%
    PVs 0,02%

    SETTIMANALE - SCOSATMAMENTI MEDI
    UVs 8,50%
    PVs 0,58%

    MENSILE - SCOSATMAMENTI MEDI
    UVs 36,4%
    PVs 0,60%

    Come si vede dai dati a livello di Pagine Viste (PVs) gli scostamenti sono minimi, mentre le differenze si hanno sui Visitatori Unici (UVs) e per periodi che non siano il giorno.
    Una premessa sugli UVs: quando si parla sempre in maniera impropria di visitatori unici, quando sappiamo bene che bisognerebbe parlare di Unique Browser, in quanto il cookie che viene (dai due sitemi statistici) lasciato sul browser del visitatore non può in alcun modo discriminare se il PC sia utilizzato da un utente oppure da più di uno (come per esempio avviene in famiglia, a scuola, negli internet point etc...).

    Altra capitolo importante che andrebbe considerato è la cancellazione dei cookie che, sui dati giornalieri ha meno influenza, mentre sale su valori mensili: questo banalmente perchè sono in aumento (14% circa, per i dati in mio possesso) quelli che cancellano i cookie almeno una volta al mese, mentre la percentuale è poco significativa sul dato giornaliero.

    Premesso questo, si potrebbe concludere che Google Analytics e Site Census abbiano una diversa definizione del visitatore unico, oppure che i due cookie lavorino in maniera differente.

    Aggiungo anche un'altro dato che può essere utile per capire meglio, quale sia il dato più affidabile tra Google e Nielsen.
    Su base mensile Nielsen Net Ratings fornisce anche un altro tipo di report sul mercato internet, il cosiddetto PANEL. Lì, utilizzando un panel di navigatori appunto, i dati di UVs sono del 40-45% inferiori rispetto a site Census (Red Sheriff).

    Concludo dicendo che occorre prestare moltissima attenzione ai sistemi che si basano sui log file. Questi infatti, molto spesso, non riescono a filtrare il traffico "non umano" (robot, etc...) e sovrastimano sia PVs che UVs.

    Se avete esperienze analoghe mi potete gentilmente dare un riscontro.

    Saluti a tutti,
    anxi


  • User Attivo

    @anxi said:

    Premesso questo, si potrebbe concludere che Google Analytics e Site Census abbiano una diversa definizione del visitatore unico, oppure che i due cookie lavorino in maniera differente.
    Niente di più facile considerando che non sono ancora condivisi degli standard in questo settore 😉

    @anxi said:

    Aggiungo anche un'altro dato che può essere utile per capire meglio, quale sia il dato più affidabile tra Google e Nielsen.
    Attenzione: nessuno dei due dati è da considerarsi scorretto o inaffidabile, semplicemente si tratta di grandezze diverse per definizione misurate con strumenti differenti.
    Paragonare mele con pere non funzione nè offline nè online 🙂

    Il paragone, volendo proprio affidarsi ad entrambi gli strumenti, dovrebbe essere fatto sui trend delle grandezze prese in considerazione, e mai sui valori assoluti.

    @anxi said:

    Concludo dicendo che occorre prestare moltissima attenzione ai sistemi che si basano sui log file. Questi infatti, molto spesso, non riescono a filtrare il traffico "non umano" (robot, etc...) e sovrastimano sia PVs che UVs.
    Se opportunamente settati, alcuni strumenti sono in grado di filtrare il traffico degli spider, bisogna però saperli istruire correttamente 😉