• ModSenior

    Ciao zpeppev e benvenuto nel Forum GT.

    Ti segnalo anche questa vecchia discussione dove avevo trovato dei test USA in cui a server più veloci corrispondevano sempre più entrate:
    http://www.giorgiotave.it/forum/adsense/73186-adsense-su-server-piu-veloce-25-a.html .


  • User

    Grazie per il benvenuto Mr Jinx 😉
    Ora provo a contattare i gestori dell'hosting, chiedendo spiegazioni sui rallentamente del mio sito...
    Grazie di nuovo a tutti!


  • User Attivo

    Ti segnalo questo sito, dove potrai verificare la velocità di caricamento del tuo sito, sperando ti sia utile:
    http://www.iwebtool.com/speed_test
    Ciao!


  • ModSenior

    Ciao zpeppez,

    2 consigli facili facili:

    1. Guardare i tempi di scaricamento delle pagine dal Google Webmaster Tools, in particolare il terzo grafico in rosso.
    2. Usare Firefox e installare Google Page Speed, Firebug e YSlow di Yahoo e testare i caricamenti delle pagine dal tuo browser.

  • User

    Intanto di nuovo grazie a tutti!

    Ho provato il primo tool e i risultati ottenuti sono questi:
    Size: 67.55 KB
    Load Time: 1.72 seconds
    Average Speed per KB: 0.03 seconds

    Mentre dagli strumenti per i webmaster ecco il grafico:

    Tempo trascorso per il download di una pagina (in millisecondi).

    img207.imageshack.us/img207/986/chartr.png

    Che ne dite?


  • ModSenior

    Sei al limite: 1500 è accettabile.
    Tempi inferiori sono migliori e ottimali.


  • Super User

    Per mia esperienza, già a 1000 c'è una forte riduzione delle pagine scansionate.

    Attenzione che nel grafico ci sono picchi di circa 3mila, anche se dovrebbero riferirsi al precedente hosting.

    Se hai un sistema di caching, attivalo.


  • Moderatore

    Già a 1000 una riduzione delle pagine scansionate?

    In base alla mia esperienza ero arrivato a una stima più vicina a quella di mister.jinx, per cui consideravo i 1500 ms accettabili e i 1000 ms una sorta di soglia di sicurezza che sarebbe inutile, o comunque non significativamente utile, abbassare ancora.
    Devo dire però che la questione non mi è affatto chiara e spesso mi chiedo se non varrebbe la pena di sforzarmi di scendere ancora, cosa che comunque avrebbe un costo.

    Attualmente sul mio sito più trafficato trovo questi valori:

    [CENTER] Tempo trascorso per il download di una pagina (in millisecondi)
    Alto
    *** 1.439****** Medio 869 Basso 332***
    [LEFT]
    Di solito li ho sempre considerati tempi validi, però adesso mi viene il dubbio che abbassandoli ancora forse potrei migliorare la frequenza di scansione, anche se a dire il vero non è tanto la scansione che mi lascia spesso insoddisfatto quanto piuttosto l'indicizzazione, nel senso che il bot passa, scansiona, ma molte volte non indicizza.

    Sarebbe interessante conoscere in dettaglio anche altre esperienze da poter confrontare.
    [/LEFT]
    [/CENTER]


  • ModSenior

    Ne ha parlato Cesarino Morellato al Symposium GT di Roma.
    1500 è il tempo "limite".


  • Super User

    Per quanto mi riguarda, quando raggiungo i 1000ms, le pagine scansionate si riducono a circa un terzo.

    La scansione ritorna ai picchi solo con valori di massimo 600ms.

    Il grafico è troppo costante per trattarsi solo di un caso, tant'è che sto appunto per ottimizzare l'ottimizzabile per cercare di limitare le flessioni.

    Poi, magari, esistono delle scale per tipologie di siti e quindi lo spider può "accettare" valori più alti per alcuni e meno per altri.


  • User

    @Karapoto said:

    Per mia esperienza, già a 1000 c'è una forte riduzione delle pagine scansionate.

    Attenzione che nel grafico ci sono picchi di circa 3mila, anche se dovrebbero riferirsi al precedente hosting.

    Se hai un sistema di caching, attivalo.

    Il sito é basato su piattaforma Wordpress, quindi utilizzando un plugin per il caching delle pagine dovrei ridurre i tempi, no?


  • Super User

    Assolutamente si, velocizzerai l'accesso in maniera sensibile.


  • Super User

    Ecco, tanto per rimanere in tema, la velocità di accesso alle pagine è aumentata ed ho quasi raddoppiato le pagine scansionate, arrivando a praticamente il download integrale del sito.

    Il valore era sotto i 600ms che, a questo punto, ritengo ideale quantomeno per la mia tipologia di sito se esiste effettivamente una scala apposita.


  • Moderatore

    Grazie Karapoto: per velocità di accesso alle pagine intendi il valore medio a lato del grafico intitolato Tempo trascorso per il download di una pagina (in millisecondi) nelle Statistiche Scansione di Webmaster Tools?

    Oltre che dalla tipologia del sito, secondo me la frequenza di scansione potrebbe dipendere anche dal peso medio delle pagine scaricate, la velocità del server non corrisponde infatti semplicemente al tempo di download della pagina ma al tempo di download della pagina /peso della pagina, e avrebbe senso che il bot considerasse per esempio accettabili 1000 ms per scaricare una pagina di 200 Kb ma non accettabili per scaricarne una di 10 Kb.

    Nel mio sito che citavo prima, a un tempo medio di download per pagina di 870 ms corrisponde un peso medio per pagina di 19,2 Kb (ricavato dividendo il valore medio a lato del secondo grafico Kilobyte scaricati giornalmente per il valore medio a lato del primo grafico Pagine sottoposte a scansione giornalmente), per una velocità media di download del server stimabile intorno ai 45 ms per Kilobyte (22 Kb/sec).

    In ipotesi, a mio parere il bot potrebbe considerare anche il tempo di download per kilobyte, ricavabile dai valori medi delle statistiche di scansione con la semplice formula: Tempo trascorso per il download di una pagina/(Kilobyte scaricati giornalmente/Pagine sottoposte a scansione giornalmente), anzichè solo il semplice tempo di download per pagina.


  • ModSenior

    Ciao gianrudi,

    esattamente: il terzo grafico, quello con riga rossa.

    Confermo che il bot di Google indica un dato medio sulla base delle scansioni precedenti. Tuttavia dal punto di vista pratico più sono leggere le tue pagine fruibili meglio è.

    Ho messo qui un esperimento abbastanza recente fruibilità delle pagine web:
    http://www.screencast.com/users/mister.jinx/folders/Jing/media/9ace6179-f01d-4c30-bbc3-332242516fd2

    E' un blog Wordpress che aveva un plugin fastidiosamente pesante. Come vedi dopo averlo disattivato c'è stato un assorbimento immediato delle pagine in corrispondenza della discesa del tempo di download.

    La riga rossa l'ho messa volontariamente per far notare lo stacco :).