• User Attivo

    Secondo me sì, sennò sarebbe facile aumentare le visite in modo esponenziale. (Era il metodo più usato 3 anni fà dai motori di ricerca spam) Google da parecchio tempo ci ha messo una pezza.

    Finchè il tuo dominio non avrà un trust riconosciuto e buono le visite saranno pochissime rispetto al numero degli articoli, aggiungere altri news sarà inutile... o diciamo, quasi.
    😉


  • User Attivo

    @hendez said:

    Secondo voi è possibile avere 20 visitatori al giorno con 28.000 serps su google? Saliranno? sono video presi dal web, ma non con un aggregatore rss che ne prende tot ogni ora. il sito ha 8 mesi.

    Bisognerebbe capire se i video hanno anche del testo attorno, non scopiazzato, e se stai facendo un lavoro per incrementare i backlink.


  • User Attivo

    Non voglio apparire inopportuno ma 20 visite con 28.000 serps mi viene il dubbio che sia anche poco interessante come sito ... cioè su queste proporzioni si pone anche un problema di visitatori di ritorno che non ci sono e nessuno che segnala il tuo sito perché gli è piaciuto ...


  • Super User

    Per quanto mi riguarda direi che su alcuni siti ho registrato sostanziali progressi ( anche dalla metà di agosto periodo notoriamente "folle" ! 😄 ), in uno in particolare ho avuto un incremento pari al 25/30 %.

    Su altri ci sono stati "scivoloni" di poco, ma pur sempre scivoloni : ma per questi c'è da dire che sono siti giovani, pochissimo aggiornati.

    Penso di poter dedurre alcune mie ( personalissime ) impressioni che così sintetizzo per quel che riguarda i siti che hanno avuto una "lievitazione" concreta e sostanziale.

    1. I siti sono abbastanza aggiornati ( quasi quotidiani )
    2. Hanno una bassissima frequenza di rimbalzo e in più un tempo di permanenza medio dell'ordine di svariati minuti.
    3. Hanno un buon numero di pagine viste.

    I migliori risultati li ho ottenuti dopo una quindicina di giorni circa dopo che ho scovato due web che mi copiavano lettarlmente gli articoli e ho letteralmente sollevato una guerra per far cancellare i testi ( grazie avvocato , sempre riconoscente ! :D:D).
    Una quindicina di giorni dopo ho visto un impennata dei visitatori e un generico miglioramento per alcune chiavi.

    Quelli che hanno subito flessioni :

    1. Poco aggiornati
    2. Frequenza di rimbalzo alta
    3. Siti relativamente giovani e ancora da strutturare in modo definitivo
    4. Tempo di permanenza medio sulla pagine davvero modesto.
    5. Siti per lo più generalisti e di news di gossip e spettacolo.

    Insomma se la strada è quella , meglio prenderla per il maggior numero di siti...e in fretta.


  • Super User

    Mi inserisco anche io in questa discussione 🙂
    Inizio con il dire che sono uno di quelli che è stato ben visto da questo aggiornamento e non dico altro a riguardo. Voglio invece concentrarmi su altri aspetti che reputo più interessanti, aspetti come frequenza di rimbalzo, pagine viste, tempo di permanenza.

    A mio (personalissimo e insindacabile 😄 ) parere, questi elencati sopra sono parametri sicuramente importanti per l'algoritmo ma sui quali si debba assolutamente mettere in chiaro un piccolo particolare. Non tutti i siti sono uguali!
    Personalmente penso che non per tutte le categorie di siti vi possa essere un legame diretto ad esempio tra pagine viste e qualità della risorsa, o almeno non vi possa essere un legame diretto con la stessa proporzionalità in tutti i settori. Ci sono infatti siti che per natura sono caratterizzati da un basso numero di pagine viste e non per questo possono essere classificati come di scarsa qualità, anzi paradossalmente potremmo dire il contrario.

    Dopo aver analizzato dati sul campo, posso dire senza paura di smentita che per alcune risorse avere due pagine a visitatore può essere paragonabile ad averne 8 in un altro settore. Per questo motivo, dobbiamo stare alla larga da semplici confronti a "chi lo ha più grande" (:D) e concentrarci al contrario sul settore specifico analizzando di caso in caso la risorsa di cui ci stiamo occupando.

    Altro discorso è quello dei duplicati & co. Non vi è alcun dubbio che per contenuti duplicati di alcuni tipi si possano avere delle mazzate tremende che possono essere riportare al Panda per somiglianza, questo però non ci deve rallentare nella risoluzione delle problematiche pensando alla periodicità di questo caro algoritmo.

    Quoto infine 444523 quando parla di rientri magici dopo il Panda dovuti al personale umano

    Penso invece che tu sia stato colpito proprio dal Panda, la tua vicenda non è dissimile ad altri siti statunitensi colpiti ingiustamente nei mesi scorsi. Nei giorni successivi (alcuni addirittura senza che cambiassero una sola virgola) sono risaliti: è probabile che ci sia stato un massiccio intervento di quality rater
    concordo in toto con quanto detto da lui, ma non vi è dubbio che per il caso mostrato da trilli0 basti il punto "1 ben organizzato" > eliminare contenuti duplicati (eliminando un blog per esempio che presentava sostanzialmente le new-entry del sito con testi duplicati) per causare una penalty pesantissima.

    Un saluto


  • Super User

    @RoPa said:

    Ci sono infatti siti che per natura sono caratterizzati da un basso numero di pagine viste e non per questo possono essere classificati come di scarsa qualità, anzi paradossalmente potremmo dire il contrario.

    Personalmente non ho mai scritto, ne inteso sottointendere, che siti che hanno un basso numero di pagine viste per utente sono classificabili come "di scarsa qualità".
    Ho semplicemente esposto quello che , a mio modesto avviso, è uno dei criteri che Panda Update potrebbe tenere in considerazione : poi se il sito sia di "scarsa qualità o meno" non sta a me dirlo ne concettualizzarlo.
    Tuttavia mi permetto di fare una considerazione , direi, logica : un sito con poche pagine viste non da seguito all'immediata immagine di un sito di scarsa qualità, d'accordissimo, ma se l'utente vede uno o due pagine e poi "scappa" qualche motivo ci sarà pure e il primo motivo che mi può venire in mente è...che non tovi risposte adeguate o lo reputi interessante.
    Poi ovvio ci possono essere casi a parte ( ma non me ne viene in mente nessuno ).
    Personalmente ho un paio di siti ...ehm...direi fatti maluccio ( grafica e organizzazione ) : tuttavia hanno una media di 8 / 9 pagine per utente e ...contano quasi 10 k unici al giorno cadauno e da diverso tempo.
    Se la gente si ferma quasi 5 o 6 minuti a visita ...un motivo ci sarà pure ...a meno che non prendano tutti sonno mentre visitano i miei siti ( ipotesi sempre...possibile 😄 ).
    Ed è inutile nascondere che lo scopo prioritario per un sito web è quello di ...essere visitato da un sempre maggior numero di utenti : non conosco ancora nessuno che faccia un sito per essere visitato da 100 persone con 2 pagine a visita.
    E per capire che dico il vero basta seguire la cronaca di questo forum.

    @RoPa said:

    Dopo aver analizzato dati sul campo, posso dire senza paura di smentita che per alcune risorse avere due pagine a visitatore può essere paragonabile ad averne 8 in un altro settore. Per questo motivo, dobbiamo stare alla larga da semplici confronti a "chi lo ha più grande" (:D)

    😄 Mi ricorda la battuta ...meglio lungo o largo?...e quando uno risponde "largo" (! ) ...la risposta scontata è "ecco un altro che ce l'ha corto!".
    Tornando seri io credo che ogni webmaster preferisca di gran "lunga" un sito con 1 milione di visitatori al mese e con 10 milione di pagine viste , piuttosto che 1000 mensili e 2000 pagine viste al mese.
    Altrimenti, scusa la franchezza, a cosa servirebbe il SEO?
    Non credo che siano molti quelli che dopo aver fatto un eccellente sito si siedano a contemplarlo e soddisfatti esclamino " ah che bel sito , peccato che lo vedano io, mia moglie e i miei tre figli! " 😄
    Ovvio che visto in questo modo è alquanto riduttivo ma, e lo ripeto, non conosco ancora nessuno che si fregi di avere un sito di eccellente qualità e sia contento di avere quarantaquattro gatti a visitarlo .

    E poi , sempre a mio avviso e salvo miglior parere, il concetto di "qualità" di un sito è come una salita che vista dall'alto sembra stranamente una discesa !

    @RoPa said:

    e concentrarci al contrario sul settore specifico analizzando di caso in caso la risorsa di cui ci stiamo occupando.

    Condivido : ma questo suppone che chi analizza la "risorsa del settore specifico" sia, prima di tutto, un esperto dello stesso settore.
    Altrimenti si corre il rischio di fare la figura della perpetua che di fronte al vescovo ha una soluzione ( secondo lei giusta e scontata ) per ogni problema della chiesa.

    @RoPa said:

    Altro discorso è quello dei duplicati & co. Non vi è alcun dubbio che per contenuti duplicati di alcuni tipi si possano avere delle mazzate tremende

    Credo che fosse così già prima di Panda , solo che il nuovo algoritmo , credo, l'abbia evidenziato ancora di più.

    Faccio una battuta : è infondata la preoccupazione per il Panda update .
    Basta consolarsi ammettendo che si ha "un sito di qualità" : cosa importa poi se il nuovo algoritmo ci ha scardinato il 40 o il 50 % delle visite?

    Però ( 😄 battuta ) ...io preferisco avercelo lungo , ma credo che del mio stesso avviso siano ...in molti , forse quasi tutti.


  • Super User

    Attenzione, non sto dicendo che verranno premiati i siti con poche pagine per visita o cose simili, sto dicendo che certi parametri non possono essere presi e confrontati in qualsiasi settore... non ha senso! Il tetto idealmente raggiungibile si sposta di volta in volta.
    Ovvio poi che il webmaster vorrebbe milioni di visite e pagine viste, ma al motore cosa gli frega di questo? Nulla!

    La cosa certa e che un sito contenente risorse divertenti per i social non può essere paragonato ad un sito sulla fissione nucleare, o meglio, il valore massimo che indica la bontà di una risorsa deve essere spostato necessariamente di volta in volta. Ovvio che se hai un numero maggiore di pagine viste è solo un bene, ma non è normale mettersi a confrontare valori di altri settori totalmente fuori dal nostro, come non è normale pensare di avere una risorsa a rischio se nel settore x fa 4 pagine a visita mentre un altro sito nel settore y ne fa 10.

    @bluwebmaster said:

    Credo che fosse così già prima di Panda , solo che il nuovo algoritmo , credo, l'abbia evidenziato ancora di più.

    Assolutamente d'accordo 🙂


  • Super User

    @RoPa said:

    Attenzione, non sto dicendo che verranno premiati i siti con poche pagine per visita o cose simili, sto dicendo che certi parametri non possono essere presi e confrontati in qualsiasi settore...

    Ma infatti si discuteva su quali parametri Panda , sembrerebbe, valutare e quindi meglio posizionare un sito, non se effettivamente il tutto risponda a dei requisiti di "qualità".
    Ovvio che un sito sul nucleare non è paragonabile a un sito di gossip, per carità, ci mancherebbe : ma consentimi di aggiungere un particolare che ritengo importante.
    Nell'ambito dello stesso settore dipende da come si affronta l'argomento o gli argomenti correlati .
    Esempio : l'11 settembre.
    Ci sono centinaia ( forse migliaia ) che trattano il crollo delle torre gemelle, tuttavia quelli più completi, con maggiori informazioni ( serie e non di fantasia ) , con dovizia di particolari , anche spiegati oltre che dettagliati, sembrano ( a giudicare da quello che ho letto in giro sugli stessi ) essere quelli in cui i visitatori vedono un maggior numero di pagine.
    E torna l'ipotesi ...del più "lungo".

    @RoPa said:

    Ovvio poi che il webmaster vorrebbe milioni di visite e pagine viste, ma al motore cosa gli frega di questo? Nulla!

    Questa credo di non averla capita. :mmm:

    @RoPa said:

    Ovvio che se hai un numero maggiore di pagine viste è solo un bene, ma non è normale mettersi a confrontare valori di altri settori totalmente fuori dal nostro

    Per lo stesso settore se due siti fanno uno 3 pagine viste per utente, e un altro 7 e con un maggior tempo per visita , non credi che , forse e salvo miglior parere, il secondo sito deve avere una marcia in più?
    Ovvio che Google dovrebbe "stimare" questi dati per settore : e chi ti dice che non lo faccia? Anzi , secondo me lo fa, eccome se lo fa.

    @RoPa said:

    come non è normale pensare di avere una risorsa a rischio se nel settore x fa 4 pagine a visita mentre un altro sito nel settore y ne fa 10.

    Ma non erro le query sono per parole chiavi, quindi la serp originata a partire da quelle parole chiavi ordina i risultati per "settore" : se nello stesso settore Google ordina i risultati utilizzando questi ( e altri ) parametri mi pare che faccia un confronto , tutto sommato, accettabile ricorrendo all'ipotesi che se un sito , ad esempio sull'11 settembre, viene visto per 10 pagine a utente con un tempo di permanenza sulla pagine di 6 minuti, è sicuramente più interessante di uno che a parità di argomento ne fa 2 per un tempo totale di permanenza medio di un minuto.

    Insomma pare che G. tenga conto , nell'ambito dello stesso settore ( quindi la tua "condizione" sarebbe soddisfatta ) ...:D:D di chi ce l'ha più lungo...il tempo di permanenza e il "trenino" di pagine viste per utente.


  • Super User

    @bluwebmaster said:

    Per lo stesso settore se due siti fanno uno 3 pagine viste per utente, e un altro 7 e con un maggior tempo per visita , non credi che , forse e salvo miglior parere, il secondo sito deve avere una marcia in più?
    Ovvio che Google dovrebbe "stimare" questi dati per settore : e chi ti dice che non lo faccia? Anzi , secondo me lo fa, eccome se lo fa.
    E' quello che sto dicendo ( cercando di dire :mmm: ) da due post a questa parte.

    @bluwebmaster said:

    se nello stesso settore Google ordina i risultati utilizzando questi ( e altri ) parametri mi pare che faccia un confronto , tutto sommato, accettabile ricorrendo all'ipotesi che se un sito , ad esempio sull'11 settembre, viene visto per 10 pagine a utente con un tempo di permanenza sulla pagine di 6 minuti, è sicuramente più interessante di uno che a parità di argomento ne fa 2 per un tempo totale di permanenza medio di un minuto.
    Rispetta assolutamente il mio modo di vedere le cose finchè il sito sulle torri gemelle da 10 pagine/visita non viene giudicato di livello più alto di un sito sulla peste bubbonica che ne fa 5. Quest'ultimo, invece, potrà essere definito migliore (solo da questo limitato punto di vista) di un'altro sito sulla peste bubbonica che fa 2 pagine a visita.


  • Super User

    In definitiva dicevamo la stessa cosa, con termini diversi. 😉


  • Super User

    L'importante è esserci arrivati! 😄


  • User Attivo

    Siamo così certi che Google sia così "quality oriented"?
    O come fanno tv e giornali ha interesse anche a premiare siti che propongono notizie sciocche o inattendibili (che sono solitamente ciò che cerca il grande pubblico?) ...


  • User

    Sono passato da 1000 a 30.000 serps su google, e poi ritornato a 19.000 il tutto in meno di 3 settimane.

    il panda secondo me va a casaccio, anzi stanno tentando di eliminare serp brutte e relative pagine simili a mano.


  • User Attivo

    @hendez said:

    il panda secondo me va a casaccio, anzi stanno tentando di eliminare serp brutte e relative pagine simili a mano.

    Ma va'?
    :D:D:D

    Penso invece che tu sia stato colpito proprio dal Panda, la tua vicenda non è dissimile ad altri siti statunitensi colpiti ingiustamente nei mesi scorsi. Nei giorni successivi (alcuni addirittura senza che cambiassero una sola virgola) sono risaliti: è probabile che ci sia stato un massiccio intervento di quality rater


  • Moderatore

    Forse non ho capito bene: cosa intendi per 1000, 30.000 e 19.000 serp?


  • User Attivo

    Spero non sia un OT, nel qual caso fermatemi subito ... ma io dove ho guadagnato in termini di utenze con Panda non ho avuto nessunissimo guadagno da Adsense, più visitatori meno conversioni ... non è che Panda mi porta utenti poco interessati al sito?:?


  • Super User

    Magari invece troppo interessati al sito e quindi trovano tutto quello che cercano...senza bisogno di adsense 😄


  • User Attivo

    Siamo un pò indietro come ragionamento.... Parliamo di penalizzazioni per duplicazioni di contenuti, cattivi backlink, velocità del sito, contenuti sottili.... ed invece in USA danno inquitanti motivazioni all'avvento del Panda. Sembra che lo scopo di questo update non sia dare qualità alle ricerche organiche, ma di farle scomparire e sostituirle con una montagna di annunci pubblicitari.

    webmasterworld.com/google/4359046.htm
    .... dedicato tutti gli Italian Fanboy di GG!!!


  • User Attivo

    Direi che la tesi non è del tutto peregrina...


  • User Attivo

    @Tuonorosso said:

    Magari invece troppo interessati al sito e quindi trovano tutto quello che cercano...senza bisogno di adsense 😄

    Ipotesi inquietante ma che da un lato mi riempirebbe di orgoglio 😄