• User

    @Federico Sasso said:

    Non escluderei i /results, impediresti al crawler di visitare tutte le pagine di categoria (a parte la prima)

    Scusa, mi spieghi meglio perchè tu non escluderesti i /results,

    Non basta indicizzare la pagina di categoria principale?


  • Moderatore

    @pasky78 said:

    Scusa, mi spieghi meglio perchè tu non escluderesti i /results,

    Non basta indicizzare la pagina di categoria principale?

    Ciao, mi spiego meglio:

    Prendi per esempio la categoria "Gioielli"; la prima pagina ha path[INDENT]/categoria/gioielli.html[/INDENT]
    mentre la seconda ha path[INDENT]/categoria/gioielli**/results,**10-9.html[/INDENT]

    quindi se bloccassimo tramite robots.txt l'accesso ai path contenenti "/results," (come mi sembrava d'aver capito tu intendessi) i motori di ricerca non potrebbere visitare le pagine di categoria successive alla prima pagina.


  • User

    Si si, ho capito.
    Comunque tu consigli di farle indicizzare?


  • Moderatore

    @pasky78 said:

    Comunque tu consigli di farle indicizzare?

    Non è importante siano indicizzate, se vuoi puoi metterle anche con <meta name="robots" content="noindex, follow" /> (che vuole dire "non indicizzare queste pagine, ma segui i link che trovi in esse")

    L'importante è che non siano bloccate da robots.txt, altrimenti il crawler non potrà mai arrivare agli articoli e indicizzarli.


  • User

    Da qualche giorno ho notato un notevole calo di visualizzazioni e soprattutto di impressioni.
    Ho la sensazione che sia stato penalizzato per contenuti duplicati.
    C'è qualche strumento per capirlo? Tipo un software che scansioni il sito e mi dica le pagine con contenuti duplicati?


  • Moderatore

    La cosa più semplice è fare una scansione con uno spider e vedere le pagine che hanno stesso title, o stessa metadescrizione, etc.. o sono titoli e descrizioni non personalizzate, o sono le stesse identiche pagine con URL non previsti; in ogni caso sono responsabili di contenuti duplicate e da mettere a posto.

    Vi possono essere anche altri casi, non individuabili in questo modo, ma queste sono le cause più comuni, e una vista d'insieme aiuta comunque a capire meglio se ci sono problemi on-site.

    Prova anche a vedere da Analytics (o altro strumento, non so cosa usi) se riesci a capire per che ricerche hai il calo di impressioni/visite.
    ciao


  • User

    Ciao scusa,
    in un post dicevi: la paginazione è quasi inutilizzabile, tutta appiccicata così com'è

    Cosa intendi con paginazione?
    Come posso migliorarla?


  • Moderatore

    Ciao,
    @pasky78 said:

    in un post dicevi: la paginazione è quasi inutilizzabile, tutta appiccicata così com'è

    Cosa intendi con paginazione?
    Come posso migliorarla?
    Hai presenti in pagine con tanti contenuti, per esempio /categoria/gioielli.html
    il testo in fondo con scritto "12345678910»Fine" dove ogni carattere è un link a una pagina?
    Intendevo dire che sono tutti appiccicati, è difficile per un utente cliccare un singolo numero.
    Ti consiglio di distanziarli, e magari renderli più larghi e facili da cliccare.


  • User

    @Federico Sasso said:

    Ciao pasky78.
    Ai consigli di Blays aggiungo:

    tutti i link in corrispondenza della bustina, quelli con path .../recommend/... per capirsi, che aprono un contenuto del tipo "Info: YOU MUST LOGIN FIRST" dovrebbero avere l'attributo rel="nofollow", e il contenuto con il suddetto messaggio dovrebbe avere meta-tag noindex.
    Questo perché così come sono crawlati dagli spider e visti come contenuti inutili e duplicati. Google ne indicizza circa 500.
    .......................

    Salve, mi potrebbe spiegare meglio questo concetto?

    -innanzitutto cosa intende per "link in corrispondenza della bustina"?
    poi suggerisce di settare a nofollow le pagine dove gli utenti dovrebbero loggarsi per visualizzare le pagine, questo perché essendoci contenuti duplicati google potrebbe penalizzare l'indicizzazione di quel sito?
    è così o ho capito male?

    grazie mille

    Roberto


  • Moderatore

    Salve Bart46,
    @Bart46 said:

    innanzitutto cosa intende per "link in corrispondenza della bustina"?
    pasky78 ha optato per eliminarli del tutto e ora non sono più presenti, ma al momento della sua prima richiesta nelle pagine di prodotto c'era un'immagine di una bustina con un link.

    @Bart46 said:

    poi suggerisce di settare a nofollow le pagine dove gli utenti dovrebbero loggarsi per visualizzare le pagine, questo perché essendoci contenuti duplicati google potrebbe penalizzare l'indicizzazione di quel sito?
    è così o ho capito male?
    Non solo: googlebot visitando quelle pagine sprecava tempo che avrebbe potuto dedicare a visitare contenuti più importanti.

    Secondo le dimensioni del sito note a Google, e il PR che vi attribuisce, googlebot visita le pagine inframezzando le richieste alle singole pagine con tempi che fanno da qualche manciata di secondi a qualche minuto.

    Se togliamo dal crawl-path (i link scoperti da Google durante un'esplorazione del sito) qualche centinaio di link, possiamo risparmiargli diverse ore di esplorazione verso contenuti inutili, che può dedicare a scoprire - o visitare più frequentemente - contenuti per noi più strategici.

    La tecnica è di solito chiamata "ottimizzazione del crawl budget".

    Spero d'aver chiarito meglio il concetto.


  • User

    @Federico Sasso said:

    Salve Bart46,

    pasky78 ha optato per eliminarli del tutto e ora non sono più presenti, ma al momento della sua prima richiesta nelle pagine di prodotto c'era un'immagine di una bustina con un link.

    Non solo: googlebot visitando quelle pagine sprecava tempo che avrebbe potuto dedicare a visitare contenuti più importanti.

    Secondo le dimensioni del sito note a Google, e il PR che vi attribuisce, googlebot visita le pagine inframezzando le richieste alle singole pagine con tempi che fanno da qualche manciata di secondi a qualche minuto.

    Se togliamo dal crawl-path (i link scoperti da Google durante un'esplorazione del sito) qualche centinaio di link, possiamo risparmiargli diverse ore di esplorazione verso contenuti inutili, che può dedicare a scoprire - o visitare più frequentemente - contenuti per noi più strategici.

    La tecnica è di solito chiamata "ottimizzazione del crawl budget".

    Spero d'aver chiarito meglio il concetto.

    E' stato più che chiaro.. ad esempio io ho sviluppato e gestisco un sito e-commerce dove chiunque può visionare i prodotti, ma solo i registrati vedono il prezzo, in questo caso non si può fare lo stesso ragionamento fatto con pasky78, in quanto le pagine contenenti le info (tranne il prezzo che è irrilevante ai fini dell'indicizzazione) sono visionabili anche da non registrati.. giusto?

    grazie mille per la risposta, ho imparato una nuova cosa

    Roberto


  • Moderatore

    @Bart46 said:

    ... un sito e-commerce dove chiunque può visionare i prodotti, ma solo i registrati vedono il prezzo, in questo caso non si può fare lo stesso ragionamento fatto con pasky78, in quanto le pagine contenenti le info (tranne il prezzo che è irrilevante ai fini dell'indicizzazione) sono visionabili anche da non registrati.. giusto?
    Nel caso di pasky78 gli URL esclusi dalla crawl-ata non erano le pagine di prodotto, erano - se ricordo bene - pagine per "raccomandare" il prodotto.
    Nel caso presentato di pagine con o senza prezzo... giusto, devono essere visitabili dal crawler.