Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. pasky78
    3. Discussioni
    P

    pasky78

    @pasky78

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 3
    • Post 20
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Località Nocera Superiore Età 46
    0
    Reputazione
    20
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    badges

    0
    Bookmarks
    0
    Voti
    0
    Ringraziamenti
    0
    Miglior risposte
    Inizia una nuova discussione
    di cosa vuoi parlare?

    Discussioni create da pasky78

    • Topic
      Post
      View
      Votazioni
      Post
      Attività
    • P

      Categorie e sottocategorie per SEO
      SEO • • pasky78  

      4
      850
      Visualizzazioni
      0
      Votazioni
      4
      Post

      fda

      Per me la tua idea è valida.:)

      La categorizzazione aiuta a livello seo perché riesci a specializzare le pagine per keyword più facilmente. Pensa ad esempio agli orologi, avere una pagina dedicata ad una categoria principale (tipo: dominio/orologi con title=orologi) aiuta sicuramente. Personalmente preferisco scendere di un solo livello con le sottocategorie, ad esempio:

      categoria: gioielli
      sottocategoria: gioielli >> bracciali

      Fai attenzione ai menu e usa le briciole di pane.

      Ai fini seo devi fare attenzione a non creare una struttura gerarchica eccessivamente profonda. Pensa ad un albero con le foglie, al percorso che devi fare per arrivare dal tronco alla foglia passando per i rami; è un po' come per le reti, quando devi raggiungere B da A passando da n nodi. Ebbene, ciò che conta è non soltanto la coerenza della struttura, ma anche la profondità, cioè quante (sotto-)categorie devi attraversare per arrivare al tuo item/prodotto.

      Considera anche che avere url tropo lunghi non è un bene (quelli friendly includono spesso i nomi delle categorie), così come dovere attraversare molte pagine per giungere a destinazione (una regola di massima dice che devi potere raggiungere qualsiasi pagina in 3 clic al più).

    • P

      Software crawler
      SEO • • pasky78  

      5
      808
      Visualizzazioni
      0
      Votazioni
      5
      Post

      federico.sasso

      @pasky78 said:

      Anche se tu sei di parte nel giudizio, ti confermo che a mio avviso il migliore è proprio Visual SEO Studio
      Sei molto gentile, grazie!

      So che ho ancora molto lavoro da fare.
      Sebbene ci sono molte cose che Visual SEO Studio fa in più (e la lista si allungherà molto) o che fa meglio dei concorrenti, a onore del vero ci sono ancora aspetti in cui è (al momento) più debole:

      Una feature apprezzata in Screaming Frog è la possibilità di crawlare una lista di URL, anche di siti diversi tra loro.
      Serve principalmente per fare link audit usando liste di URL prese da varie fonti (GWT, SEOMoz, ahrefs, etc...).
      Visual SEO Studio al momento non lo fa (la feature è in cima alla lista e lo farà molto bene). Xenu e Screaming Frog fanno anche da broken link checker, anche per i file immagine, css, e script.
      Visual SEO Studio si limita ad analizzare i file html (e per essi evidenzia se ci sono dei link rotti) per emulare il più possibile il comportamente di un web bot (il controllo degli URL delle immagini è pianificato, ma non prioritario; il controllo sarà effettuato come processo a parte). Visual SEO Studio rispetta il crawl-delay indicato nel robots.txt, e in mancanza di esso rispetta un ritardo di cortesia di 10s (ovviamente per i siti per cui l'utente dimostra di essere amministratore la pausa può essere ridotto e anche annullata, viaggiando a velocità piena).
      Si comporta così per scelta etica, perché quando si usano risorse altrui senza dare nulla in cambio, è giusto almeno essere educati. Questo però può essere percepito come un difetto rispetto ai concorrenti che non si pongono molti scrupoli.
      In realtà, Visual SEO Studio è l'unico a permettere più crawlate parallele verso siti diversi, per cui l'audit di un gruppo di competitor o di un gruppo di prospect potrebbe essere anche più rapido che con gli altri strumenti, ma nel caso si voglia analizzare un unico grosso sito, il tempo è decisamente più lungo (ad esempio un utente spagnolo m'ha detto di aver crawlato a bassa intensità per un weekend il sito spagnolo di amazon, per studiarne con Visual SEO Studio la struttura). Xenu è imbattibile come velocità di esplorazione di punta. Effettua un numero enorme di chiamate HTTP in parallelo (è tanto maleducato che può letteralmente fare un attacco DOS a un server che non è sufficientemente veloce a rispondere a tutte le chiamate). Quando il web server è molto performante, la strategia paga e la crawlata dura molto meno; quando il web server non è in grado di stargli al passo, si può anche bloccare (e di conseguenza anche la crawlata, ma è il meno).
      Screaming Frog ha un'architettura simile a quella di Xenu, ma è molto meno efficiente, non riesce a ottenere le stesse velocità di punta (SF permette di ridurre il numero di chiamate effettuate in parallelo, proprio perché rischiava di esaurire le risorse dei server lenti). Come detto, SF è meno efficiente di Xenu, tanto che il motore seriale di Visual SEO Studio ha di solito prestazioni analoghe a quelle di SF. Il motore di Visual SEO Studio effettua chiamate serializzate e si adatta ai tempi di risposta del server, per non sovraccaricarlo, e non è oggi particolarmente ottimizzato per la velocità piena pur avendo buoni margini di miglioramento (mantenendo un comportamente rispettoso per le risorse del server), per cui prevedo possa in futuro arrivare a superare in prestazioni medie SF. la gestione delle XML Sitemap di Visual SEO Studio è molto più fine e potente di quella degli altri due strumenti (e ancora si arricchirà nell'imminente futuro), ma Screaming Frog fa una cosa che al momento in Visual SEO Studio manca:
      Se si eccedono (nella versione a pagamento) i 49.999 URL, Screaming Frog in automatico spezza la mappa in più file (in realtà i limiti del protocollo sono 50.000 URL e 10MB di dimensione file). Al momento Visual SEO Studio non lo fa (i siti con più di 50.000 URL sono molti, ma non sono i più comuni, e Visual SEO Studio permette comunque di frammentare manualmente l'esportazione di sitemap xml) Visual SEO Studio al momento non supporta i caratteri * e $ nell'interpretare la sintassi del robots.txt; Screaming Frog ufficialmente sembra farlo (Xenu ignora bellamente il robots.txt). Non tutti i motori di ricerca riconoscono i caratteri, ma googlebot lo fa ed è sicuramente una cosa da mettere a posto. ...

      Ho scritto queste note perché i lettori del forum si aspettano risposte il più possibile corrette e imparziali, spero d'esserci riuscito.
      Ti ringrazio per avermene dato l'opportunità.

    • P

      Consigli SEO per sito ecommerce
      SEO • • pasky78  

      34
      1543
      Visualizzazioni
      0
      Votazioni
      34
      Post

      federico.sasso

      @Bart46 said:

      ... un sito e-commerce dove chiunque può visionare i prodotti, ma solo i registrati vedono il prezzo, in questo caso non si può fare lo stesso ragionamento fatto con pasky78, in quanto le pagine contenenti le info (tranne il prezzo che è irrilevante ai fini dell'indicizzazione) sono visionabili anche da non registrati.. giusto?
      Nel caso di pasky78 gli URL esclusi dalla crawl-ata non erano le pagine di prodotto, erano - se ricordo bene - pagine per "raccomandare" il prodotto.
      Nel caso presentato di pagine con o senza prezzo... giusto, devono essere visitabili dal crawler.