Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. jester72
    3. Discussioni
    J

    jester72

    @jester72

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 2
    • Post 6
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Età 53
    0
    Reputazione
    6
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User Newbie

    badges

    0
    Bookmarks
    0
    Voti
    0
    Ringraziamenti
    0
    Miglior risposte
    Inizia una nuova discussione
    di cosa vuoi parlare?

    Discussioni create da jester72

    • Topic
      Post
      View
      Votazioni
      Post
      Attività
    • J

      robot.txt: limitare gli url non friendlyzzati
      News Ufficiali da Connect.gt • • jester72  

      2
      820
      Visualizzazioni
      0
      Votazioni
      2
      Post

      M

      Ciao Jester72.

      Con ogni probabilità, lasciando Google libero di navigare il tuo sito, troverai in serp solamente le pagine HTML proprio perché gli altri contenuti saranno considerati duplicati.
      Solitamente il motore di ricerca è in grado di gestire questo tipo di situazioni ma il fatto che tu stia creando automaticamente un pdf per ogni post potrebbe creare problemi.

      In questo scenario, bloccare le URL attraverso il file robots.txt è probabilmente la scelta più giusta da fare: risparmi banda, consenti al crawler di spendere il suo tempo facendo sul tuo sito cose più utili ed eviti possibili problemi dovuti alla duplicazione dei contenuti.

      Una nota a margine: non conosco la struttura dei tuoi URL né il contenuto del tuo file robot.txt; ti consiglio però di usare sempre la regola più precisa che riesci a creare. Eliminando, ad esempio, tutte le URL con un "?" rischi di fermare l'indicizzazione del crawler anche in casi che invece potevano essere gestiti più efficacemente in altra maniera (come con un redirect 301 o il rel canonical).

      Per approfondimento ti consiglio la lettura delle due risposte che un dipendente di Google ha dato in questo thread a domande simili alla tua.

      Buon lavoro!
      (P.s. bentornato sul Forum!)

    • J

      Ultimo post di specifico utente
      Coding • • jester72  

      3
      826
      Visualizzazioni
      0
      Votazioni
      3
      Post

      J

      Grazie della risposta... Ho provato. Ho inserito in questo modo:

      ... LEFT JOIN smf_messages AS mes ON ( mem.ID_MSG_LAST_VISIT = mes.ID_MSG) WHERE mem.ID_MEMBER = \'$id\' ...

      Ora, però non so come richiamare $id.
      Ho provato a sostituirlo nella condizione if al post di ID_MEMBER (che corrisponde al tuo id_utent):

      da ... if ($linex['ID_MEMBER'] > 0) ... a ... if ($linex['$id'] > 0) ...

      Ma a questo punto, sono scomparsi gli utenti in linea...