Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Pagine non trovate (357)
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • overclokk
      overclokk Moderatore • ultima modifica di

      Dal GWT la procedura è questa:
      Configurazione sito > Accesso crawler > rimuovi url

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • D
        darkf3d3 User Attivo • ultima modifica di

        Grazie per l'aiuto

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • overclokk
          overclokk Moderatore • ultima modifica di

          Di nulla 🙂

          Ciao
          Enea

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • F
            finex User • ultima modifica di

            Potresti anche mettere dei 301 mirati per un po' di mesi.

            Se prima avevi tre tag: "variante1", "variante2" e "variante3", ed ora solo "tag-unica" (che raccoglie gli articoli precedentemente taggati con 1,2,3) puoi impostare dei 301 ad hoc dalle tre vecchie tag alla nuova.

            Ciao!

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • D
              darkf3d3 User Attivo • ultima modifica di

              In fatto è che sono sta eliminate all'incirca 500 tag, quindi sarebbe un lavoraccio.
              Lasciando tutto così com'è, quindi senza 301, senza modifiche da GWT e file robots, in quanto verrebbero eliminate queste pagine?

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • F
                finex User • ultima modifica di

                Possono servire anche molti mesi.

                Comunque puoi velocizzare il lavoro in questo modo: vai nel GWT, scarichi l'elenco dei 404, lo apri con un foglio di calcolo e con un po' di formulette generi dinamicamente tutti i redirect. Poi ti basta soltanto copiare ed incollare nell'.htaccess 🙂

                Ciao!

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • overclokk
                  overclokk Moderatore • ultima modifica di

                  Non esiste una tempistica predefinita, dipende da vari fattori, l'unica cosa che posso dirti è di avere pazienza che prima o poi verranno eliminate.
                  Cominque con il robots.txt impostato correttamente velocizzi l'eliminazione.

                  Ciao
                  Enea

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • D
                    darkf3d3 User Attivo • ultima modifica di

                    Il file robots è impostato in questo modo:
                    [HTML]#Configurazione wordpress
                    User-agent: *
                    Disallow: /wp-
                    Allow: /wp-content/uploads/
                    Disallow: /trackback/
                    Disallow: /feed/
                    Disallow: /comments/
                    Disallow: */trackback/
                    Disallow: */feed/
                    Disallow: /comments/
                    Disallow: /
                    ?

                    Sitemap: http : // www ... ... ... / sitemap.xml.gz[/HTML]

                    Già che ci sono ne approfitto per chiedere se è corretta questa riga:
                    Disallow: /*?

                    Lo chiedo perché controllando da GWT ora sono presenti parecchi link disattivati di questo tipo:
                    http : // www . dottorgadget.it /?p=8398

                    Il fatto è che quei link, sono link ad articoli del blog... è corretto che sia così?

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • overclokk
                      overclokk Moderatore • ultima modifica di

                      Per quella situazione potrebbe essere sufficiente anche solo:
                      Disallow: /?
                      perchè prima del punto di domanda c'è solo il "/"

                      Se vai a quel link vieni rediretto alla pagina con la frendly url quindi puoi bloccare tranquillamente quell'indirizzo con il robots.txt

                      Ciao
                      Enea

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • D
                        darkf3d3 User Attivo • ultima modifica di

                        A ok quindi è normale, verranno bloccati gli indirizzi che fanno il redirect mentre quelli principali saranno presenti nell'indice.

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        Caricamento altri post
                        Rispondi
                        • Topic risposta
                        Effettua l'accesso per rispondere
                        • Da Vecchi a Nuovi
                        • Da Nuovi a Vecchi
                        • Più Voti