• User Attivo

    piccolo problema da risolvere con file robots

    Salve a tutti, ho un piccolo problema da risolvere con urgenza, sul mio sito ho attivato un plugin translate che oltre a tradurre le pagine con google genera una sitemap del genere sito/en/url tradotto

    purtroppo il webmaster tools mi indica oltre 900 post con descrizioni duplicate

    per risolvere il problema cosa dovrò fare?

    primo bloccare con il robots.txt

    User-agent: *
    Disallow: /en
    Disallow: /es
    Disallow: /de

    etc poi ? riuovere manualmente tutti gli url indicizzati duplicati?

    inoltre quanto tempo richiede il tutto affinchè la situazione si ripristini?

    Dominio:
    outletscarpeonline.it
    Motori:
    Google
    Prima indicizzazione o attività:
    10/10/2012
    Cambiamenti effettuati:
    tantissimi
    Eventi legati ai link:
    diversi
    Sito realizzato con:
    wordpress
    Come ho aumentato la popolarità:
    devo aumentarla
    Chiavi:
    scarpe,donna
    Sitemaps:
    Si

    Dominio:
    outletscarpeonline
    Motori:
    Google
    Prima indicizzazione o attività:
    10/10/2012
    Cambiamenti effettuati:
    tantissimi
    Eventi legati ai link:
    diversi
    Sito realizzato con:
    wordpress
    Come ho aumentato la popolarità:
    devo aumentarla
    Chiavi:
    scarpe,donna
    Sitemaps:
    Si


  • User Attivo

    ps se dal google webmaster tools elimino la directory sito/en/ tutti i file della directory saranno eliminati di conseguenza giusto ?