- Home
- Categorie
- Digital Marketing
- SEO
- piccolo problema da risolvere con file robots
-
piccolo problema da risolvere con file robots
Salve a tutti, ho un piccolo problema da risolvere con urgenza, sul mio sito ho attivato un plugin translate che oltre a tradurre le pagine con google genera una sitemap del genere sito/en/url tradotto
purtroppo il webmaster tools mi indica oltre 900 post con descrizioni duplicate
per risolvere il problema cosa dovrò fare?
primo bloccare con il robots.txt
User-agent: *
Disallow: /en
Disallow: /es
Disallow: /deetc poi ? riuovere manualmente tutti gli url indicizzati duplicati?
inoltre quanto tempo richiede il tutto affinchè la situazione si ripristini?
Dominio:
outletscarpeonline.it
Motori:
Google
Prima indicizzazione o attività:
10/10/2012
Cambiamenti effettuati:
tantissimi
Eventi legati ai link:
diversi
Sito realizzato con:
wordpress
Come ho aumentato la popolarità:
devo aumentarla
Chiavi:
scarpe,donna
Sitemaps:
SiDominio:
outletscarpeonline
Motori:
Google
Prima indicizzazione o attività:
10/10/2012
Cambiamenti effettuati:
tantissimi
Eventi legati ai link:
diversi
Sito realizzato con:
wordpress
Come ho aumentato la popolarità:
devo aumentarla
Chiavi:
scarpe,donna
Sitemaps:
Si
-
ps se dal google webmaster tools elimino la directory sito/en/ tutti i file della directory saranno eliminati di conseguenza giusto ?