- Home
 - Categorie
 - La Community Connect.gt
 - News Ufficiali da Connect.gt
 - File robots.txt e sito e-commerce
 
- 
							
							
							
							
							
File robots.txt e sito e-commerce
Ciao a tutti,
In un sito e-commerce vorrei bloccare tutte le pagine non direttamente inerenti il posizionamento, che potrebbero magari generare contenuti duplicati o comunque pagine inutili lato seo, come:
- pagine del carrello: w w w.nomesito.i t/cart.php
 - pagine di ricerca: w w w.nomesito.i t/search.php
 - pagine di ordini: w w w.nomesito.i t/order.php
 
Userei le seguenti voci in robots.txt:
Disallow: /cart.php (blocca la pagina)
Disallow: /cart.php$ (blocca tutte le paginine generate dalle variabili successive)Vorrei chiedervi se ritenete giusta questa strategia, e se il codice in robots.txt è giusto.
Grazie a tutti.
 - 
							
							
							
							
							
Ciao Number Nine,
questa strategia, per aree completamente inutili o potenzialmente dannose (come le pagine di ricerca che possono generare duplicati) va bene.
Però mi raccomando, occhio a non esagerare.Le corrette istruzioni da inserire nel robots.txt sono:
User-agent: *
Disallow: /cart.php*
Disallow: /search.php*
Disallow: /order.php*Un saluto,

Angelo
 - 
							
							
							
							
							
Angelo,
Grazie per la precisazione e per la correzione del codice.