• Super User

    @dsom said:

    301?

    poco chiaro...

    ricorda...

    🙂


  • User

    se puoi mettere su un .htaccess

    RewriteCond %{HTTP_HOST} ^www.solobulloni.it$
    mandami tutto quello che c'è (il codice ora non lo scrivo 😉 !!!) su www.solobulloni.com/IT/

    In ogni caso funzionerà sempre e solo un sito

    bye


  • User Newbie

    io non ci vedrei niente di male a mettere tutto il .it sotto robots.txt

    Tanto mi sembra di capire che di quello se ne facciano poco e gli serva solo per aggiornare il .com, che È già ben posizionato.

    Almeno cosí si rimedia il danno del dup content, no?

    Matteo


  • User Attivo

    vuole aumentare la propria visibiltà nel mercato italiano
    è qui che bisogna ragionare

    non come non far considerare duplicato il .it...almeno credo no must?


  • User Attivo

    fai un 301 in modo che qualsiasi richiesta che arriva sul .it venga processata e mandata al .com/it/

    successivamente lavori sempre e solo sul .it aggiorni quello etc etc.

    è sicuramente una soluzione tarocca (i siti online sono sempre indietro di un giorno, se non hai sezione news o blog è ok) ma funziona.

    se non avrai mai accesso all'ftp del .com è l'unico modo.

    o almeno è l'unico modo che mi viene in mente in 15 secondi 🙂

    se poi l'unico poszionato è il .com la soluzione è veramente l'ideale.. imho 😉


  • Super User

    mettiamo carne al fuoco 🙂

    @dsom said:

    fai un 301 in modo che qualsiasi richiesta che arriva sul .it venga processata e mandata al .com/it/

    siamo su un server Windows...

    come faresti.. 🙂


  • Bannato Super User

    Io "spegnerei" tramite robots.txt il dominio .it --- in questo modo risolvi il problema dei contenuti duplicati ( come ti avevo detto in chat ) a quel punto il problema potrebbe essere risolto... e il batch continuerebbe a svolgere la sua funzione.

    😞


  • Super User

    @Dell'Orto Fabio said:

    Io "spegnerei" tramite robots.txt il dominio .it --- in questo modo risolvi il problema dei contenuti duplicati ( come ti avevo detto in chat ) a quel punto il problema potrebbe essere risolto... e il batch continuerebbe a svolgere la sua funzione.

    😞

    :vai:

    questa è la prima soluzione che mi è venuta in mente...
    il robots.txt verrà copiato anche lui nel siti istituzionale ma trovandosi in una directory (IT/) non sarà considerato (richiesto) dai motori di ricerca...
    ... la seconda + tardi... 😉 (è stata accennata ma nn è chiarissima)


  • User Attivo

    Investire soldi in un sito dedicato ad un mercato specifico, quello italiano in questo caso, non è cosa semplice.

    Ho l'impressione che il tuo cliente ci sia arrivato seguendo ragionamenti che si allontanano parecchio dalle dinamiche dei motori di ricerca, noi per primi lo sappiamo, per fare SEO bisogna "entrarci dentro", prendere confidenza con il mezzo e ragionare in funzione dell'obiettivo prestabilito.

    A questo punto mi chiedo, che senso ha investire soldi in un progetto dedicato (.it) se poi di dedicato non ha nulla... ha un sito istituzionale potente, su quello vanno contenuti di un tipo, sul .it di un altro...

    mah

    comuqnue se come ho capito hanno la testa dura e si fa come dicono loro mi piace più di tutte la soluzione del sempre preparatissimo Fabio, ma non arriverei necessariamente a soluzioni così drastiche, ovviamente per stabilirlo mi servirebbe capire che tipo di contenuti ha il sito, se si tratta di viaggi è un conto, se vende cellulari un'altro ancora...

    Comunque facci sapere alla fine come la risolvi! 😄


  • User

    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^www.solobulloni.it$
    RewriteCond %{HTTP_HOST} ^solobulloni.it$
    RewriteRule ^(.*)$ http://www.solobulloni.com/IT/$1 [R=301,L]

    Così è più chiaro?

    Non l'ho provato, però dovrebbe funzionare...


  • User Attivo

    Io andrei di robots.txt sul /* il sito .it, spingerei l'ottimizzazione dei fattori interni del .it (visto che si ribaltano sul .com/IT) e lavorerei sui fattori esterni del .com

    Mi sorge un dubbio, spero che siano pagine statiche.....

    Ciao,

    Andrea


  • Super User

    @GrazieMamma said:

    Comunque facci sapere alla fine come la risolvi! 😄

    Caro GrazieMamma... un piacere leggerti ogni tanto 🙂

    le soluzioni le ho individuate già prima di scrivere il post sul blog e aprire il topic

    La prima che mi era venuta in mente è quella introdotta da Fabio. Il robots.txt duplicato su entrambi i server bloccherebbe solo il .it

    La seconda sta uscendo dai vari discorsi fatti

    Purtroppo ogni cliente ha proprie caratteristiche e politiche. Quella che vi ho raccontato è solo una parte della complessa storia che questo progetto ha dietro.

    @__charango__: come ho sottolineato in un post siamo su server windows... niente .htaccess

    @__gaiodedu__: :mmm: dinamiche ? ma possiamo decidere noi questo 🙂


  • Bannato Super User

    ot un saluto anche da parte mia al mitico Graziemamma /ot

    Con lo stratagemma del robots.txt però sorgere un ulteriore problema, che personalmente non sono riuscito ancora a risolvere.

    Se "spianti" le pagine con il robots... dopo sei mesi google le risputerà nei suo db, non mi sono mai spiegato perchè ma giuro è quanto mi è successo più di una volta... chi sa mai che la "sems family" Low, colleghi delle colleghe.... non mi diano una spiegazione...


  • Super User

    @Dell'Orto Fabio said:

    Se "spianti" le pagine con il robots... dopo sei mesi google le risputerà nei suo db, non mi sono mai spiegato perchè ma giuro è quanto mi è successo più di una volta... chi sa mai che la "sems family" Low, colleghi delle colleghe.... non mi diano una spiegazione...

    non è che magari nel robots.txt le elimini ma poi sono per qualche motivo incluse in una sitemap? oppure le pagine "nascosta" dal robots hanno comunque dei links e gg le segue ?


  • Super User

    @Rinzi said:

    siamo su un server Windows...

    come faresti.. 🙂

    ISAPI Rewrite sul .it?
    (in effetti non hai specificato se sul .it puoi mettere in qualche modo le mani...)


  • User Attivo

    @Rinzi said:

    mettiamo carne al fuoco 🙂

    siamo su un server Windows...

    come faresti.. 🙂
    in ordine :

    1. Isapi rewrite: non sarà il massimo... dipende dal numero di pagine, ma credo sia la via.
      anche perchè basta non caricare il modulo sull'altro server e semplicemente di la non funzionerebbe.

    2. puoi chiedere a google di non indicizzare più il dominio ma ci vogliono 6 mesi.

    3)azzardo, non saprei dire se funziona: puoi fare una sola regola rewrite (sempre supponendo che di la non sia caricata la dll) solo per il file robots.txt.
    lo chiami motori.txt ma lo "riscrivi" in robots.txt.
    se lo copia di la copia motori.txt e non ci sono problem 🙂

    1. puoi caricare con un js in ogni pagina un file da remoto in un server dove setti via firewall accesso da un solo host (quello del .it).
      nel file ci sono i meta per noindex nofollow.
      se l'altro prova a includere gli da un 403 😉

    2. forse giocando con js puoi caricare il nomedominio e fare un check se caricare o no un certo file con i meta noindex, nofollow.

    basta, è tardi, sono fuso e vado a letto 😄

    olaz


  • Bannato Super User

    @autodafe said:

    non è che magari nel robots.txt le elimini ma poi sono per qualche motivo incluse in una sitemap? oppure le pagine "nascosta" dal robots hanno comunque dei links e gg le segue ?

    Assolutamente no ! Inoltre nel robots c'è l'istruzione con la richiesta di omettere la cartella che non voglio indicizzare.


  • User Newbie

    Hej fermi tutti, ho vinto io 😉

    L'ho detto prima io di mettere il .it sotto robots, eh! Date a cesare qeul che è di cesare e a supermatte quel che è di supermatte 😉

    Matteo


  • User Attivo

    se fate un semplice robots.txt quando avviene il batch viene copiato di la e blocca entrambi i siti...


  • Super User

    @supermatte said:

    Hej fermi tutti, ho vinto io 😉

    L'ho detto prima io di mettere il .it sotto robots, eh! Date a cesare qeul che è di cesare e a supermatte quel che è di supermatte 😉

    Matteo

    🙂

    @dsom said:

    se fate un semplice robots.txt quando avviene il batch viene copiato di la e blocca entrambi i siti...

    No. Nel sito istituzionale tutti i file vengono copiati in una directory (IT/), li in robots.txt non verrà cercato dai motori e sarà nullo

    comunque c'è un'altra soluzione.. a dopo 😄