• Community Manager

    Vediamo se qualcuno ha fatto qualche test..


  • Moderatore

    Possiamo accendere che lo fa con l'unico scopo di verificare in modo corretto i comportamenti del supporto multilingua automatizzato (per agent/ip)?


  • Moderatore

    che il casino abbia inizio...


  • User

    @Federico Sasso said:

    Concordo, concordo!

    Oggi è presto per dire che impatto avrà sul lavoro dei SEO. E se la modifica impatterà solo per i siti che fanno redirect 302 in base alla localizzazione presunta del visitatore, o se in qualche modo andrà a dare fastidio un po' a tutti.

    Io da parte mia i redirect basati su IP e accept-language li evito come la peste, e almeno sui siti gestisco non dovrei quindi avere grandi problemi.

    Per mia esperienza magari l'IP sulla Nazione è ancora ancora abbastanza affidabile (ma solo sulla Nazione, non più in dettaglio, almeno se si usano servizi di geolocalizzazione gratuiti), ma o si accetta di tenersi un db di range IP continuamente aggiornato in casa, o si accetta i problemi di performance di chiamate HTTP a servizi esterni sulla pagina più visitata del sito.

    Sull'accept-language... bhé, non posso oggi esibire dati e una ricerca rigorosa, ma da dati da me raccolti su un campione statisticamente affidabile una cosa posso dirla: degli utenti che hanno accept-language "en-US", in media solo uno su tre si trova negli USA (e sospetto molto probabilmente nemmeno parla Inglese, almeno come prima lingua).

    Sull'IP per Nazione affidabile sottolineerei l'abbastanza. In azienda a Milano abbiamo Fastweb come internet provider. Secondo Google mi trovo a Milano (e meno male), secondo Twitter mi trovo in Germania... mi mostra i TT tedeschi. Anche secondo Semrush mi trovo in Germania, mi propone di "suchen" sul .DE 🙂


  • User

    Altre cose da studiare. Vai così. 😄


  • Admin

    Secondo me più che sul multilingua il problema sarà per i siti che fanno geolocalizzazione nazionale e che dunque personalizzano il servizio incentrandolo sulle città. Li il margine di errori può essere davvero molto, ma molto più alto rispetto al discorso lingue/nazioni.


  • Moderatore

    Lì con la strutturazione della rete italiana è NON FATTIBILE 😉

    @Juanin said:

    Secondo me più che sul multilingua il problema sarà per i siti che fanno geolocalizzazione nazionale e che dunque personalizzano il servizio incentrandolo sulle città. Li il margine di errori può essere davvero molto, ma molto più alto rispetto al discorso lingue/nazioni.


  • User Attivo

    E vero che il redirect in base al IP pone problemi, comunque non possiamo negare che è molto piu comodo per l'utente. Che ne penzate di una semplice verifica via reverse dns, se l'utente e GoogleBot, allora vedra la versione linguistica di base, ovviamente con i link verso les altre versione, ma non viene reindirizzato. Se non è Googlebot allora in quel caso l'utente vienn reindirizzato in base alla sua IP. Il tempo di verifica per l'utente non e significativo, non se ne rende nemeno conto, per Google bot e possibile velocizzare la verifica, ogni volta che Googlebot visita il sito, il suo ip venga memorizzato, in modo tale che se torna una seconda volta con lo stesso indirizzo IP, non abbiamo più bisogno del reverse dns.

    Ok, Google ha annunciato che ormai avranno IP di veri paesi, ma le avranno per tutte les parte del mondo ? Voglio dire, siamo sicuri che userano anche IP Italiani ?


  • Moderatore

    @walid secondo me l'utente è comodo se il sito è SEO Oriented, quindi Google lo sbatte già da subito nella pagina corretta.
    Giocare con IP e quant'altro bisogna sempre porre attenzione al cloaking.


  • User Attivo

    @merlinox Ciao ! Il cloacking, non è il male assoluto, dipende per quello motivo e stato impostato. Non parlavo di tentativo di manipolare Google, è un caso molto diverse. Ovviamente, concordo con il fatto che un utente che arriva subito nella pagina coretta e sempre meglio. La realtà a volte è più complessa, penso ad esempio alle "branded queries", non sempre Google restituice la cartella o il sottodominio giusto, un ultima verifica non fa male al mio avviso... non sempre per forsa sull'ip del utente ma anche sul referal. Lasciamo perdere la seo un secondo, e trattiamo Google come un semplice referer... un site inglese che mi fa un link verso la versione principale del sito (che non e inglese), come mi comporto con questo utente ? Nel caso venisse da google.co.uk o da huffingtonpost.co.uk, non e meglio saperlo per mandarlo verso la sezione giusta ?

    Check del IP, check del referer, non so mai la soluzione a tutti i problemi, pero una bella parte "dei errori", le gestiscanno.


  • Moderatore

    Per carità @walid: il problema è sempre capire il concetto algoritmico di cloaking secondo google 😉


  • User Attivo

    Cosa intendi per "concetto algoritmico" ? Dettezzione automatica del cloacking ? 😉


  • Moderatore

    @walid said:

    Cosa intendi per "concetto algoritmico" ? Dettezzione automatica del cloacking ? 😉

    si


  • User Attivo

    @merlinox said:

    si

    Mi dispiace che per colpa mia, stiamo alontanadossi dal sogetto iniziale. Pero ti volevo dire che non ho mai sentito parlare di una sanzioni automatiche (o solo di detezzione automatiche) per motivo di cloacking. Se mi puoi dare esempi ti saro grato. Certo le penalita per clocking succedano, ma tutte manuale (per quello che so)... e molto probabilmente dopo Spam Report.

    Certo... mai dire mai, ma per dare un esempio, su alcuni siti su cui ho voluto rischiare (perche niente da perdere), il cloacking tienne da anni, ovviamente m'impegno a fare in modo che i competitor non se ne rendano conto (per evitare il famoso spam report). Mi dicco se fosse attiva una funzione efficiente di dettezzione del cloacking, da anni, almeno un sito, l'avranno beccato ! no ?

    Ricordiamo pero, che il cloacking e una technica che offre tanti vantaggi... ma che è molto rischiosa (penalita severe). Bisogna 1) Sapere perfettamente che si sta faciendo 2) farlo su siti che non sono vitali (cosi se moiano possiamo mettere sulla home page una bella imagine RIP prima di lanciare un altro sito) 🙂


  • Moderatore

    può essere un'utilità per l'utente, ma sono d'accordo con merlinox IN ITALIA IL NETWORK ha delle carenze importanti :eheh:...


  • Admin

    Secondo me è più una cosa pensata per il mobile che per siti desktop.

    Ho come l'impressione che sia una funzionalità molto rivolta anche al crawling delle applicazioni.


  • Moderatore

    @Juanin said:

    Secondo me più che sul multilingua il problema sarà per i siti che fanno geolocalizzazione nazionale e che dunque personalizzano il servizio incentrandolo sulle città. Li il margine di errori può essere davvero molto, ma molto più alto rispetto al discorso lingue/nazioni.
    Per chiarirmi qualche dubbio sono andato a rileggere i commenti del post di Pierre Far.

    In particolare alla domanda:

    "A locale-adaptive page was one that changes its response based on the perceived geographic location: Can this be also a City?"
    Pierre risponde chiaramente:> "This is only on a country level.".
    Nella pagina di documentazione vi è anche un'ambiguità, la frase "Googlebot appears to be using IP addresses based outside the USA" (nella versione in Italiano è: "Googlebot sembra utilizzare indirizzi IP al di fuori degli USA")
    Non è sfuggita al solito AJ Kohn che si è affrettato a chiedere chiarimenti, e la risposta è stata
    It means that your server would see Googlebot will crawl from an IP address that would be geolocated to a country that's not the USA, subject to the usual IP->country database errors.
    ossia:
    Significa che il tuo server vedrebbe Googlebot visitare da un indirizzo IP che sarebbe geolocalizzato in una nazione che non è USA, soggetto al solito margine d'errore di localizzazione dei database IP->Nazione.

    La mia interpretazione è che Google si è fatta assegnare degli intervalli di indirizzi IP in varie nazioni, e per essi faccia passare i propri spider usandoli come proxy. Per questo - mia costruzione - usa il termine "sembra utilizzare", per non dare adito al malinteso che i crawler partano da luoghi diversi; insomma dubito abbiano decentralizzato tutta la catena di lavorazione a valle della fase di crawling. I datacenter con l'indice sono sì distribuiti e sincronizzati continuamente, ma l'elaborazione rimane ancora tutta a Mountain View (per quanto intendo).

    Resta da capire se modificheranno anche lo strumento "Visualizza come Google" in GWT per impostare un accept-language e un IP Nazionale.


  • Moderatore

    @federico: che si sia preso degli IP per fare proxy secondo me è certissimo 😉


  • Admin

    Ottimo report Fede.

    Quindi viene scongiurato il discorso "city", ma credo che avrà delle evoluzioni. Se non erro va anche detto che il caso è abbastanza limite e si dovrebbe riferire a pagine che allo stesso indirizzo cambiano contenuto, quindi se si seguono le solite regole di base secondo me si hanno molti meno problemi.

    Quando decidi di far interpretare Google è sempre un casino. Meglio avere il comando.


  • Moderatore

    @juanin che ci mettano l'alternate trino? hreflang="lingua-caratteristica lingua-città" 😉