• Bannato Super User

    Intervengo in questo 3d per mettere in rete una mia supposizione.

    Il Buon Positano accennava sopra al fatto che molto difficilmente GG spenderebbe risorse per controllare eventuali pagine "troppo simili", perchè sarebbe un lavoro troppo lungo e oneroso.

    Io non sono d'accordo nella maniera + assoluta, non vedo ne tecnicamente ne economicamente un problema per fare il controllo.

    Lo potrebbe fare in mille modi per esempio... esso ha già nel suo db le pagine ( quindi nessun costo aggiuntivo a livello di memorie di massa ) basterebbe un algoritmo che nel leggerle attribuisca un punteggio a ciascuna di esse.

    Terminata la lettura tutte le pagine con lo stesso punteggio o con un punteggio entro dei range stabiliti prima sarebbero quelle teoricamente simili o uguali.

    A questo punto il gioco sarebbe fatto e chi ne paga dazio attualmente sono le pagine con minore indice di popolarità.

    A conferma di quest'ultimo particolare vi racconto un episodio.

    Mesi fa feci una door 😄 per posizionarmi con una keyphrase.

    Inizialmente la pagina arrivò senza problemi in testa alla serp, tanto che venne notata da una web-agency che me la plagiò.

    Immediatamente pensarono anche di pompare pr a spron battuto dietro quella pagina e.... morale della favola loro con la (loro/mia) pagina presero il posto della mia originale.

    😮 😮

    Però e questa potrebbe anche essere una bella novità... da un paio di settimane è ricomparsa la mia di pagina :mmm:

    Volete sapere perchè ?

    Perchè hanno messo troppi links non a tema e tutti d'un botto... meditate ragazzi su questa favola.

    🙂


  • Super User

    Bella la favola del piccolo uomo delle doorways che diventa re!

    Comunque, il test e' estremamente interessante, altroche'!

    Se qualcun'altro potrebbe farlo, la questione e' proprio di sicurezza del proprio lavoro di SEO!

    E potrebbe risolvere diversamente una questione altrimenti piuttosto univoca, cioe' che non si puo' danneggiare le pagine altrui, e forse anche Montalb...ehm, Fabio insegna!

    Comunque se il test non si risolve negativamente, e' roba da... 😮

    Altra cosa, il fatto che il filtro possa scattare solo in presenza di un certo legame di "parentela" mi pare un po' improbabile, perche' figuriamoci se non hanno preventivato casi di plagio che possono colpire le aree piu' remote dove sono ospitati i siti in questione.

    Ma non basta verificare la data di archiviazione per decidere quale dei due o + siti ha il diritto di passare il filtro?

    Dai ragazzi, vediamola un po' questa cosa...


  • ModSenior

    ho fatto un piccolo test su questa cosa....praticamente ho un sito (sito1) che non è per niente ottimizzato ma comunque presente sui vari mdr, non mi interessa molto posizionarlo, in cui ho messo una door proprio come index.htm, ottimizzata per una key, che punta a index.asp, bene, su google è arrivato fino in quarta pagina per quella key.

    Dopodichè mi sono creato un account su altervista (sito2), sempre come index.htm ho messo la stessa identica pagina, google ha trovato la pagina grazie ad un link presente sul sito a cui mi ero iscritto per le statistiche...

    dopo circa 10 giorni che ero fermo in quarta pagina di gg col sito1, durante un normale controllo noto che sito1 è praticamente sparito anche se comunque è sempre presente nel db, mentre sito 2 si è posizionato in seconda pagina, adesso che sono passati circa 3 giorni ho provato a modificare leggermente la pagina di sito1, ora guardo che succede...


  • Super User

    Ottimo, anche se per adesso il test mi preoccupa...


  • ModSenior

    peccato che ripensandoci era meglio se continuavo a lasciare le pagine uguali e vedere che succedeva, ma ormai l'ho modificata...
    comunque un test unico non basta voglio sicuramente riprovare.


  • User Attivo

    @riky78 said:

    non sono convinto che google dia importatanza alla data dei file per il filtro antiduplicazione, anche perchè la maggior parte dei server non rende visibile la data di modifica.....

    detto questo, mi sembra che sarrebbe il caso di mantenere una certa etica..... :arrabbiato:

    Esatto, nessuna importanza per la data di un file, la data la puoi mettere ed inventare a tuo piacimento e pertanto i motori l'ignorano.


  • User Attivo

    @Dell'Orto Fabio said:

    Intervengo in questo 3d per mettere in rete una mia supposizione.

    Il Buon Positano accennava sopra al fatto che molto difficilmente GG spenderebbe risorse per controllare eventuali pagine "troppo simili", perchè sarebbe un lavoro troppo lungo e oneroso.

    Io non sono d'accordo nella maniera + assoluta, non vedo ne tecnicamente ne economicamente un problema per fare il controllo.

    Lo potrebbe fare in mille modi per esempio... esso ha già nel suo db le pagine ( quindi nessun costo aggiuntivo a livello di memorie di massa ) basterebbe un algoritmo che nel leggerle attribuisca un punteggio a ciascuna di esse.

    Terminata la lettura tutte le pagine con lo stesso punteggio o con un punteggio entro dei range stabiliti prima sarebbero quelle teoricamente simili o uguali.

    A questo punto il gioco sarebbe fatto e chi ne paga dazio attualmente sono le pagine con minore indice di popolarità.

    A conferma di quest'ultimo particolare vi racconto un episodio.

    Mesi fa feci una door 😄 per posizionarmi con una keyphrase.

    Inizialmente la pagina arrivò senza problemi in testa alla serp, tanto che venne notata da una web-agency che me la plagiò.

    Immediatamente pensarono anche di pompare pr a spron battuto dietro quella pagina e.... morale della favola loro con la (loro/mia) pagina presero il posto della mia originale.

    😮 😮

    Però e questa potrebbe anche essere una bella novità... da un paio di settimane è ricomparsa la mia di pagina :mmm:

    Volete sapere perchè ?

    Perchè hanno messo troppi links non a tema e tutti d'un botto... meditate ragazzi su questa favola.

    🙂

    Grazie Fabio perche' mi erano sfuggite queste tue ultime righe, avevo letto veloce il tuo post, per fortuna che, come di abitudine, rileggo tutto sempre come fosse la prima volta.

    Sono un "maniaco" dei filtri antiduplicazione, a tal punto da avere 3 siti "seri" fotocopia, attenzione non 3 domini che puntano sullo stesso sito ma 3 siti ben distindi di decine di migliaia di pagine in parte simili in parte uguali.

    E' stato un esperimento iniziato ben 6 anni fa e che ad oggi controllo giorno per giorno per capirne qualcosa in piu'.

    Riassumo, 6 anni fa ho aperto un sito "serio", era un .it.
    L'ho tenuto online per 4 anni.
    Dopo 4 anni l'ho chiuso (mantenedo solo il nome di dominio) e l'ho spostato-duplicato su un sito .it con mome diverso)
    Tramite htaccess ho puntato il vecchio .it sul nuovo e tempo 0 il nuovo nome di dominio ha sostituito completamente il vecchio. Stesse pagine indicizzate, stesso numero di accessi.

    Passa un anno e duplico il sito usando lo stesso nome di dominio ma usando un .com come estensione, come dire prima c'era solo pippo.it ora anche pippo.com). Risultato le pagine identiche del .com non sono mai apparse nelle serp dei motori ma solo alcune pagine simili (titolo diverso, meta ecc ecc).

    A questo punto dopo 2 anni dalla sua chiusura riduplico il sito riaprendo il primissimo sito .it, quello che avevo chiuso. Pertanto 3 siti online, identici quasi per tutto. Stessi link, stesso pr e stesse pagine, salvo rare eccezioni volute e diversificate al fine di test (per dire primo.it, pippo.it pippo.com)

    Bene come ho duplicato e riaperto il sito originale tutte le pagine (oltre 30.000) del secondo .it sono sparite per essere sostituite da quelle identiche sul sito .it di maggiore anzianita'.

    A seguire le pagine del secondo .it e poi le pagine del .com diverse dai due .it

    Allora non contento ho cancellato tutti ma dico tutti i link verso il primo .it, ma nulla, adesso ha pr 0 ma appare sempre e solo come unico sito nelle serp, anche se il secondo .it ha pr6.

    Conclusione, i motori associano e valorizzano le pagine al sito principale.
    Se il sito e' il piu' vecchio chiunque lo duplichi non apparira', indifferentemente dal fatto che il sito abbia piu' o meno pr.

    Fabio ora ci dice che chi gli ha duplicato il sito lo ha scalzato e da qui e' importante sapere se il sito che lo ha scalzato era piu' anziano del suo (come prevedo, ma aspetto conferma) cosi' da confermare i miei test.

    Ammettiamo che fosse piu' anziano, poi Fabio dice che e' stato bannato per eccesso di link non tematici. Questo e' normale perche' gli algoritmi e filtri di ban hanno priorita' rispetto quelli di catalogazione.

    Ricapitolando, se un sito e' piu' anziano e tratta certi temi identici al sito che duplica, indifferentemente dal fatto che non abbia link, annulla il sito che copia.

    Se quel sito e' bannato scompare per lasciare spazio a quello che aveva duplicato.

    Se due siti sono praticamente identici anche per il 99% delle pagine, comunque il motore indicizza e cataloga, del nuovo sito, le pagine che differiscono dall'originale.


    Pertanto se voglio cancellare un concorrente (mettiamo che sia un concorrente cattivo, uno spam engine senza arte ne parte o un sito di spam) allora dovro' utilizzare un dominio piu' anziano che originariamente trattasse lo stesso tema del sito duplicato.

    Questo almeno cosi' da quanto constatato dal mio test e da quanto dice Fabio, a meno che Fabio ci dica che il sito che lo ha "fregato" fosse un sito nuovo di pacca ma magari con tanti link in tema.

    Ma non credo che dipenda dai link, viceversa non si spiegherebbe come mai il mio sito originale senza un solo link ha nuovamente estromesso il sito clone che contava su centiania di link esterni in tema.


  • Community Manager

    Bellissimo post agoago,

    leggere un post di un amico che ha 6 anni di esperienza alla spalle (6?, forse molti di più) è molto bello per me 🙂

    A questo punto, la mia domanda è quasi spontanea:

    ma se un sito mi vuole far fuori e duplica la mia pagina in che modo posso difendermi?

    Se tu affermi che la popolarità non influisce quanto l'anzianità l'unico modo che io ho è trovare un dominio più vecchio.

    Esistono altre tecniche più intelligenti?

    Ad esempio io potrei avere a disposizione 100 link che non sono a tema e in un giorno potrei metterli nel sito che mi ha copiato.


  • User

    ormai il posizionamento a me sembra che lo faccia solo il dominio..


  • User Attivo

    @giorgiotave said:

    Se tu affermi che la popolarità non influisce quanto l'anzianità l'unico modo che io ho è trovare un dominio più vecchio.

    Esistono altre tecniche più intelligenti?

    Ad esempio io potrei avere a disposizione 100 link che non sono a tema e in un giorno potrei metterli nel sito che mi ha copiato.

    Non sono certo che la popolarita' sia seconda all'anzianita', ho imparato che spesso quello che constato tramite i test non corrisponde alla realta assouluta, certo che almeno mi faccio un idea di partenza.

    Dando per buona l'idea di partenza si potrebbe pensare che un dominio piu' vecchio, dominio che tratta lo stesso tema, sia decisivo per fregare un concorrente piu' giovane, ma questo non e' detto.

    Il danno maggiore che un seo fa a se stesso e' spesso quello di fare delle prove e poi analizzandone i risultati pensare di aver capito cosa funziona chi e come.

    Se trovo ed uso un dominio piu' vecchio in tema probabilmente riesco a superare un sito piu' giovane. Probabilmente.... mica vero.

    Se sono un motore ed indicizzo per 4 anni il sito A che poi viene copiato in toto dal sito B come posso pensare di premiare B (anche se molto piu' vecchio del sito A) e cancellare A??

    Dipende da chi 'e stato indicizzato e catalogato per primo, non dal sito piu' anziano. Anche se quasi sempre le 2 cose coincidono.


    Sul fatto che se si puntano 100 link perniciosi verso un sito avversario, che magari ci ha copiato, e sul fatto che questo prima o poi sia danneggiato da questa tecnica "cattiva" non lo ritengo improbabile in pratica, ma lo ritengo improbabile in teoria.


    Disgressione. Ci sono cose reali e cose ideali. Soprattutto per chi studia i motori. E' un po' come decidere di prendere la pillola rossa o quella blu in matrix.

    Anzi l'esempio non calza perfettamente, qui e' ancora diverso. E' come studiare filosofia e poi decidere come vivere in base alle analisi dei grandi pensatori, sono scelte impossibili da dimostrare ed imporre ad altri in modo assoluto, ognuno le vive come crede.

    Cosi' chi fa il seo. Se il seo sposa il lato pratico-conveniente dei motori allora fa dei test, na analizza i risultati, si confronta con i colleghi e poi punta dove gli conviene, dove rende in quel dato momento. Oggi 'e cosi' e faccio cosi', domani vedro', analizzaro' e mi comportero' di conseguenza.

    Se il seo sposa il lato teorico allora usa i test solo per capire dove stanno andando i motori ecc ecc ma poi usa questi dati solo se non sono contrari alle teorie di base dei motori.

    Per capirci in teoria un wm non potrebbe danneggiare direttamente un altro wm. In teoria se linco con 100 link balordi un concorrente non dovrei essere in grado di danneggiarlo. Magari in realta' e diverso.

    Il seo pratico lo linca e lo danneggia nell'immediato, il seo teorico non lo linca perche' sa che prima o poi il motore si difendera' da questa tecnica e magari bannera' chi linca e chi e' lincato.

    I seo teorici sono come i wm che fanno siti seri, non gli interssa raggiungere i migliori risultati oggi, ma sposare una causa alla lunga vincente.

    I seo paratici sposano la moda del momento, accontentano i clienti in breve tempo e si adeguano giorno per giorno all'andazzo del momento.

    Non c'e' una regione assoluta, come gli studi filosofici. Sono scelte dettate dalle necessita' del momento o dalla cultura di ognuno di noi.

    In linea di massima chi lavora per conto terzi lavora sul pratico perche' i clienti vogliono tutto e subito, chi lavora per i propri siti predilige la linea teorica perche' sa che alla lunga avra' ragione e sara' ricompensato dell'attesa.


  • Community Manager

    @agoago said:

    I seo teorici sono come i wm che fanno siti seri, non gli interssa raggiungere i migliori risultati oggi, ma sposare una causa alla lunga vincente.

    I seo paratici sposano la moda del momento, accontentano i clienti in breve tempo e si adeguano giorno per giorno all'andazzo del momento.

    Non c'e' una regione assoluta, come gli studi filosofici. Sono scelte dettate dalle necessita' del momento o dalla cultura di ognuno di noi.

    In linea di massima chi lavora per conto terzi lavora sul pratico perche' i clienti vogliono tutto e subito, chi lavora per i propri siti predilige la linea teorica perche' sa che alla lunga avra' ragione e sara' ricompensato dell'attesa.

    Chiarissimo, come sempre 🙂


  • User Attivo

    Ho fatto un test alcuni mesi fa, un test per capire se era possibile far bannare un dominio esterno dai motori. Ha funzionato bene ed in pochi mesi (4-6) con G.

    Non entro nello specifico e ci tengo ad assicurare che mi sono autobannato, non lavoro contro e pertanto sperimento sulla mia pelle perche' capire e' bello.

    Comunque ho preso 2 miei vecchi siti, siti da poco, storici, ma da poco.
    Poi verso il primo dominio ho puntato parecchi link fuori tema da molti altri miei siti.
    Verso il secondo invece ho comprato una decina di domnini scaduti e ho fatto un redirect diretto via htaccess.

    Nel primo caso il sito lincato e' ancora online, il secondo bannato.


  • User Attivo

    agoago

    Ho cercato di quotare le cose su cui mi trovavo daccordo ma erano un po' troppe perciò quoto solo il nome. 🙂

    Belle le digressioni finali sull'aspetto quasi filosofico della vita del Seo...

    Riguardo all'anzianità dei siti sono impegnato in un test molto simile da tre anni (primo dominio registrato .it, poi chiuso sostituito da uno identico .com, quindi riaperto il primo con sito identico). E i risultati per ora sembrano confermare la tesi che hai esposto.

    Lucas :ciauz: