• Super User

    forzare il passaggio di googlebot/mediapartners

    ciao, c'e' un modo per far passare lo spider google ads prima di una reale visita?

    pensavo ad una cosa tipo il download dell'intero sito, ma non funziona (suppongo che il downloader debba eseguire il codice js). dunque cosa si puo' fare?


  • Super User

    se sono poche pagine facci un giro tu.... ma dalla tua domanda sembrano moltine.... :mmm: ..

    non credo puoi fare diversamente


  • Super User

    @Rinzi said:

    se sono poche pagine facci un giro tu.... ma dalla tua domanda sembrano moltine.... :mmm: ..

    non credo puoi fare diversamente

    ehm... 80.000 :fumato:


  • Super User

    ehh . allora credo che devi aspettare...


  • Super User

    no non devi aspettare...ti dico 2 cose

    esiste in php una funzione per leggere le cartelle e i files presenti in una determinata directory del tuo sito (solo se sei proprietario del sito)

    fai un semplice script php che faccia questo:

    APRI(DIRECTORY)---> per ogni riga in directory se è un files ed ha estenzione php o htm o html (o qualsiasi estensione che ti interessa) allora aprilo per 5 secondi (usa una tecnica simile agli autosurf).. se invece è una directory allora fai APRI(DIRECTORY/DIR2) e ripeti il procedimento

    così hai una specie di autosurf interno 😄 ti basta aprire la pagina contenente lo script e lasciarlo lavorare

    è proprio una boiata...io ho fatto sia la struttura per leggere tutti i files interni ad una dir che un autosurf...non li ho mai abinati..se ho tempo però te lo faccio lo script


  • Super User

    a parte che non sono un programmatore, quindi passera' un bel po' di tempo prima che lo riesca a fare (leggi secoli). ma mi chiedo: non risulta la stessa cosa di un wget --mirror http://www.domain.tld ?

    forse con il metodo che suggerisci tu esegue il javascript?


  • Super User

    @must said:

    a parte che non sono un programmatore, quindi passera' un bel po' di tempo prima che lo riesca a fare (leggi secoli). ma mi chiedo: non risulta la stessa cosa di un wget --mirror http://www.domain.tld ?

    forse con il metodo che suggerisci tu esegue il javascript?

    credo lo esegua...gli autosurf eseguono javascript, pop up e tutto quanto quindi perchè non google?

    si può fare una prova creati una pagina con un iframe che punta ad una pagina di una ricetta...poi apri la pagina con l'iframe e vedi se lo spider passa 😄


  • Super User

    il problema non e' creare la pagina. tengo i log che scorrono davanti al monitor, se passa googlebot/mediapartners lo vedo al volo.

    il problema casomai e' fare l'autosurf. con wget ho visto che googlebot non scatta.


  • Super User

    non conosco wget..mi spieghi cos'è?


  • Super User

    @kerouac3001 said:

    non conosco wget..mi spieghi cos'è?

    un downloader da linea di comando per unix.
    con l'opzione --mirror (o una combinazione di altre) fa il mirror del sito (o parte di esso).


  • Super User

    @must said:

    @kerouac3001 said:
    non conosco wget..mi spieghi cos'è?

    un downloader da linea di comando per unix.
    con l'opzione --mirror (o una combinazione di altre) fa il mirror del sito (o parte di esso).

    bè ma non c'entra un c***o ...vabbè te lo faccio io lo script se ho tempo...ci metto 30 minuti al massimo 😎


  • Community Manager

    @kerouac3001 said:

    @must said:
    @kerouac3001 said:
    non conosco wget..mi spieghi cos'è?

    un downloader da linea di comando per unix.
    con l'opzione --mirror (o una combinazione di altre) fa il mirror del sito (o parte di esso).

    bè ma non c'entra un c***o ...vabbè te lo faccio io lo script se ho tempo...ci metto 30 minuti al massimo 😎

    :sbav:

    Il link in firma non è messo bene

    Linkare un altro sito
    Il BBCode di phpBB supporta diversi modi per creare URI, Uniform Resource Indicators meglio conosciuti come URL.
    
        * Il primo di questi utilizza il tag [url=][/url], qualunque cosa digiti dopo il segno = genererà il contenuto del tag che si comporterà come URL. Per esempio per linkarsi a phpBB.com devi usare:
    
          [url=http://www.phpbb.com/]Visita phpBB![/url]
    
          Questo genera il seguente link, Visita phpBB! Come puoi vedere il link si apre in una nuova finestra così l'utente può continuare a navigare nei forum.
        * Se vuoi che l'URL stesso venga mostrato come link puoi fare questo semplicemente usando:
    
          [url]http://www.phpbb.com/[/url]
    
          Questo genera il seguente link, http://www.phpbb.com/
        * Inoltre phpBB dispone di una cosa chiamata Magic Links, questo cambierà ogni URL sintatticamente corretta in un link senza la necessità di specificare nessun tag o http://. Per esempio digitando www.phpbb.com nel tuo messaggio automaticamente verrà cambiato in www.phpbb.com e verrà mostrato nel messaggio finale.
        * La stessa cosa accade per gli indirizzi email, puoi specificare un indirizzo esplicitamente, per esempio:
    
          [email][email protected][/email]
    
          che mostrerà [email][email protected][/email] o puoi digitare [email][email protected][/email] nel tuo messaggio e verrà automaticamente convertito.
    
    Come per tutti i tag del BBCode puoi includere le URL in ogni altro tag come [img][/img] (guarda il successivo punto), [b][/b], ecc. Come per i tag di formattazione dipende da te verificare che tutti i tag siano correttamente aperti e chiusi, per esempio:
    
    [url=http://www.phpbb.com/][img]http://www.phpbb.com/images/phplogo.gif[/url][/img]
    

  • Super User

    si l'avevo notato da giorni, ma sono pigro 🙂

    sei pure tu interessato a uno script del genere?
    oggi non ho avuto tempo ma se vi sembra utile lo faccio 🙂


  • Community Manager

    Si può tornare molto utile 🙂


  • Super User

    prima di farlo però mi è venuto un dubbio:

    il tuo sito è statico o dinamico?perchè se è dinamico il problema è diverso.

    prima di buttare giù il codice passami l'url del tuo sito must

    forse la soluzione migliore è creare uno spider...è da un pò che volevo creare uno spider in php..penso sia abbastanza impossibile, ma la sfida mi alletta 😄

    lo spider dovrebbe solo leggere la pagina cercare i links a pagine interne e se non sono già presenti nell'array link[] allora li aggiunge all'array.
    dopo aver letto l'index inizia a visualizzare e leggere i links presenti in link[] e ad aggiungere altri link all'array..in questo modo vede tutte le pagine che vedrebbe google.

    in VB6 sarebbe facile da fare, ma mi sono sempre chiesto se potessi fare la stessa cosa in php

    Se invece il tuo sito è statico allora l'idea iniziale della ricerca ricorsiva all'interno delle tue cartelle può andare bene

    ok mi metto a lavoro..tu fammi sapere


  • Super User

    il sito e' il famoso laboratorio personale: www.prodottitipicitaliani.com


  • Super User

    ho fatto uno script adatto solo al sito di must..

    il mio finto spider sta vedendo tutte le tue pagine 😄

    ho fatto in modo che ne visualizzi una ogni 3 secondi...

    il suo nome è SpazioGratis.iT 😄 se hai phpstats dimmi se vedi che sta passando 😄

    poi dimmi la reazione di google adsense


  • Super User

    @kerouac3001 said:

    ho fatto uno script adatto solo al sito di must..

    il mio finto spider sta vedendo tutte le tue pagine 😄

    ho fatto in modo che ne visualizzi una ogni 3 secondi...

    il suo nome è SpazioGratis.iT 😄 se hai phpstats dimmi se vedi che sta passando 😄

    poi dimmi la reazione di google adsense

    il ragno lo vedo, googlebot no :sad:


  • Super User

    bene ho bloccato il ragno..lo faccio ripartire dall'ultima pagina vista solo se mi dirai che google è passato sulle pagine viste

    mi segno qui i dati dell'ultima pagina vista così non li dimentico

    cat=0&id=1210


  • Super User

    @kerouac3001 said:

    bene ho bloccato il ragno..lo faccio ripartire dall'ultima pagina vista solo se mi dirai che google è passato sulle pagine viste

    mi segno qui i dati dell'ultima pagina vista così non li dimentico

    cat=0&id=1210

    non passa, non passa 😢 :arrabbiato: