Che sia esattamente così, è ben difficile. Anche se queste sono pratiche da manuale non è detto che Google le adotti oppure che non adotti delle versioni più avanzate. Queste versioni avanzate potrebbero aver reso obsolete alcune delle tecniche di trattamento/analisi dei testi.
Penso, personalmente, che i motori di ricerca debbano essere considerati più delle black box, il cui funzionamento è oscuro e per scoprire come si comportano è necessario adottare delle pratiche di "reverse engineering"; la teoria che sta sotto oramai è acqua passata per creare un motore come Google non basta certamente leggere e implementare un motore come quello descritto nei libri di web/data mining perché tanti piccole soluzioni sono protette da segreto industriale (neppure brevettate).
Utilizzare parole senza senso è una strategia per non far valutare le pagine in base al significato di quello che c'è scritto: (ad esempio) una keyword density del 3% potrebbe influenzare negativamente/positivamente il posizionamento di una pagina rispetto ad una pagina con una keyword density del 2%.
Per quanto riguarda i testi duplicati, beh... è stato detto tutto.