Diciamo che ho una pagina dinamica che crea URL's
dagli input dell'utente. Ad esempio: www.XXXXXXX.com/browse
< -------- (Sfoglia la pagina)Non consentire determinate directory di pagina ma NON quella pagina stessa
Ogni volta che l'utente inserisce una query, genera più pagine. Per esempio: www.XXXXXXX.com/browse/abcd
< -------- (abcd è la nuova pagina)
ora, voglio Google per fare strisciare questa pagina "browse", ma non le secondarie pagine da esso generato.
Sto pensando di aggiungerlo alla mia pagina robots.txt; "Disallow:/browse /"
Sarebbe la cosa giusta da fare? o impedirà anche allo Googlebot di eseguire la scansione della pagina "sfoglia"? Cosa devo fare per ottenere il risultato ottimale ?
io credo che si possa utilizzare il meta tag 'alcun indice, no follow' sulle tue pagine interne , e basta usare 'no follow' sulle tue pagine principali, quindi google non 'entrerà' di più ... http: //www.robotstxt.org/meta.html –
Queste pagine secondarie sono come in centinaia, non lo faccio Penso di non poter aggiungere alcun seguito a ogni pagina manualmente:/ –