Possiamo dire ai robot di eseguire la scansione o di non eseguire la scansione del nostro sito Web in robot.txt. D'altra parte, possiamo controllare la velocità di scansione nei webmaster di Google (quanto bot di Google esegue la scansione del sito Web). Mi chiedo se sia possibile limitare le attività del crawler da robots.txtÈ possibile controllare la velocità di scansione da robots.txt?
Voglio dire accettare i robot per eseguire la scansione delle pagine ma limitare la loro presenza in base al tempo o alle pagine o alle dimensioni!
ultima volta che ho sentito, Googlebot ignora Crawl-delay, quindi questo non sarà effettivamente aiutare per Google. Sarà per alcuni altri robot, però. Senza informazioni su quali robot funzioni, questa risposta è piuttosto incompleta. – derobert
Ulteriori informazioni su "Ritardo scansione" vedi questa domanda SO: http://stackoverflow.com/questions/17377835/robots-txt-what-is-the-proper-format-for-a-crawl-delay-for-multiple -user-agent –
Il ritardo di scansione non fa parte dello standard, ma alcuni robot lo rispettano: https://en.wikipedia.org/wiki/Robots_exclusion_standard#Crawl-delay_directive – nmit026