Voglio impedire ai motori di ricerca di eseguire la scansione di tutto il mio sito Web.Come impedire ai motori di ricerca di eseguire la scansione dell'intero sito Web?
Possiedo un'applicazione Web per i membri di un'azienda. Questo è ospitato su un server Web in modo che i dipendenti dell'azienda possano accedervi. Nessun altro (il pubblico) ne avrebbe bisogno o lo troverà utile.
Quindi voglio aggiungere un altro livello di sicurezza (In Theory) per cercare di impedire l'accesso non autorizzato rimuovendo totalmente l'accesso ad esso da parte di tutti i robot/crawler dei motori di ricerca. Avere Google indicizza il nostro sito per renderlo ricercabile è inutile dal punto di vista del business e aggiunge semplicemente un altro modo per un hacker di trovare il sito Web in primo luogo per tentare di hackerarlo.
So che nello robots.txt
è possibile indicare ai motori di ricerca di non eseguire la scansione di determinate directory.
È possibile dire ai robot di non eseguire la scansione di tutto il sito senza dover elencare tutte le directory da non sottoporre a scansione?
Questo è fatto meglio con robots.txt
o è meglio fatto da. Htaccess o altro?
Il tuo sito web è raggiungibile con cappello nero hacker, anche se l'indice non i motori di ricerca tuo sito. Gli hacker di Black Hat non stanno facendo ricerche su Google per trovarti. Hanno le loro bot-net che strisciano sul web e ignorano 'robots.txt'. Inoltre, stai danneggiando Internet rendendo più difficile per i dipendenti trovare il tuo sito web tramite la ricerca di google. A Google non piace quando lo fai e non rendi più sicuro il tuo sito web. Inoltre Google ti aiuta portando clienti. È come TSA dove prendi la tua lama da 1 pollice da te, non stanno rendendo le cose più sicure e stanno infastidendo tutti. –