2009-05-07 9 views
15

che sto ricevendo diverse richieste in applicazioni web che sono fondamentalmente sbagliato nel modo mio codice non deve essere generando ... Principalmente si tratta di richieste di Ashx senza parametri GET specificati.Un agente utente che dice solo "Mozilla/4.0" è un bot, giusto?

L'agente utente è "Mozilla/4.0" (nient'altro) Gli IP variano da un giorno all'altro.

Si tratta di un bot, giusto?

Grazie!

risposta

9

Questo sembra molto strano per me. Qualsiasi bot legittimo si identificerebbe in un modo che è possibile riconoscere. Qualsiasi bot dannoso sarebbe in grado di fare un lavoro molto migliore rendendo l'agente utente simile a un normale browser. Questo è da qualche parte nel mezzo. Questo, combinato con le cattive richieste, mi porta a credere che tu abbia a che fare con la semplice vecchia incompetenza.

In entrambi i casi, è probabile che si desideri 404 queste richieste anziché restituire un errore di schermata gialla.

+0

Sto visualizzando la pagina di errore predefinita che ho creato, che dice solo "errore imprevisto", è un po 'più amichevole per gli umani rispetto a YSoD, e nasconde anche i dettagli degli errori da persone malintenzionate. Penso che dovrebbe tornare anche un 500, quindi il bot * dovrebbe * avere un suggerimento ... Ma sono completamente d'accordo con la tua teoria dell'incompetenza. –

+1

Hai 404 in modo che un bot non pensi che ci sia una pagina reale lì. Altrimenti, un bot dannoso potrebbe provare qualcos'altro sulla pagina in seguito, e questa volta potrebbe essere fortunato. E un motore di ricerca continuerà a venire in giro di tanto in tanto per reindicizzare. Se 404 la pagina vuota, il bot andrà via. –

1

Sono queste le richieste di pagine esistenti lei stesso scritto, o ottengono un 404?

In quest'ultimo caso, potrebbe essere una sorta di attacco di scansione, cercando di rilevare le istanze dell'applicazione vulnerabili prima di colpirle con un exploit.

+0

No, sono file che ho scritto io stesso (o almeno, esistono, come WebResource.axd) Lo script li ha trovati ovviamente controllando l'HTML di altre pagine. Ricevo segnalazioni di errori perché lo script è OTTENUTO senza parametri (che questi file si aspettano) –

10

Mi dispiace scontrare la vecchia domanda, ma penso che questo sia il bot utilizzato dal Great Firewall of China. Eseguono la scansione dei contenuti Web e fanno la censura.

Controlla il tuo log e controlla se c'è qualcosa come 'GET /cert/bazs.cert'.

sicuro al 100%, se questo si trova.

+0

Non ho trovato una richiesta per bazs.cert nel registro, ma penso che la tua risposta sia quella giusta, perché ho ottenuto una richiesta con questo User-Agent subito dopo aver inviato un link a qualcuno in Cina. – michau

+1

@michau Se il collegamento viene visualizzato in QQ (software IM, popolare in Cina), o si naviga nel proprio sito con Tencent Traveler (browser TT?), Il bot verrà visualizzato immediatamente. Tencent ha il suo motore di ricerca, User-Agent è come '... Sosospider ...', non solo 'Mozilla/4.0' – Proton

+0

Ci scusiamo per aggiungere a questo tanti anni dopo. La spiegazione del "Grande firewall della Cina" è ciò che abbiamo trovato più corretto. Abbiamo tracciato tutti gli indirizzi dei client utilizzando la stringa useragent 'Mozilla/4.0' su" China Telecom Shanghai ". –

1

io avevo realizzato richiesta lato asp.net monitoraggio su diversi siti web e cercando in record posso dire che solo user agent "Mozilla/4.0" può essere prodotto da qualsiasi di questi motivi:

  • incompetenza
  • ricerca robot
  • bot attacco

E 'interessante il fatto che il mio primo Android è stato identificato come "Safari 3.0", l'ultimo Android è identificato come "Mozilla 0"! Quindi è difficile puntare l'incompetenza su una specifica generazione di software.

Restituire 404 su ogni richiesta di questo tipo potrebbe non essere l'approccio migliore per i robot di ricerca, soprattutto se si tratta di un sito Web pubblico con frequenti modifiche dei contenuti.

D'altra parte si deve essere consapevoli che le richieste a WebResource.axd dove destinazione è valido puntano ad attacchi Cross Site Scripting. In questa situazione si consiglia di utilizzare SanitizerProvider. Puoi leggere ulteriori informazioni su questo tipo di attacco su Cross-site_scripting.

Un'altra buona cosa per identificare gli attacchi è guardare i file di registro di IIS, che sono comunemente posizionati su [root di sistema]: \ inetpub \ logs \ LogFiles \ W3SVC1. Ecco snipp dal mio strumento per l'analisi di file di registro IIS:

enter image description here

In questo agente casi l'utente non è stato un problema, attacco bot è stato identificato con la richiesta "/dbadmin/index.php" dal 2 IPS diversi. Ci sono un paio di file/pagine che i robot di attacco stanno cercando.

Spero che questo aiuti e dia un valore aggiunto a questa domanda.