Ho un ampio database di collegamenti, che sono tutti ordinati in modi specifici e sono allegati ad altre informazioni, che è prezioso (per alcune persone).Come proteggi un database di collegamenti dallo scraping?
Attualmente il mio setup (che sembra funzionare) chiama semplicemente un file php come link.php? Id = 123, registra la richiesta con un timestamp nel DB. Prima di sputare il link, controlla quante richieste sono state fatte da quell'IP negli ultimi 5 minuti. Se è maggiore di x, ti reindirizza a una pagina captcha.
Che tutto funzioni bene e dandy, ma il sito è diventato molto popolare (oltre a ricevere DDOs per circa 6 settimane), quindi php ha perso terreno, quindi sto cercando di minimizzare i tempi che devo colpire php per fare qualcosa. Volevo mostrare i collegamenti in testo normale invece che tramite link.php? Id = e avere una funzione onclick per aggiungere semplicemente 1 al conteggio delle visualizzazioni. Sto ancora cercando php, ma almeno se è in ritardo, lo fa in background, e l'utente può vedere subito il link che ha richiesto.
Il problema è che rende il sito VERAMENTE scaricabile. C'è qualcosa che posso fare per impedirlo, ma ancora non fare affidamento su php per fare il controllo prima di sputare il link?
Approccio errato, direi. Probabilmente puoi ottimizzare il tuo codice in modo che funzioni abbastanza velocemente per i tuoi scopi. – alex
Prova a prevenirlo con l'avvocato. – Jacco
NON cercare di impedirlo usando javascript poiché la maggior parte degli screen saver non esegue nemmeno javascript. –