Vorrei scaricare ricorsivamente risorse JSON da un endpoint HTTP RESTful e archiviarle in una struttura di directory locale, seguendo i collegamenti alle risorse correlate sotto forma di stringhe JSON contenenti URL HTTP. Wget sembrerebbe essere uno strumento probabile per il lavoro, sebbene il suo download ricorsivo sia apparentemente limitato ai collegamenti ipertestuali HTML e ai riferimenti dell'URL CSS().Ricorsivamente risorse dal servizio web RESTful
Le risorse in questione sono file di documentazione Swagger simili a this one, sebbene nei miei casi tutti gli URL siano assoluti. Lo schema di Swagger è abbastanza complicato, ma sarebbe sufficiente seguire qualsiasi stringa che assomigli ad un URL HTTP (S) assoluto. Ancora meglio sarebbe seguire percorsi assoluti o relativi specificati nelle proprietà 'percorso'.
Qualcuno può suggerire un crawler ricorsivo per scopi generici che farebbe ciò che voglio qui, o un modo leggero di script wget o simile per raggiungerlo?
Se qualcuno è curioso, sto cercando di farlo per tenere traccia dei cambiamenti delle nostre API in fase di sviluppo nel tempo - prima di un rilascio saremmo in grado di diffare la documentazione corrente con uno snapshot della versione precedente. – yjo
Non è possibile suggerire un modo per fare ciò che si chiede, ma per informazioni generali, Swagger 2.0 è generalmente una dichiarazione a pagina singola anziché a più pagine (può * essere * essere multi-pagina se necessario) quindi le differenze sarebbero più facili allora . – Ron
@webron - sembra che sarebbe un miglioramento! Sfortunatamente i nostri swagger doc sono generati in modo semi-automatico (con [swagger-springmvc] (https://github.com/martypitt/swagger-springmvc)) e non penso che l'output di Swagger v2.0 sia un'opzione. – yjo