Una connessione PipedInputStream/PipedOutputStream funziona alla grande quando i dati devono essere inviati a un solo output, ma se più flussi di output sono connessi a un flusso di input, i dati diventano frammentato tra le diverse uscite. La mia soluzione attuale consiste nel disporre di un "lettore" filettato che legge i dati da un InputStream e quindi scrive i dati negli oggetti OutputStream che sono stati associati al lettore. Questo sembra funzionare bene, ma sembra disordinato e inefficiente rispetto alle classi native di PipedIO.Il modo migliore per inviare dati da un flusso di input a più flussi di uscita
C'è un modo migliore per gestire questo o è l'implementazione che sto lavorando con circa buono come sto andando a ottenere?
Grazie per la risposta. Hai ragione nell'assumere che i dati non siano persistenti. Fondamentalmente sto leggendo i dati da una connessione SSH per scopi di verifica. Memorizzo le risposte dei comandi in modo che possano essere verificate rispetto al comportamento previsto, scrivere i dati in un registro di debug come richiesto e scrivere tutti i dati in una GUI a scopo di monitoraggio. Dal momento che mi preoccupo solo del buffering di piccole quantità di dati per la risposta al comando, penso che seguirò il mio metodo attuale o il metodo multiplex sopra a meno che non ci siano altri suggerimenti. – WeeTodd