Utilizziamo Flask + TensorFlow al lavoro. La nostra configurazione potrebbe non essere il modo più ottimale per offrire modelli, ma svolge il suo lavoro e funziona fino a ora.
La configurazione è la seguente:
- Perché tfserving vuole una vita per costruire, abbiamo costruito un'immagine finestra mobile (non il supporto GPU o niente, ma funziona solo per servire un modello ed è più veloce e migliore di servire direttamente dall'interno di un enorme monolite Python/Flask). L'immagine del server modello può essere trovata qui: https://hub.docker.com/r/epigramai/model-server/
- Then Flask viene utilizzato per impostare un'API. Per inviare richieste al server modello è necessario un client di previsione grcp, quindi ne abbiamo creato uno in Python che è possibile importare direttamente nell'API del pallone, https://github.com/epigramai/tfserving_predict_client/.
Il bello è che il modello non è servito dall'applicazione API Flask. Il server modello di immagine docker può essere facilmente sostituito con un server modello in esecuzione su una GPU compilata per l'hardware delle macchine invece del contenitore finestra mobile.
Avete successo? Non vedo l'ora. –