Quando ho letto sulla pipeline di dati AWS l'idea ha colpito immediatamente - produrre statistiche per kinesis e creare un lavoro in pipeline che consumerà dati da kinesis e COPY a redshift ogni ora. Tutto in una volta.Come copiare i dati in blocco da Kinesis -> Redshift
Ma sembra che non ci siano nodi nella pipeline che possono consumare kinesis. Quindi ora ho due possibili piani di azione:
- Creare un'istanza in cui i dati di Kinesis verranno consumati e inviati a S3 suddiviso per ore. La pipeline copierà da lì a Redshift.
- Consumo da Kinesis e produzione di COPY direttamente su Redshift sul posto.
Cosa devo fare? Non c'è modo di connettere Kinesis a redshift usando solo i servizi AWS, senza codice personalizzato?
Questo sembra esattamente quello che stavo cercando in quel momento. Grazie. – FXGlory