OK, inizierò con un caso d'uso elaborato e spiegherà la mia domanda: Io uso una piattaforma di analisi web 3rd party che utilizza AWS Kinesis flussi per passare i dati dal client alla destinazione fin
Ho un evento catturato da Kinesis Stream. Voglio mettere tutti gli eventi su una struttura di cartelle specifica su S3. Voglio fare una cartella con il timbro della data come tutti gli eventi del 15 g
Quando ho letto sulla pipeline di dati AWS l'idea ha colpito immediatamente - produrre statistiche per kinesis e creare un lavoro in pipeline che consumerà dati da kinesis e COPY a redshift ogni ora.