Dopo creare più consumatori (usando Kafka 0.9 Java API) e ciascun thread iniziato, sto ottenendo la seguente eccezioneKafka CommitFailedException eccezione consumatore
Consumer has failed with exception: org.apache.kafka.clients.consumer.CommitFailedException: Commit cannot be completed due to group rebalance
class com.messagehub.consumer.Consumer is shutting down.
org.apache.kafka.clients.consumer.CommitFailedException: Commit cannot be completed due to group rebalance
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator$OffsetCommitResponseHandler.handle(ConsumerCoordinator.java:546)
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator$OffsetCommitResponseHandler.handle(ConsumerCoordinator.java:487)
at org.apache.kafka.clients.consumer.internals.AbstractCoordinator$CoordinatorResponseHandler.onSuccess(AbstractCoordinator.java:681)
at org.apache.kafka.clients.consumer.internals.AbstractCoordinator$CoordinatorResponseHandler.onSuccess(AbstractCoordinator.java:654)
at org.apache.kafka.clients.consumer.internals.RequestFuture$1.onSuccess(RequestFuture.java:167)
at org.apache.kafka.clients.consumer.internals.RequestFuture.fireSuccess(RequestFuture.java:133)
at org.apache.kafka.clients.consumer.internals.RequestFuture.complete(RequestFuture.java:107)
at org.apache.kafka.clients.consumer.internals.ConsumerNetworkClient$RequestFutureCompletionHandler.onComplete(ConsumerNetworkClient.java:350)
at org.apache.kafka.clients.NetworkClient.poll(NetworkClient.java:288)
at org.apache.kafka.clients.consumer.internals.ConsumerNetworkClient.clientPoll(ConsumerNetworkClient.java:303)
at org.apache.kafka.clients.consumer.internals.ConsumerNetworkClient.poll(ConsumerNetworkClient.java:197)
at org.apache.kafka.clients.consumer.internals.ConsumerNetworkClient.poll(ConsumerNetworkClient.java:187)
at org.apache.kafka.clients.consumer.internals.ConsumerNetworkClient.poll(ConsumerNetworkClient.java:157)
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.commitOffsetsSync(ConsumerCoordinator.java:352)
at org.apache.kafka.clients.consumer.KafkaConsumer.commitSync(KafkaConsumer.java:936)
at org.apache.kafka.clients.consumer.KafkaConsumer.commitSync(KafkaConsumer.java:905)
e poi iniziare a consumare messaggio normalmente, vorrei sapere che cosa sta causando questa eccezione per risolverlo.
Hugo, hai ancora riscontrato questo problema? puoi fornire qualche informazione in più? – Nautilus
Sì @nautilus, sto ancora avendo questo problema. Ho 3 consumatori, tutti nello stesso gruppo di consumatori, ho un argomento con 20 partizioni, da cui i dati dovrebbero essere letti. Questa eccezione si verifica casualmente, tuttavia i consumatori possono leggere i dati da argomento/partizioni, sebbene questa eccezione sia attivata. –
i consumatori stanno solo consumando i dati o lo stanno elaborando anche loro?Vedo sul tuo stacktrace che l'eccezione si verifica quando stai provando a commitSync dell'offset, puoi descrivere cosa succede tra il consumo dei messaggi e il commit dell'offset? Penso che sia possibile che il tuo consumatore stia perdendo battito cardiaco con il coordinatore. – Nautilus