`EndlessConsumer` nimmt jetzt einzelne `ConsumerRecord`s entgegen
* `@KafkaHandler` von Batch-Verarbeitung auf Einzel-Verarbeitung umgestellt.
* Den `ApplicationErrorHandler` um eine passende Fehler-Verarbeitung für
die einzelne Verarbeitung der Nachrichten ergänzt
* Da der `MessageListenerContainer` nicht dazu zu bewegen ist, die
Offset-Commits im Fehlerfall zu unterlassen, wird explizit ein Seek auf
die Offset-Positionen der noch nicht verarbeiteten Nachrichten
durchgeführt.
* Dabei wurde ein von Spring Kafka abgeschauter Trick verwendet: Es genügt,
die bisher unverarbeiteten Nachrichten durchzugehen und jeweils den
Offset der ersten Nachricht, die zu einer Partition gesehen wird, für
den Seek vorzumerken. Denn wenn dabei für eine Partition keine Nachricht
gefunden wird, hat entweder das letzte `poll() keine Nachricht zu der
Partition geliefert, oder alle Nachrichten, die zu der Partition gehört
haben, wurden erfolgreich verarbeitet. In beiden Fällen stimmt der
Offset bereits, den die Kafka-Bibliothek intern pflegt, so dass kein
Seek durchgeführt werden muss!
* Der Testfall wurde entsprechend angepasst und läuft daher in dieser
Variante auch ohne Fehler, da der gespeicherte Zustand dadurch zu den
bestätigten Offsets passt.