Bei der Vorbereitungsarbeit (hier geht es zum ersten Artikel der Serie) konnten wir gut sehen, dass „Big Data“ auch „Big Data Preparation“ erfordert. Ist die Vorarbeit hier nicht sorgfältig genug, kann sich das unter Umständen wie ein Rattenschwanz durch das gesamte Projekt ziehen. Daher ist es auf jeden Fall ratsam, genügend Zeit für diesen oftmals unterschätzten Teil der Arbeit einzurechnen. Nicht zu vergessen, ist die Einarbeitung in die eingesetzten Systeme und deren Zusammenspiel. Existieren bereits Vorkenntnisse im Betrieb mit Hilfsmitteln wie Docker ist das ein großer Vorteil. Da das bei mir nicht wirklich der Fall war, war ich sehr froh um die Kompetenz meines Betreuers von IKS.
Dass viele Wege zur gewünschten Lösung führen, konnte ich bei der Umsetzung im zweiten Teil zeigen. Um zu prüfen, ob und wie Kafka und Spark für den Umgang mit Daten mit georäumlichen Bezug verwendet werden können, erstellte ich verschiedene Beispiel-Szenarien. Teilweise mit Echtzeit-Anforderung, teilweise ohne. Anhand dieser Problemstellungen testete ich die Systeme. Dafür musste ich aus den Schiffsnachrichten, die anfangs nur durch Punkte dargestellt wurden, richtige geometrische Figuren basteln. Ein nicht ganz leichter, aber umso interessanterer Schritt.