Zur Entwicklung individueller commodity spezifischer Algo Trading Strategien sowie spezieller Compliance und Reporting Anforderungen werden aufbereitete Datenströme aus vorgelagerten Trading Systemen benötigt. Die vorgelagerten Systeme liefern die Trading Daten unabhängig von der Art der Handelsgeschäfte. Insbesondere eine Trennung nach Strom- Gas- und Zertifikatgeschäften fehlt. In diesem Projekt soll der Datenstrom in einer aus Kafka und Flink bestehenden Mittelware Lösung nach der Geschäftsart aufgetrennt und spezifisch für nachfolgende individuelle Lösungen bereitgestellt werden.
Das durch den Einsatz von Algo Trading Systemen erzeugte exponentielle Wachstum der Transaktionsdaten im Energiehandel und die lange Liste von Möglichkeiten, neue Algorithmen zu entwickeln, erhöht die Komplexität der IT-Landschaft des Unternehmens. Der Datenfluss von großen Datenmengen (ca. 15.000.000 Geschäfte pro Tag) soll den Geschäftsregeln und -anforderungen entsprechen End-to-End durch die Systeme fließen. In diesem Projekt entwickeln wir eine Softwarelösung mit Streaming-Technologien, die es ermöglicht, große Datenmengen maßgeschneidert in die Systeme einzuspeisen. Neue Tools für die Überwachung und Berichterstattung sind ebenfalls Teil des Projekts. Zu den Aufgaben der PTA gehört es, Anforderungen zu erheben, diese zu validieren und zu garantieren, dass die entwickelte Softwarelösung entsprechend den Geschäftsanforderungen implementiert wird.
In größeren Energiehandelshäusern sind die Tradingabteilungen nach Art der Geschäfte wie Strom, Gas oder Zertifikate getrennt. Sowohl Trading Strategien als auch die Überwachung und das Reporting erfolgten Desk spezifisch. Eine Auftrennung der Datenströme aus den Händlersystemen, wie Trayport, Deltix usw. nach Geschäftstypen ist deshalb für die Realtime Weiterverarbeitung notwendig. Hierfür nutzt die Lösung Apache Kafka zum Transport der Daten und Apache Flink zur spezifischen Aufbereitung der Datenströme für die konsumierenden Systeme.