Dies ist eines von 4635 IT-Projekten, die wir erfolgreich mit unseren Kunden abgeschlossen haben.

Wobei dürfen wir Sie unterstützen?

Weißes Quadrat mit umrandeten Seiten rechts oben

Aufbereitung von Datenstreams aus kommerzielen Algo tradern für die Entwicklung eigener Modelle

Kurzbeschreibung

Zur Entwicklung individueller commodity spezifischer Algo Trading Strategien sowie spezieller Compliance und Reporting Anforderungen werden aufbereitete Datenströme aus vorgelagerten Trading Systemen benötigt. Die vorgelagerten Systeme liefern die Trading Daten unabhängig von der Art der Handelsgeschäfte. Insbesondere eine Trennung nach Strom- Gas- und Zertifikatgeschäften fehlt. In diesem Projekt soll der Datenstrom in einer aus Kafka und Flink bestehenden Mittelware Lösung nach der Geschäftsart aufgetrennt und spezifisch für nachfolgende individuelle Lösungen bereitgestellt werden.

Ergänzung

Das durch den Einsatz von Algo Trading Systemen erzeugte exponentielle Wachstum der Transaktionsdaten im Energiehandel und die lange Liste von Möglichkeiten, neue Algorithmen zu entwickeln, erhöht die Komplexität der IT-Landschaft des Unternehmens. Der Datenfluss von großen Datenmengen (ca. 15.000.000 Geschäfte pro Tag) soll den Geschäftsregeln und -anforderungen entsprechen End-to-End durch die Systeme fließen. In diesem Projekt entwickeln wir eine Softwarelösung mit Streaming-Technologien, die es ermöglicht, große Datenmengen maßgeschneidert in die Systeme einzuspeisen. Neue Tools für die Überwachung und Berichterstattung sind ebenfalls Teil des Projekts. Zu den Aufgaben der PTA gehört es, Anforderungen zu erheben, diese zu validieren und zu garantieren, dass die entwickelte Softwarelösung entsprechend den Geschäftsanforderungen implementiert wird.

Fachbeschreibung

In größeren Energiehandelshäusern sind die Tradingabteilungen nach Art der Geschäfte wie Strom, Gas oder Zertifikate getrennt. Sowohl Trading Strategien als auch die Überwachung und das Reporting erfolgten Desk spezifisch. Eine Auftrennung der Datenströme aus den Händlersystemen, wie Trayport, Deltix usw. nach Geschäftstypen ist deshalb für die Realtime Weiterverarbeitung notwendig. Hierfür nutzt die Lösung Apache Kafka zum Transport der Daten und Apache Flink zur spezifischen Aufbereitung der Datenströme für die konsumierenden Systeme.

Überblick

Projektbeginn16.08.2022

Haben wir Ihr Interesse geweckt?

Dr. Andreas Schneider, grauhaariger Mann mit Brille

Dr. Andreas Schneider

Head of Energy