Uns vertraut haben die innovativsten Firmen













Risikomanagement
Herausforderung
Ein Finanzinstitut verfügte bereits über eine bestehende Plattform, die jedoch keine Simulationen durchführen konnte und nicht mandantenfähig war. Gesucht wurde daher eine erweiterte Lösung, um regulatorische Anforderungen flexibel abzubilden, komplexe Szenarien zu simulieren und gleichzeitig mehrere Mandanten zu unterstützen. Zudem sollten IFRS-konforme Risikobewertungen ermöglicht werden.
Unser Beitrag
Wir konzipierten und implementierten eine mandantenfähige Architektur und erweiterten die bestehende Risiko-Engine um eine leistungsstarke IFRS-Simulation. Dabei kombinierten wir tiefes Domänenwissen im Bankenwesen mit moderner Softwarearchitektur.
Ergebnis
- Deutlich vereinfachte Abbildung regulatorischer Anforderungen
- Hohe Skalierbarkeit durch Optimierungen
- Transparente und belastbare Simulationsergebnisse für das Management
Statistische Erhebungen
Herausforderung
Eine öffentliche Institution benötigte eine moderne Lösung, um groß angelegte Umfragen effizient durchzuführen und die Ergebnisse für wirtschaftspolitische Analysen nutzbar zu machen. Das bestehende System war technisch veraltet und nicht mehr skalierbar.
Unser Beitrag
Wir übernahmen die Analyse, Konzeption und vollständige Neu-Implementierung eines Umfrageportals für statistische Erhebungen. Dabei legten wir besonderen Wert auf Datensicherheit, Benutzerfreundlichkeit, Barrierefreiheit und die flexible Erweiterbarkeit der Plattform.
Ergebnis
- Effiziente Durchführung komplexer Umfragen
- Hohe Datenqualität und Auswertbarkeit in Echtzeit
- Beitrag zur Bestimmung monetärer und wirtschaftlicher Entwicklungen in Deutschland
Marktdatenverwaltung
Herausforderung
Ein Finanzdienstleister benötigte eine zentrale Lösung, um große Mengen an Marktdaten aus unterschiedlichen Quellen konsistent und performant bereitzustellen. Eine Plattform gab es bisher nicht – Ziel war es, eine skalierbare Grundlage für zukünftige datengetriebene Anwendungen zu schaffen.
Unser Beitrag
Wir übernahmen das Architekturdesign und die Implementierung einer modernen Plattform zur Verwaltung von Marktdaten. Die Lösung integriert unterschiedliche Datenquellen, stellt standardisierte Schnittstellen bereit und ermöglicht eine flexible Erweiterung für zukünftige Anforderungen.
Ergebnis
- Erstmalige zentrale Plattform für sämtliche Marktdaten
- Hohe Performance und Skalierbarkeit von Beginn an
- Zukunftssichere Basis für Reporting, Analyse und regulatorische Anforderungen
Statistische Berechnungsplattform
Herausforderung
Zur Identifikation von Marktpotenzialen und zur Analyse von Korrelationen zwischen verschiedenen Assetklassen wurde eine Plattform benötigt, die komplexe ökonomische Fragestellungen effizient unterstützt. Zentral war die Fähigkeit, multivariate Regressionsanalysen auf einer belastbaren technologischen Basis durchzuführen.
Unser Beitrag
Wir entwickelten eine Plattform für statistische Berechnungen mit Schwerpunkt auf multivariaten Regressionen. Die Lösung erlaubt eine flexible Modellierung, automatisierte Berechnungen und die skalierbare Verarbeitung umfangreicher Datenbestände. Damit wurde eine fundierte Grundlage geschaffen, um Zusammenhänge zwischen Märkten systematisch zu analysieren und wirtschaftliche Entscheidungen zu unterstützen.
Ergebnis
- Verlässliche Erkennung von Marktpotenzialen und Korrelationen zwischen Assetklassen
- Effiziente Durchführung multivariater Regressionsanalysen
- Solide Entscheidungsbasis für wirtschaftliche Bewertungen und Prognosen
Market-Making-System für ETFs
Herausforderung
Ein Finanzdienstleister benötigte ein neues Market-Making-System für börsengehandelte Fonds (ETFs). Ziel war eine Architektur, die effiziente Preisstellung, robuste Orderabwicklung und eine zuverlässige Anbindung an Handelsplätze ermöglicht – bei gleichzeitiger Einhaltung regulatorischer Vorgaben.
Unser Beitrag
Wir übernahmen die Konzeption des Systems. Schwerpunkte waren:
- Fachliche und technische Gesamtarchitektur für ein performantes, skalierbares Market-Making-System
- Definition der Module für Preisbildung, Spread-Kalkulation und Risikosteuerung
- Schnittstellenkonzept zu Order-Management-Systemen, Handelsplätzen und Risikocontrolling
Ergebnis
- Vollständige Neukonzeption eines Market-Making-Systems für ETFs
- Klare Architektur- und Modulvorgaben als Grundlage für die spätere Implementierung
- Zukunftssichere und regulatorisch abgesicherte Systembasis
Data Mediator Service für Gesundheitsdaten
Herausforderung
Gesundheitsdaten unterliegen höchsten Anforderungen an Datenschutz und Informationssicherheit. Personenbeziehbare Daten mussten strikt von anonymisierten Analyse-Daten getrennt werden. Mehrere Datenempfänger (Versorgung, Forschung, Controlling) benötigten differenzierte Zugriffe – unter Einhaltung von Zweckbindung, Nachvollziehbarkeit und DSGVO-Vorgaben. Ziel war die zentrale Steuerung aller Datenflüsse bei gleichzeitig hoher Sicherheit, Verfügbarkeit und Skalierbarkeit.
Unser Beitrag
Wir übernahmen die Konzeption und Steuerung eines Data Mediator Service als Policy-gesteuerte Vermittlungsinstanz zwischen Erfassungs-, Verarbeitungs- und Analysebereichen. Dabei definierten und begleiteten wir insbesondere:
- Trennzonen-Architektur: Confidential Zone (personenbeziehbar), De-ID-Pipeline (Pseudonymisierung/Anonymisierung/Tokenisierung), Analytics Zone (anonymisiert).
- Policy & Access Control: Attributbasierte Zugriffskontrolle (ABAC), Purpose Binding, Least Privilege, zentrale Policy-Durchsetzung an allen APIs.
- Consent & Governance: Einwilligungs- und Widerrufsmanagement, Data Lineage, Audit Trails, DLP-Kontrollen, Data Contracts.
- Privacy-Enhancing Technologies (PETs): stabile Anonymisierung, Aggregations-Guards, optional Differential Privacy; Ausnahmeregelungen in Trusted Execution Environments (TEE).
- Kryptographie & Betrieb: End-to-End-Verschlüsselung, HSM-gestütztes Key-Management, gehärtetes Secrets-Handling; hohe Verfügbarkeit, Observability und Incident-Runbooks.
Ergebnis
- Klare Trennung von hochsensiblen und anonymisierten Datenströmen; reduziertes Risiko von Datenlecks und Re-Identifikation.
- Standardisierte Policies und automatisierte Prüfpfade als Grundlage für effiziente Freigaben.
- Sichere Nutzung von Daten für Forschung und Analysen ohne Zugriff auf Identifizierungsmerkmale.
- Architektur- und Governance-Grundlage für die Skalierung auf weitere Anwendungsfälle (z. B. Register, Kohortenanalysen, Qualitätsberichte).
Nachrichten-Router für eine Bundesbehörde
Herausforderung
Eine Bundesbehörde benötigte eine Lösung, um Nachrichten sicher und zuverlässig an mehrere weitere Behörden zu senden und von diesen zu empfangen. Ziel war es, die Kommunikation zentral zu steuern, unterschiedliche Systeme anzubinden und dabei hohe Anforderungen an Sicherheit, Nachvollziehbarkeit und Verfügbarkeit zu erfüllen.
Unser Beitrag
Wir übernahmen die Konzeption eines Nachrichten-Routers. Schwerpunkte waren:
- Architekturentwurf für die zentrale Steuerung von eingehenden und ausgehenden Nachrichten
- Definition der Routing-Logik für Mehrfachadressierungen und Verteilung an verschiedene Empfängerbehörden
- Vorgaben für sichere Übertragung, Authentifizierung und Protokollierung
- Berücksichtigung von Ausfallszenarien, Monitoring und Betriebskonzept
- Sicherstellung der Einhaltung gesetzlicher und behördlicher Standards
Ergebnis
- Architektur- und Designvorgaben für einen zentralen Nachrichten-Router einer Bundesbehörde
- Transparente und sichere Kommunikationsstrukturen mit mehreren Empfängerstellen
- Klare Grundlage für die spätere Umsetzung und den zuverlässigen Betrieb
Backend-Redesign einer Beschaffungsplattform
Herausforderung
Eine Behörde betrieb eine Beschaffungsplattform, deren Backend technisch veraltet und schwer wartbar war. Performance-Engpässe, fehlende Schnittstellenstandards und unzureichende Nachvollziehbarkeit erschwerten revisionssichere Vergabeprozesse. Ziel war ein zukunftsfähiges Backend, das fachliche Workflows zuverlässig abbildet, Integrationen vereinfacht und Compliance (u. a. Datenschutz, Revisionssicherheit) stärkt.
Unser Beitrag
Wir analysierten Domänen und Prozesse (Ausschreibung, Angebotsabgabe, Wertung, Vergabe) und entwarfen eine moderne Zielarchitektur. Umsetzungsschwerpunkte:
- Architektur & Migration: API-first, modular (Microservices oder modularer Monolith), Strangler-Pattern für risikominimierte Ablösung.
- Schnittstellen: Standardisierte REST/Events; Anbindung von DMS/E-Akte, ERP, E-Signatur und Identitätsdiensten (OIDC/SAML).
- Security & Compliance: Rollen-/Attributbasierte Zugriffe, durchgängige Audit-Trails, Verschlüsselung „at rest“ & „in transit“, DSGVO-/IT-Grundschutz-konforme Policies.
- Betrieb & Qualität: CI/CD-Pipeline, automatisierte Tests, Observability (Logs/Traces/Metriken), Blue-Green-Deployments für nahezu ausfallfreie Releases.
Ergebnis
- Deutlich verbesserte Performance und Stabilität in Lastspitzen.
- Hohe Wartbarkeit durch klare Modulgrenzen und saubere APIs.
- Revisionssichere Prozesse dank Audit-Trails und konsistenter Rechteprüfung.
- Einfachere Integration in Behördenlandschaften (DMS/E-Akte, ERP, Identity).
- Schnellere Releases durch Automatisierung und standardisierte Deployment-Pfad.