Effizient migriert, nachhaltig erweitert: Online-Banking-Plattform und ETL-Architektur in der Google Cloud

Herausforderung

Im Rahmen der strategischen Weiterentwicklung seiner Online-Banking-Infrastruktur startete der Kunde im August 2023 ein Projekt zur Migration einer bestehenden Legacy-Anwendung in eine bereits etablierte Cloud-Plattform. Ziel war es, Kundendaten und fachliche Logiken aus dem Altsystem in eine moderne, Google Cloud-basierte Umgebung zu überführen - unter Einhaltung technischer und regulatorischer Anforderungen.

Die Ausgangslage war geprägt durch eine eingeschränkte Skalierbarkeit, hohen Wartungsaufwand und veraltete Sicherheitsmechanismen der Legacy-Anwendung. Diese Faktoren führten zu steigenden Betriebskosten und erschwerten die digitale Weiterentwicklung. Die zentrale Herausforderung bestand darin, die komplexen fachlichen und technischen Logiken des Altsystems in die neue Plattform zu übertragen, ohne eine neue Architektur aufbauen zu müssen. Die bestehende Cloud-Infrastruktur sollte dabei gezielt erweitert und genutzt werden.

Vorgehen

Das Projekt wurde in einem hybriden Modell umgesetzt, das agile Entwicklungszyklen mit klassischen Migrationsphasen kombinierte. ORDIX übernahm zentrale Aufgaben in der Planung, Umsetzung und Qualitätssicherung der Migration.

Unsere Leistungen im Überblick:

  • Analyse und Reverse Engineering der Legacy-Anwendung: Um die fachlichen Logiken des Altsystems präzise in die neue Cloud-Umgebung zu übertragen, führten wir eine tiefgehende Analyse durch. Dabei wurden bestehende Prozesse und Datenstrukturen systematisch entschlüsselt und in eine moderne Architektur überführt - ohne die Notwendigkeit einer Neuentwicklung.
  • Datenmigration aus komplexen On-Premise-Strukturen: Die Extraktion, Transformation und Konsolidierung der Daten aus mehreren Oracle-Datenbanken erfolgte unter strenger Berücksichtigung von regulatorischen Vorgaben. Dabei standen Sicherheit, Datenintegrität und Nachvollziehbarkeit im Fokus - insbesondere bei der Verarbeitung sensibler Kundeninformationen.
  • Entwicklung Cloud-nativer Datenverarbeitungsprozesse: In der Google Cloud wurden performante und skalierbare Datenpipelines konzipiert und umgesetzt. Zum Einsatz kamen etablierte Services wie BigQuery, Pub/Sub, Dataflow und die Storage Write API, die eine effiziente Verarbeitung großer Datenmengen ermöglichen und gleichzeitig die Grundlage für zukünftige Erweiterungen schaffen.
  • Qualitätssicherung durch Migrationssimulationen: Um die Konsistenz und Vollständigkeit der Daten während der Migration sicherzustellen, wurden umfangreiche Testszenarien entwickelt und durchgeführt. Diese Simulationen halfen dabei, potenzielle Fehlerquellen frühzeitig zu identifizieren und zu beheben - noch vor dem Produktivbetrieb.
  • CI/CD-Automatisierung und DevOps-Integration: Die bestehende CI/CD-Pipeline wurde erweitert und automatisiert, um eine nahtlose Integration in die DevOps- und Site-Reliability-Engineering-Strategie des Kunden zu ermöglichen. Dabei wurden auch Compliance-Vorgaben berücksichtigt, um einen sicheren und stabilen Betrieb zu gewährleisten.
  • Koordination und Testmanagement: ORDIX übernahm die Abstimmung zwischen den beteiligten Fachbereichen, Entwicklungsteams und dem Betrieb. Durch strukturierte Testmigrationen und eine klare Kommunikationsstrategie wurde ein reibungsloser Übergang in die neue Plattform ermöglicht.

Kundennutzen / Mehrwert

Durch die enge Abstimmung mit der Fachseite und die strukturierte Koordination der Migrationsprozesse konnte ORDIX einen wesentlichen Beitrag zum Projekterfolg leisten. Unsere Expert:innen agierten als Schnittstelle zwischen Entwicklung, Betrieb und Fachbereich und begleiteten die Umsetzung ganzheitlich - von der Planung bis zur Qualitätssicherung.

Ein zentraler Bestandteil war der gezielte Wissenstransfer: Während des Projekts wurden technische Konzepte, Prozessverständnisse und Best Practices kontinuierlich dokumentiert und in gemeinsamen Workshops sowie Reviews vermittelt. So konnte das interne Team des Kunden nicht nur aktiv in die Umsetzung eingebunden werden, sondern auch nachhaltig von den gewonnenen Erkenntnissen profitieren. Die Übergabe erfolgte nicht als einmaliger Schritt, sondern als fortlaufender Austausch über die gesamte Projektlaufzeit hinweg.

Die flexible und ressourcenschonende Herangehensweise unterstützte die wirtschaftlichen Ziele des Kunden und ermöglichte eine Migration im vorgesehenen Zeit- und Budgetrahmen. Die neue Lösung bietet heute:

  • Höhere Verfügbarkeit und Skalierbarkeit der Systeme
  • Reduzierte Betriebskosten und verbesserte Wartbarkeit
  • Grundlage für schnellere Innovationszyklen und eine nachhaltige digitale Transformation
  • Stärkung der internen Kompetenzen durch gezielten Wissenstransfer und methodische Begleitung

Das Ergebnis: Eine stabile und performante Migration geschäftskritischer Daten und Anwendungen in die Google Cloud - umgesetzt mit einem klaren Fokus auf Qualität, Sicherheit und nachhaltiger Befähigung des Kunden.

Kunde

Unser Kunde ist eine in Deutschland führende Bank mit globalem Netzwerk. Die Bank konzentriert sich auf ihre Stärken als Unternehmensbank, in einer führenden Privatkundenbank, in einer fokussierten Investmentbank sowie im Asset Management.

Branche: Banken

Methoden & Technologien

  • Google Cloud Platform, Gcloud Command Line Tool, CloudSDK, Cloud Functions, CloudSQL (Postgres), ApiGee, Istio, BigTable, Cloud Spanner, Java Apache Beam (Cloud Dataflow), Big Query, Dataform, Docker, Kubernetes Engine, Kubernetes Jobs, Cloud Scheduler, Cloud Storage, PubSub, Cloud Composer, Google Artefact Registry (GAR), IAM, Sentinel, Forgerock LDAP
  • Liquibase, Helm, Hashicorp Terraform (Enterprise)
  • GitHub, GitLab, GitLab CI/CD, GitHub Actions, Maven, SonarQube, Jfrog
  • Java, Java EE, Quarkus, diverse Test Frameworks (JUnit, Mockito, Wiremock, etc.), Chaos Mesh
  • Jira, Confluence, ServiceNow
  • Scrum, Scaled Agile Framework, DevOps, Site Reliability Engineering, Software Development Lifecycle