Data Management

Technologien: Oracle, IBM Db2, IBM Informix, PostgreSQL, MS SQL Server, MySQL/MariaDB, Hadoop, Apache Kudu, Apache Cassandra u.v.m.

Dienste: Architektur, Design, Entwicklung, Administration, Remote Service, Health-Checks, Security u.v.m.

Leistungen: Benutzerverwaltung, Backup & Recovery, Lifecycle Management, Monitoring, Disaster Recovery, Hochverfügbarkeit, Data Lake, Machine Learning u.v.m.

Technologie-Dienstleistungen

Im Kontext der Digitalen Transformation ist eine fachübergreifende Vernetzung entscheidend für den Erfolg. Unsere Fachbereiche agieren eng vernetzt und ergänzen sich in ihrem Knowhow. Wir erkennen die Zusammenhänge und entwickeln gemeinsam die passende Lösung für Ihr Projekt.

Cloud Services

Leistungen: Cloud Architecture, Cloud Engineering, DevOps Engineering, Cloud Migration/Transformation u.v.m.

Technologien: IaaS, PaaS, IaC, Kubernetes, Docker, Ansible, Puppet, Terraform, AWS CloudFormation, Google Cloud Deployment Manager u.v.m.

Cloud-Provider: Amazon Web Services, Microsoft Azure, Google Cloud Platform, Open Telekom Cloud, Oracle Cloud Infrastructure u.v.m.

Data Management

Technologien: Oracle, IBM Db2, IBM Informix, PostgreSQL, MS SQL Server, MySQL/MariaDB, Hadoop, Apache Kudu, Apache Cassandra u.v.m.

Dienste: Architektur, Design, Entwicklung, Administration, Remote Service, Health-Checks, Security u.v.m.

Leistungen: Benutzerverwaltung, Backup & Recovery, Lifecycle Management, Monitoring, Disaster Recovery, Hochverfügbarkeit, Data Lake, Machine Learning u.v.m.

Projektmanagement

Klassisch: ITIL (R), Anforderungsmanagement, Controlling, Krisenmanagement, Prince2 (R), PMI(R)/PMBOK(R) u.v.m.

Agil: Scrum, KANBAN, Hybrides Projektmanagement u.v.m.

Leistungen: Strategie, Geschäftsprozessmanagement, Organisation u.v.m.

Seminare

Technische Seminare: Oracle, IBM, Microsoft, DevOps, Application Development u.v.m.

Softskill Seminare: Scrum, KANBAN, Hybrides Projektmanagement u.v.m.

Wir schulen jährlich über 1.700 Teilnehmer und gewährleisten damit, dass Sie und Ihre Mitarbeiter technologisch und persönlich am Puls der Zeit bleiben.

Remote Service

Technologien: Oracle, IBM Db2, MS SQL Server, SEP sesam, CommVault u.v.m.

Dienste: Change Management, Incident Management, Problem Management u.v.m.

Leistungen: Monitoring, Health Check, 24/7 Rufbereitschaft, Support u.v.m.

Application Development

Technologien: JBoss, WebLogic, WebSphere, Microservices, OpenShift, Continuous Integration u.v.m.

Dienste: Architektur, Design, Cloud-Integration, DevOps u.v.m.

Sprachen & Bibliotheken: Java EE, Jakarta EE, Java, Spring Boot, Angular, TypeScript, Python u.v.m.

System Integration

Technologien: Debian, Ubuntu, Pacemaker, Oracle, Solaris, Red Hat, SUSE Linux u.v.m.

Dienste: Installation, Betriebssupport, Implementierung, Security u.v.m.

Leistungen: Beratung, Migration, Administration, Tuning u.v.m.

„Ein erfolgreiches Data Management ist zugleich die größte Herausforderung aber auch der entscheidende Erfolgsfaktor für Unternehmen. Das Denken in Silos führt unvermeidbar zum Misserfolg.“

Matthias Jung, Bereichsleiter Data Management

person mj

Data Management – Zwei Bereiche, viele Lösungen

Relationale Datenbanken
iStock 1072325456
Smart Data / Big Data

Relationale Datenbanken – umfangreich & individuell

Kaum ein Bereich der IT hat sich in den letzten Jahren so dramatisch entwickelt wie das Data Management. Wurden in der Vergangenheit Daten in „Silos“ gehalten, so hat sich die Welt in den letzten Jahren massiv verändert. Und sie wird es weiter tun.

Das Wachstum von Daten erfolgt exponentiell (Big Data), zugleich haben sich die Daten in Bewegung gesetzt (Streaming), verändert (strukturierte und unstrukturierte Daten) und sollen dabei zeitnah (Realtime) an unterschiedlichen Orten gewinnbringend genutzt werden (Data Science).

Parallel zu den gestiegenen Anforderungen haben sich die Spielregeln verändert.

Regulatorische Anforderungen (Datenschutz, Datenrecht) und Kostendruck nehmen täglich zu. Diesen dynamischen Anforderungen kann nur mit einem gesamtheitlichen Data-Management-Prozess, der den Schutz aber auch die Nutzbarkeit der Daten in das Zentrum der IT Prozesse stellt, begegnet werden.

Wir als ORDIX AG haben uns diesem gesamtheitlichen Ansatz verschrieben. Unser Anliegen ist die sichere, kosteneffiziente Verwaltung und Ihrer Daten, damit sie unter Beachtung aller geltenden Regeln und Vorschriften den maximalen Nutzen ziehen und optimale Entscheidungen auf Basis Ihrer Daten treffen können.

Knowhow, Trainings und Referenzen

Portfolio Data Management

Knowhow

  • Oracle Gold Partner seit 2014, Aktive Mitgliedschaft in der DOAG (Regionalleitung)
  • Beratung, Administration, Monitoring, Service, Entwicklung, Tuning und Remote Service von Datenbanken bei namhaften Kunden

Trainings / Seminare

  • Oracle-Entwicklung: Administration, Tuning, Backup & Recovery, HV, etc. 12c/18c/19c
  • MS-SQL-Server-Administration, Querying Data, etc.
  • IBM-Informix-Entwicklung, Administration, Tuning, etc.
  • IBM-Db2-Entwicklung, Administration, Tuning, Backup & Recovery, HV, etc.
  • PostgreSQL-Administration, MySQL

Referenzen

  • Leistungen bei deutschen Banken: Business Analyse, Design und Entwicklung, Performance Tuning, DB-Administration und -Migration, Backup & Recovery, Automatisierungen, Exadata/ODA, Data Guard, Kerberos, HV-/Backup-Konzeption und Umsetzung mit Data Guard und RMAN, Performance Tuning

Big Data & AI – Wir leben Daten

"Data is the new Oil." Im Jahr 2006 wurde dieser Satz von Clive Humby geprägt. Heute hat die Aussage nichts an ihrer Aktualität verloren. Verfahren, mit denen ein Mehrwert aus dem Rohstoff Daten gewonnen werden kann, sind überall auf dem Vormarsch. Neben klassischen BI-Ansätzen zur Vi­sua­lisierung und Analyse von Daten spielen künstliche Intelligenz (KI) und maschinelles Lernen (ML) eine immer wichtigere Rolle.

Im Zusammenhang mit datengetriebenen Anwendungsfällen wird oft von einer Data Pipeline oder Data Science Pipeline gesprochen. Die konkrete Umsetzung einer solchen Pipeline variiert und hängt stark von den konkreten Anforderungen und Rahmenbedingungen ab. Im Zentrum einer solchen Pipeline stehen immer die Daten. Diese werden in mehreren Stufen aufbereitet und veredelt, bis aus ihnen ein Produkt (oder Modell) entsteht, das einen Mehrwert generiert.

Die Abteilung "Big Data & AI" hat sich darauf spezialisiert, solche Pipelines aufzubauen, die verschiedenen Stufen innerhalb dieser Pipelines umzusetzen und fertige Pipelines zu betreiben.

Für die Analyse der Daten und die Entwicklung von Modellen ist das Team "Data Science" verantwortlich. Die Expert:innen dieser Abteilung haben unter anderem reichhaltige Erfahrung mit gängigen Machine-Learning-Bibliotheken wie scikit-learn, PyTorch oder TensorFlow.

Das Team "DWH/ETL" hat sich auf die Aufbereitung der Daten spezialisiert. Hierbei kommen zum Beispiel ETL-Tools wie NiFi, Talend oder IBM Data Stage zum Einsatz. Ein weiterer Schwerpunkt des Teams ist die (Dimensionale) Datenmodellierung für die effiziente Speicherung großer Datenmengen in einem DWH.

Um den Aufbau der Infrastruktur und den sicheren Betrieb der Systeme kümmert sich das Team "Engineering & Infrastructure". Technologische Schwerpunkte des Teams sind Hadoop, NoSQL-­Datenbanken und Kafka.

Wenn Sie mit Ihren Daten oder Prozessen in die Cloud wollen, so kann Ihnen das Team "Architecture & Cloud Solutions" helfen. Dabei spielt es keine Rolle, ob Sie sich für einen der großen Public-Cloud-Anbieter entscheiden, die Systeme on-premises mit OpenStack, OpenShift oder Kubernetes betreiben wollen oder aber einen hybriden Ansatz wählen.

Knowhow, Trainings und Referenzen

Portfolio BigData

Knowhow

  • Beratung, Architektur, Administration, Monitoring, Service, Entwicklung
  • Data Engineering
  • Data Science Technology
  • Onsite und remote-Service
  • Big Data Projekte seit 2013
  • Cloudera und Google Cloud-Partner

Trainings / Seminare

  • Hadoop: HDFS, YARN und MapReduce, Hive Metastore, HBase, Kafka, Spark
  • Apache Spark: Spark Core, Architektur, SQL, Streaming, MLlib und GraphX
  • Apache Kafka: Architektur, Hochverfügbarkeit, Skalierung, Betrieb, Integration, Monitoring, Software-Verteilung/Deployment, Fehlerszenarien
  • Apache Cassandra: Administration, Knoten, Datacenter, Cluster, Backup & Recovery, Security, Best-Practice
  • Apache NiFi: Installation, Change Data Capture (CDC), Monitoring, Cluster, Registry
  • Machine Learning Basics: Vorstellung von verschiedenen Modellen (z.B. lineare Regression und k-Nächste-Nachbarn), Modellentwicklung mit scikit-learn, Methoden zur Validierung und Bewertung von Modellen

Referenzen

  • Leistungen bei deutschen Banken & Versicherungen: Data Engineering, Data Science Projektunterstützung Kreditoptimierung, Systemintegration, onsite/remote Service für Plattform und Application, Aufbau, Betrieb (Managed Service), MariaDB, Apache Cassandra & Oracle, Integration/Administration, Test/Deployment, Konzeption Mandantenfähigkeit und Security

Noch Fragen? – Schreiben Sie uns an

Kontakt
ORDIX AG
Karl-Schurz-Straße 19a
33100 Paderborn
Tel: +49 5251 1063-0
E-Mail: info@ordix.de
Focus
Chip Top Arbeitgeber