MEHRWERTE AUS DEM ROHSTOFF – Wir leben Daten

Als Lösungsanbieter für Big Data, Analyse und Künstliche Intelligenz ist es unser Ziel, Unternehmen dabei zu helfen, das volle Potenzial ihrer Daten auszuschöpfen. Wir bieten maßgeschneiderte Lösungen für jede Phase des Datenlebenszyklus an, von der Erfassung über die Verarbeitung bis hin zur Auswertung und Anwendung von Erkenntnissen. Unser Team von Expert:innen verwendet modernste Analyse-Tools und Machine-Learning-Algorithmen, um wertvolle Erkenntnisse aus den Daten zu gewinnen und so eine effektive Entscheidungsfindung zu unterstützen.

Wir helfen Unternehmen dabei, datenbasierte Entscheidungen zu treffen und ihre Wettbewerbsfähigkeit zu steigern.

DATEN­ANALYSE
MACHINE LEARNING
KÜNSTLICHE INTELLIGENZ
DATA MINING

„Data is the new Oil.“ Im Jahr 2006 wurde dieser Satz von Clive Humby geprägt. Heute hat die Aussage nichts an ihrer Aktualität verloren. Verfahren, mit denen ein Mehrwert aus den Rohstoffdaten gewonnen werden kann, sind überall auf dem Vormarsch. Neben klassischen BI-Ansätzen zur Visualisierung und Analyse von Daten spielen künstliche Intelligenz (KI) und maschinelles Lernen (ML) eine immer wichtigere Rolle.

abbildung

Data Pipelines & Data Science Pipeline

Im Zusammenhang mit datengetriebenen Anwendungsfällen wird oft von einer Data Pipeline oder Data Science Pipeline gesprochen. Die konkrete Umsetzung einer solchen Pipeline variiert und hängt stark von den konkreten Anforderungen und Rahmenbedingungen ab. Im Zentrum einer solchen Pipeline stehen immer die Daten. Diese werden in mehreren Stufen aufbereitet und veredelt, bis aus ihnen ein Produkt (oder Modell) entsteht, das einen Mehrwert generiert.

Die Abteilung „Big Data & AI“ hat sich darauf spezialisiert, solche Pipelines aufzubauen, die verschiedenen Stufen innerhalb dieser Pipelines umzusetzen und fertige Pipelines zu betreiben.

Entwicklung von Modellen

Für die Analyse der Daten und die Entwicklung von Modellen ist das Team „Data Science“ verantwortlich. Die Expert:innen dieser Abteilung haben unter anderem reichhaltige Erfahrung mit gängigen Machine-Learning-Bibliotheken wie scikit-learn, PyTorch oder TensorFlow.

Das Team „DWH/ETL“ hat sich auf die Aufbereitung der Daten spezialisiert. Hierbei kommen zum Beispiel ETL-Tools wie NiFi, Talend oder IBM Data Stage zum Einsatz. Ein weiterer Schwerpunkt des Teams ist die (dimensionale) Datenmodellierung für die effiziente Speicherung großer Datenmengen in einem DWH.

abbildung

Infrastruktur & Betrieb

Um den Aufbau der Infrastruktur und den sicheren Betrieb der Systeme kümmert sich das Team „Engineering & Infrastructure“. Technologische Schwerpunkte des Teams sind Hadoop, NoSQL-­Datenbanken und Kafka.

Wenn Sie mit Ihren Daten oder Prozessen in die Cloud wollen, so kann Ihnen das Team „Architecture & Cloud Solutions“ helfen. Dabei spielt es keine Rolle, ob Sie sich für einen der großen Public-Cloud-Anbieter entscheiden, die Systeme on-premises mit OpenStack, OpenShift oder Kubernetes betreiben wollen oder aber einen hybriden Ansatz wählen.

Unser KNOW-HOW im Big Data Umfeld

  • Ne04j
  • Apache Kafka
  • scikit-learn
  • Anaconda Enterprise
  • Apache Cassandra
  • Apache Kudu
  • Apache HBase
  • TensorFlow
  • Apache Spark
  • Hadoop
  • Architektur
  • Design
  • Data Analytics
  • Security
  • Backup
  • Entwicklung
  • Systemintegration
  • Betrieb / Remote Service
  • Data Lake
  • Analytic Workplace
  • Data Engineering
  • Machine Learning
  • Data Science

Cloudera – Partnerschaft

Cloudera - All Ihre Daten. Eine Plattform. Unbegrenzte Möglichkeiten.

Sicheres Datenmanagement und portable Cloud-native Datenanalysen in einer offenen, hybriden Datenplattform

Zur Cloudera Webseite

GEMEINSAME SUCCESS-STORIES -
Wertschöpfung von Beginn an

Unsere Ansprechpartner:innen Vertrieb für
DIENSTLEISTUNGEN & INHOUSE-SEMINARE

Sie haben Fragen zu unseren Dienstleistungen & Inhouse-Seminaren oder benötigen ein individuelles Angebot? Dann sprechen Sie uns an!

SEMINARE im Big Data Umfeld

Im Webinar "NoSQL Überblick" haben wir die wichtigsten Konzepte und Begriffe von NoSQL Datenbanken vorgestellt und einen ersten Überblick über die verschiedenen Kategorien von NoSQL Datenbanken gegeben. In diesem 4-stündigen Webinar stellen wir Ihnen Apache Cassandra vor. Cassandra gehört zur Gruppe der spaltenorientierten Datenbanken. Unter anderem bekommen Sie eine Einführung in Architektur, Datenmodellierung, CQL, die CQL Shell sowie das Konsistenzmodell (Tunable Consistency) von Cassandra. Weiterhin lernen Sie die Grundlagen zu Skalierbarkeit, Hochverfügbarkeit und Security mit Cassandra kennen. In praktischen Übungen wird das Erlernte vertieft. Nach diesem Webinar haben Sie das notwendige Wissen, um mit Cassandra erfolgreich zu starten.

ZUM SEMINAR

Im Webinar "NoSQL Überblick" haben wir die wichtigsten Konzepte und Begriffe von NoSQL Datenbanken vorgestellt und einen ersten Überblick über die verschiedenen Kategorien von NoSQL Datenbanken gegeben. In diesem 4-stündigen Webinar stellen wir Ihnen MongoDB vor. MongoDB gehört zur Gruppe der dokumentenorientierten Datenbanken. Unter anderem bekommen Sie eine Einführung in Architektur, Datenmodellierung, die mongo Shell sowie das Konsistenzmodell von MongoDB. Weiterhin lernen Sie die Grundlagen zu Skalierbarkeit, Hochverfügbarkeit und Security mit MongoDB kennen. In praktischen Übungen wird das Erlernte vertieft. Nach diesem Webinar haben Sie das notwendige Wissen, um mit MongoDB erfolgreich zu starten.

ZUM SEMINAR

Im Webinar "NoSQL Überblick" haben wir die wichtigsten Konzepte und Begriffe von NoSQL Datenbanken vorgestellt und einen ersten Überblick über die verschiedenen Kategorien von NoSQL Datenbanken gegeben. In diesem 4-stündigen Webinar stellen wir Ihnen Neo4J vor. Neo4J gehört zur Gruppe der Graph-Datenbanken. Unter anderem bekommen Sie eine Einführung in Architektur, Datenmodellierung, die Neo4J Shell (Cypher Shell) sowie Konsistenz und ACID-Transaktionen mit Neo4J. Weiterhin lernen Sie die Grundlagen zu Skalierbarkeit, Hochverfügbarkeit und Security mit Neo4J kennen. In praktischen Übungen wird das Erlernte vertieft. Nach diesem Webinar haben Sie das notwendige Wissen, um mit Neo4J erfolgreich zu starten.

ZUM SEMINAR

In diesem Seminar erhalten Sie einen Einblick in die wichtigsten Komponenten des Hadoop-Ökosystems. Sie bekommen eine Einführung in die zentralen Hadoop-Komponenten HDFS, YARN und MapReduce. Darauf aufbauend lernen Sie weitere wichtige Dienste aus dem Hadoop-Umfeld kennen. Dazu zählen Hive, Spark, HBase, Kafka und ZooKeeper. Viele praktische Übungen vertiefen das Gelernte.

ZUM SEMINAR

Durch die stetig wachsende Menge und Verfügbarkeit von Daten und deren vielseitige Einsatzmöglichkeiten nimmt die Bedeutung und Notwendigkeit der automatisierten Analyse und Generierung höherwertiger Information drastisch zu. Konzepte und Algorithmen aus dem Bereich des Machine Learnings ermöglichen es, aus den Daten neue Erkenntnisse zu gewinnen, aufwändige und datenlastige Prozesse zu automatisieren und Modelle zur Vorhersage zu entwickeln. Dieses Seminar bietet einen Einstieg in die Themen Data Science und Machine Learning. Sie bekommen einen Überblick über die wichtigsten Methoden und lernen Algorithmen zur Regression, Klassifikation und zum Clustering kennen. In praktischen Übungen verwenden Sie Python, um Daten aufzubereiten und eigene Modelle zu entwickeln.

ZUM SEMINAR

Apache Kafka hat sich in den letzten Jahren zu einem Standard für die Verarbeitung von Datenströmen entwickelt. In diesem Seminar bekommen Sie einen Einblick darin, warum Apache Kafka so erfolgreich ist und Sie erhalten einen Einstieg in die Anwendung sowie in die Administration. Damit Ihnen der Produktiveinsatz gelingt, werden auch wichtige Themen wie Integration, Überwachung und Hochverfügbarkeit behandelt.

ZUM SEMINAR

In der Praxis mangelt es wertvollen Datenbeständen häufig an Labels. Diese Schlüssel-Informationen sind für die Erstellung von AI/ML-Modellen essenziell. Die sinngebenden Labels (Beschriftungen) können i.d.R. nur von Menschen mit ausreichendem Sachverstand vergeben werden. Dies macht den Prozess zeitaufwändig und kostenintensiv. Das Active-Learning (AL) kann hier entscheidend helfen. Der AL-Algorithmus stellt wenige, zielgerichtete Fragen, um maximalen Lernerfolg für das ML-Modell zu erzielen. In diesem 1-stündigen Webinar erfahren sie anhand eines bekannten Beispieldatensatzes (Fashion MNIST), was unter Active-Learning im Detail zu verstehen ist und wie es in der Praxis funktioniert.

ZUM SEMINAR

Das 1,5-stündige Kafka Webinar bietet einen Überblick über die Eigenschaften und Besonderheiten des verteilten Nachrichtensystems Kafka. Dabei werden auch betriebliche Aspekte, wie z.B. Monitoring, betrachtet.

ZUM SEMINAR
KONTAKT
ORDIX AG
Karl-Schurz-Straße 19a
33100 Paderborn
Tel: +49 5251 1063-0
E-Mail: info@ordix.de