Cloud-DevOps - Lösungen. Wissen. Seminare.

Cloud-DevOps vereint die Vorteile der Cloud-Computing-Technologie mit den agilen Prinzipien von DevOps. Es ermöglicht Ihnen, Anwendungen schnell zu entwickeln, zu testen und bereitzustellen, indem es automatisierte Prozesse und skalierbare Ressourcen in der Cloud nutzt.

Durch die Automatisierung von Entwicklung, Test und Bereitstellung können Sie Entwicklungszyklen verkürzen und schneller auf Kundenanforderungen reagieren. Sie können neue Funktionen und Updates kontinuierlich implementieren und den Time-to-Market erheblich reduzieren.

Darüber hinaus ermöglicht es Ihnen Cloud-DevOps durch die Nutzung der Ressourcen der Cloud, Ihre Infrastruktur und Kapazität problemlos an die Anforderungen Ihres Unternehmens anpassen. Sie können schnell auf Veränderungen in der Nachfrage reagieren und die Leistung Ihrer Anwendungen optimieren.

Als IT-Dienstleister unterstützen wir Sie bei der Implementierung von Cloud-DevOps. Unsere Expert:innen analysieren Ihre Anforderungen und entwickeln eine maßgeschneiderte Strategie für die Umsetzung von Cloud-DevOps in Ihrem Unternehmen. Wir nutzen bewährte Tools und Methoden, um die Automatisierung und Planbarkeit Ihrer Entwicklungsprozesse zu gewährleisten.

ORDIX blog – Beiträge zu CLOUD-DEVOPS

In ihrem Blog präsentiert die ORDIX regelmäßig Beiträge zu Cloud-DevOps, die das Wissen der Leser erweitern und sie über die neuesten Entwicklungen auf dem Laufenden halten. Von praktischen Anwendungsfällen bis hin zu technischen Tutorials bietet der Blog eine breite Palette an Informationen zu Cloud-DevOps.

Seminare im Cloud-DevOps Umfeld

In diesem sehr übungsintensiven Workshop lernen Sie mit Oracle Cloud Control zu arbeiten und umzugehen. Sie erhalten einen Überblick über die Oberfläche und die Installation der Agenten. Nach dem Seminar sind Sie in der Lage, Oracle Datenbanken über die GUI-Oberfläche zu administrieren und zu überwachen.

ZUM SEMINAR

Container-Technologien haben die Entwicklung, Bereitstellung und den Betrieb moderner Anwendungen grundlegend verändert. Kubernetes hat sich dabei als De-facto-Standard für die Orchestrierung containerisierter Anwendungen etabliert. Dieses Seminar vermittelt einen fundierten und praxisnahen Einstieg in die Architektur, Komponenten und Funktionsweise von Kubernetes.

Anhand zahlreicher Übungen lernen die Teilnehmenden, wie Anwendungen in einem Kubernetes-Cluster bereitgestellt, automatisiert, skaliert und verwaltet werden. Neben den Grundlagen stehen bewährte Best Practices für den effizienten Betrieb im Fokus. Damit bildet das Seminar eine solide Basis für den produktiven Einsatz von Kubernetes in Entwicklungs- und Betriebsumgebungen.

ZUM SEMINAR

In diesem 3-tägigen Seminar erhalten Sie einen Überblick über die Oracle Cloud Infrastructure (OCI), die dort angebotenen Cloud-Formen und Lizenzmodelle. Im Mittelpunkt dieses Seminars stehen die grundlegenden administrativen Aufgaben von Datenbankadministratoren. Insbesondere das Erstellen von Datenbanken und die Migration bestehender Systeme in der OCI, und die Besonderheiten der Administration, wie z.B. die Wallet-Verwaltung (Verschlüsselung der Datenbanken in der Cloud) sind Inhalt dieses Seminars. Ebenso wird ein automatisches RMAN-Backup eingerichtet und ein RMAN-Restore der Datenbank in der Cloud durchgeführt. Es wird Ihnen gezeigt wie schnell und einfach eine Standby-Datenbank (Data Guard) in der OCI erstellt und administriert werden kann. Das Thema Monitoring und Patchen von Oracle-Datenbanken in der OCI rundet das Seminar ab.

ZUM SEMINAR

Big-Data-Plattformen wie Apache Hadoop bilden die technologische Basis für die Verarbeitung, Speicherung und Analyse großer Datenmengen. In diesem Seminar erhalten Sie einen fundierten und praxisnahen Einstieg in das Hadoop-Ökosystem sowie in dessen zentrale Architektur- und Verarbeitungskonzepte.

Sie lernen die Kernkomponenten HDFS, YARN und MapReduce kennen und erwerben anschließend einen Überblick über weitere zentrale Dienste wie Hive, Spark, HBase, Kafka und ZooKeeper. Zahlreiche praxisorientierte Übungen ermöglichen es Ihnen, typische Anwendungsfälle nachzuvollziehen und erste Erfahrungen im Umgang mit Hadoop-Umgebungen zu sammeln. Das Seminar schafft damit eine solide Grundlage für den Einsatz von Hadoop in Data-Engineering-, Analytics- und Big-Data-Projekten.

ZUM SEMINAR

Cloud Computing ist längst mehr als ein technischer Trend – es ist ein zentraler Treiber für Digitalisierung, Agilität und Skalierbarkeit entlang der gesamten Wertschöpfungskette. Gleichzeitig stellt der Einsatz von Cloud-Technologien Unternehmen vor neue Herausforderungen: Bestehende IT-Strukturen, Prozesse und Verantwortlichkeiten müssen hinterfragt, angepasst oder vollständig neu gedacht werden.

Dieses Seminar vermittelt Ihnen einen praxisnahen und fundierten Einstieg in das Cloud Computing. Sie lernen die grundlegenden Konzepte, Service- und Betriebsmodelle kennen und verstehen die wesentlichen Unterschiede zwischen klassischem IT-Betrieb und cloudbasierten Architekturen – sowohl aus technologischer als auch aus organisatorischer Sicht.

Zur Veranschaulichung werden der praktische Umgang mit führenden Public-Cloud-Anbietern sowie ausgewählte Services live demonstriert. Dabei werden Gemeinsamkeiten, Unterschiede und typische Einsatzszenarien verständlich erläutert. Ergänzend bietet das Seminar Raum für Diskussionen realer Fallbeispiele sowie für Fragen und Herausforderungen aus eigenen Cloud- oder Migrationsprojekten der Teilnehmenden.

Ziel ist es, Ihnen eine fundierte Entscheidungs- und Orientierungsgrundlage zu geben, um Chancen, Risiken und Auswirkungen einer Cloud-Transformation realistisch einschätzen zu können.

ZUM SEMINAR

Terraform ist eines der führenden Werkzeuge für Infrastructure as Code (IaC) und ermöglicht die automatisierte Erstellung, Verwaltung und Versionierung von IT-Infrastrukturen. In diesem Seminar erhalten Sie eine intensive und praxisnahe Einführung in die Welt der Infrastrukturautomatisierung mit Terraform.

Sie lernen, wie Sie mit Terraform-Code komplexe Cloud- und IT-Umgebungen effizient, reproduzierbar und skalierbar bereitstellen. Aufgrund der Vielzahl verfügbarer Provider konzentrieren sich die praktischen Übungen auf den AWS-Provider, da dieser am häufigsten eingesetzt wird. Die vermittelten Konzepte, Strukturen und Best Practices lassen sich jedoch problemlos auf andere Provider übertragen. Ergänzend gehen wir auch auf alternative Provider ein und zeigen Gemeinsamkeiten sowie Unterschiede auf.

ZUM SEMINAR

Serverless Cloud Computing ist ein schnell wachsender Cloud-Anwendungsfall. Serverlose Dienste ermöglichen eine präzise und bedarfsgerechte Bereitstellung von Ressourcen, die automatisch mit der Nachfrage skalieren. Ein zentrales Konzept ist "Function as a Service" (FaaS): Entwickler stellen ihre Anwendungen als einzelne Funktionen bereit, die ereignisgesteuert ausgeführt werden. Dieses Modell bietet zahlreiche Vorteile - etwa geringeren Verwaltungsaufwand und hohe Skalierbarkeit - birgt jedoch auch Risiken wie potenziell hohe Betriebskosten und einen starken Vendor Lock-In. In diesem Tech-Talk erfahren Sie, was Serverless Computing ausmacht, wie es sinnvoll eingesetzt werden kann und worin die Unterschiede zu etablierten Ansätzen wie Docker-Containern liegen.

ZUM SEMINAR

In diesem Webinar betrachten wir drei Cloud-ETL-Tools im direkten Vergleich. Effizienz, Skalierbarkeit und Kosten: Azure Data Factory, AWS Glue und Oracle Data Integrator treten gegeneinander an. Wir analysieren ihre Stärken, Schwächen und Praxisanwendungen, um Ihnen die beste Wahl für Ihre Datenstrategie zu ermöglichen. Welche Lösung bietet die beste Nutzerfreundlichkeit? Wie sieht es mit Kosten und Skalierbarkeit aus? Welche Plattform integriert sich am besten in bestehende Systeme? Für wen lohnt sich welches Tool? Am Ende haben Sie einen genauen Überblick über die Tools und für welche Anforderungen sie am besten geeignet sind. Egal, ob Sie Entwickler, Architekt oder Entscheidungsträger sind. Ein Vortrag für alle, die mit Daten arbeiten und fundierte Entscheidungen treffen möchten, auch ohne tiefes technisches Vorwissen.

ZUM SEMINAR

In einer zunehmend datengetriebenen Welt wird es für Unternehmen aller Größen und Branchen immer entscheidender, Entscheidungen auf einer soliden Datenbasis zu treffen. Ob Handwerksbetrieb, Mittelständler oder Großkonzern - wer langfristig wettbewerbsfähig bleiben will, muss in der Lage sein, Informationen aus Daten effizient zu gewinnen und zu nutzen. Gerade Fachabteilungen fordern heute moderne Business - Intelligence - Lösungen, um eigenständig auf relevante Daten zugreifen, diese analysieren und in aussagekräftige Visualisierungen überführen zu können. Ziel ist es, Prozesse transparenter zu gestalten, Entwicklungen frühzeitig zu erkennen und strategisch besser zu steuern.

ZUM SEMINAR

Argo CD ist ein deklaratives, GitOps-basiertes Tool für Continuous Delivery in Kubernetes-Umgebungen. Es synchronisiert automatisch den in Git definierten Zielzustand mit dem tatsächlichen Zustand im Cluster. Abweichungen (Drift) erkennt Argo?CD zuverlässig und kann diese – bei Bedarf – selbstständig korrigieren.

Durch klare Versionierung, definierte Zugriffsmodelle und vollständig reproduzierbare Deployments sorgt Argo?CD für Transparenz, Nachvollziehbarkeit und Stabilität im gesamten Delivery-Prozess.
In diesem Workshop lernen Sie den produktiven Einsatz von Argo CD, um Kubernetes-Anwendungen sicher, konsistent und nachvollziehbar auszuliefern.

Behandelt werden die zentralen Argo CD-Komponenten (API-Server, Repo-Server, Application Controller), der GitOps-Workflow, Sync-Policies von manuell bis automatisch sowie fortgeschrittene Konzepte wie App-of-Apps und ApplicationSets zur skalierbaren Verwaltung komplexer Deployments.
Eine Live-Demo zeigt den Weg vom manuellen Deployment hin zu GitOps-basierten Deployments mit Argo?CD. Raum für Fragen und Erfahrungsaustausch ist fester Bestandteil des Workshops.

ZUM SEMINAR

Unsere Ansprechpartner:innen
SPRECHEN SIE UNS AN!

Sie haben Fragen zu unseren Dienstleistungen & Inhouse-Seminaren oder benötigen ein individuelles Angebot? Dann sprechen Sie uns an!