KI für Ihr Unternehmen – Jetzt Demo buchen

Integration von Mainframe-Systemen in CICD-Pipelines als Schlüssel zur Effizienzsteigerung

Kategorien:
No items found.
Freigegeben:
March 12, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Die Integration von Mainframe-Systemen in moderne CI/CD-Pipelines beschleunigt die Anwendungsbereitstellung und reduziert operative Risiken.
    • Historisch bedingt waren Mainframes auf Stabilität ausgerichtet, was zu langsamen Innovationszyklen führte; moderne Unternehmen fordern jedoch höhere Geschwindigkeiten.
    • Ein Generationenwechsel in den Entwicklungsteams erfordert die Anpassung von Arbeitsabläufen und Tools, um neue Talente einzubinden und gleichzeitig von der Erfahrung älterer Mitarbeiter zu profitieren.
    • Die Standardisierung von Test-, Sicherheits- und Qualitätsprüfungen über Mainframe- und verteilte Plattformen hinweg ist möglich, wobei der Fokus auf der Methodik und nicht auf spezifischen Tools liegt.
    • Moderne Mainframe-Toolchains bieten APIs, CLIs und Webhooks, die eine nahtlose Integration in CI/CD-Pipelines ermöglichen.
    • Automatisierung erhöht die Zuverlässigkeit, reduziert manuelle Fehler und ermöglicht Entwicklern, sich auf anspruchsvollere Aufgaben zu konzentrieren.
    • Eine enge Zusammenarbeit zwischen Anwendungsentwicklung und IT-Betrieb ist entscheidend für den Erfolg von CI/CD-Pipelines auf Unternehmensebene.

    Mainframe-Systeme in moderne CI/CD-Pipelines integrieren: Ein strategischer Imperativ

    Die Integration von Mainframe-Systemen in moderne Continuous Integration/Continuous Delivery (CI/CD)-Pipelines stellt einen entscheidenden Schritt für Unternehmen dar, die ihre Anwendungsbereitstellungszyklen beschleunigen und gleichzeitig operative Governance-Risiken minimieren möchten. In der Vergangenheit operierten diese zentralen Architekturen oft isoliert, wobei Stabilität und Zuverlässigkeit im Vordergrund standen.

    Dr. Elizabeth Maxwell, Global Director of Mainframe Modernisation bei BMC, erläutert, dass der Mainframe traditionell als zentrales System mit einem Ruf für hohe Zuverlässigkeit, Verfügbarkeit und Wartbarkeit (RAS) galt. Diese über Jahre hinweg erarbeitete Reputation führte dazu, dass technische Abteilungen prozedurale Änderungen mit großer Skepsis betrachteten.

    Diese vorsichtige Herangehensweise prägte die Anwendungsentwicklung nach dem sogenannten Wasserfallmodell, das sequenzielle, streng kontrollierte Fortschritte vorschrieb, um potenzielle Ausfallzeiten zu minimieren. Dr. Maxwell bemerkt: „Das Wasserfallmodell bedeutete, dass Anwendungsinnovationen erst nach einem sorgfältig abgewogenen Prozess, der erhebliche Zeit in Anspruch nahm, bereitgestellt wurden. Jede Phase musste mit hoher Spezifikation abgeschlossen werden; dies führte zu einer Verlangsamung der Release-Zyklen.“

    Die Folge war eine langsame Einführung neuer Funktionen. Obwohl die Endprodukte als qualitativ hochwertig wahrgenommen wurden, war die Markteinführung neuer Funktionen zweifellos schleppend. Heute verlangen Geschäftsbereiche jedoch schnellere Innovationszyklen, um wettbewerbsfähig zu bleiben, wodurch diese Legacy-Workflows zu einer Belastung werden, wenn Geschwindigkeit gefragt ist. „Doch heute ist eine viel schnellere Innovation erforderlich, und so ist der traditionelle Ansatz nicht mehr ‚zweckmäßig‘, um die vom Geschäft benötigten Geschwindigkeiten aufrechtzuerhalten“, so Dr. Maxwell. Diese Notwendigkeit erkennend, begannen erste Innovatoren bereits vor über einem Jahrzehnt mit der Prozessmodernisierung.

    Die Überbrückung der generationsbedingten Kluft in der Technik

    Ein wesentlicher Faktor, der diese Modernisierung beschleunigt, ist ein demografischer Wandel in den Entwicklungsteams der Unternehmen. Da erfahrene Fachkräfte in den Ruhestand treten, müssen Unternehmen ihre Betriebsmodelle an den nachwachsenden Talentpool anpassen.

    „Als sich die Demografie der Bevölkerung, die die Mainframe-Anwendungsentwicklung unterstützt, zu ändern begann – mit Babyboomern, die in den Ruhestand gingen, und einer neuen Denkweise, die sich etablierte – stellten wir fest, dass die Art und Weise, wie wir Informationen austauschten, kollaborativer wurde. Als eine von der ‚Internet-Revolution‘ beeinflusste Gesellschaft sahen wir einen Wandel in der Denkweise“, beobachtet Dr. Maxwell.

    Jüngere Ingenieure treten heute mit deutlich anderen Erwartungen an Tools und Arbeitsabläufe in den Arbeitsmarkt ein. Sie sind in einem dezentralen Ansatz geschult, schreiben kleinere Module und verwenden Open-Source-Toolchains zur Automatisierung der Entwicklung. Die Aktualisierung von Pipelines erfordert ein sorgfältiges Gleichgewicht zwischen diesen beiden unterschiedlichen Gruppen, um die operative Harmonie zu wahren.

    „Wenn wir die Einführung von CI/CD auf dem Mainframe betrachten, benötigen wir eine Mischung aus Technologie, Prozess und Kultur“, sagt Dr. Maxwell. Sie weist darauf hin, dass dies manchmal als „Machtkampf“ bezeichnet wird und eine moderne Geschäftsdynamik darstellt, die interne Reibungen verursacht.

    Um diese internen Dynamiken zu lösen, wird Unternehmen empfohlen, einen iterativen Weg zu gehen, anstatt umfassende Umstellungen zu versuchen. „Wir sehen, dass Organisationen, die einen agilen Ansatz verfolgen – kleine Schritte unternehmen, den Fortschritt regelmäßig bewerten und mit zeitnahen Anpassungen ‚schnell scheitern‘ – positive Ergebnisse erzielen können“, erklärt Dr. Maxwell.

    Der Erfolg hängt stark vom gegenseitigen Respekt innerhalb der technischen Abteilung ab. „Die Zusammenarbeit von Mitarbeitern, die am Anfang ihrer Karriere stehen, und solchen, die bereits länger dabei sind, und der gegenseitige Respekt vor den jeweiligen Stärken ist wichtig für den Erfolg“, bemerkt sie.

    „Wir nennen dies die ‚Generationsbrücke‘“, erklärt Dr. Maxwell. Erfahrenere Entwickler verstehen den Legacy-Code und warum er in diesem Kontext der anderen Anwendungen auf eine bestimmte Weise entworfen wurde, während jüngere Entwickler Experten für schnelle Iterationen und moderne Effizienzpraktiken sind. Die Kombination dieses tiefen Kontextwissens mit den Fähigkeiten zur schnellen Iteration von jüngeren Entwicklern bietet einen praktischen Weg nach vorne für die gesamte technische Abteilung.

    Standardisierung des offenen Ökosystems

    Die Branche erlebt derzeit eine Übertragung verteilter Softwarepraktiken in Legacy-Umgebungen, was schnellere Tests ohne Qualitätseinbußen ermöglicht. Diese Integration ist größtenteils darauf zurückzuführen, dass das Software-Ökosystem durch Webhooks und APIs geöffnet wurde, um Anwendungen einzubeziehen, die traditionell nicht mit zentralen Architekturen assoziiert waren. Dieses neue operative Paradigma wird heute von Experten als „offenes Ökosystem“ bezeichnet.

    „Ja, Unternehmen können Test-, Sicherheits- und Qualitätsprüfungen über Mainframe- und verteilte Plattformen hinweg standardisieren“, sagt Dr. Xavier Eraso, Mainframe DevOps Expert bei BMC.

    Technische Architekten werden jedoch davor gewarnt, die verteilte Landschaft bei der Planung dieser Integrationen zu stark zu vereinfachen. „Verteilte Systeme stellen keinen homogenen Technologie-Stack dar. Sie umfassen eine breite Palette von Plattformen, Programmiersprachen und architektonischen Mustern, die jeweils von unterschiedlichen Geschäftsanforderungen und -beschränkungen angetrieben werden“, erklärt Dr. Eraso.

    „Aus diesem Grund ist es unerlässlich, Praktiken von Tools zu unterscheiden“, so Dr. Eraso. Die Methodik und nicht die spezifische Software ist es, die konsistente Ergebnisse über verschiedene Umgebungen hinweg liefert.

    „Viele der Praktiken, die gemeinhin mit verteilten Umgebungen in Verbindung gebracht werden – wie z. B. umfangreiche automatisierte Tests – sind nicht primär das Ergebnis überlegener Tools, sondern eine Konsequenz von Liefermodellen mit hoher Frequenz“, weist Dr. Eraso hin. „Teams, die täglich oder wöchentlich Änderungen liefern, können sich einfach nicht auf manuelle Tests verlassen, ohne ein inakzeptables Risiko einzugehen“, fährt er fort.

    Diese operative Begründung gilt gleichermaßen für geschäftskritische Anwendungen, die auf Legacy-Infrastrukturen laufen. „Derselbe Grundsatz gilt für Mainframe-Umgebungen. Durch die Einführung agiler und iterativer Praktiken schaffen Mainframe-Anwendungen auf natürliche Weise eine Nachfrage nach stärkeren Testfähigkeiten und schnelleren Feedback-Schleifen“, bemerkt Dr. Eraso.

    Die technischen Barrieren für diese Integration sind in modernen Umgebungen weitgehend beseitigt. Moderne Mainframe-Toolchains stellen bereits die CLIs, APIs und Webhooks bereit, die für eine nahtlose Integration in automatisierte CI/CD-Pipelines neben verteilten Plattformen erforderlich sind.

    „Der limitierende Faktor ist selten die Technologie; es ist eine Frage der Denkweise, der organisatorischen Ausrichtung und der agilen Reife“, schließt Dr. Eraso. Sobald diese Grundlagen sicher vorhanden sind, können zentrale Systeme die bewährten Praktiken, die die Zuverlässigkeit in verteilten Umgebungen fördern, nahtlos übernehmen.

    Aufrechterhaltung der betrieblichen Resilienz und des ROI

    Bei der Beschleunigung der Bereitstellung durch neue Toolchains bleibt die Wahrung der Systemstabilität eine oberste Priorität für jeden Plattform-Engineering-Leiter. „Ein richtiger Prozess mit eingebauter Transparenz unterstützt die Aufrechterhaltung der Zuverlässigkeit und der Betriebs Stabilität“, sagt Dr. Maxwell.

    Die Automatisierung mühsamer Elemente führt zu einer stärkeren Governance im Entwicklungszyklus und setzt wertvolle Ingenieurszeit frei. Durch den Aufbau von Pipelines, die monotone Prüfungen automatisch erledigen, können Programmierer ihre Zeit der Entwicklung und dem Testen von Code widmen, anstatt menschliche Qualitätskontrollen und Peer-Reviews durchzuführen. Diese Automatisierung kommt direkt dem Unit-Testing zugute, indem sie eine klare Nachvollziehbarkeit der Codeabdeckung schafft und Konsistenz bei allen Releases gewährleistet.

    „Indem wir den Entwickler befähigen, seine Erfahrung und seinen Intellekt für kognitiv anspruchsvolle Aufgaben einzusetzen, decken wir nicht nur monotone Aufgaben ab, sondern erhöhen auch die Testabdeckung und werden so schneller, während wir gleichzeitig sicherstellen, dass die optimalen Tests mit der geringsten menschlichen Intervention durchgeführt werden“, betont Dr. Maxwell hinsichtlich der kumulativen Vorteile.

    Die Einführung dieser Technologien befreit technische Abteilungen von Aufgaben, die die Automatisierung problemlos bewältigen kann. Die Implementierungsmechanismen müssen praktisch und intuitiv bleiben, idealerweise innerhalb einer IDE gekapselt, um Reibungsverluste zu reduzieren. Tools, die aktiv Reibungsverluste im täglichen Workflow beseitigen, sind diejenigen, bei denen die Automatisierung am wertvollsten ist.

    „Ein weiterer wesentlicher Faktor für die erfolgreiche Einführung neuer Praktiken ist die Nutzung bewährter, etablierter Technologien“, rät Dr. Eraso. Die Aktualisierung von Workflows sollte die unnötige Zerstörung bestehender, funktionierender Assets vermeiden.

    „Der Übergang von manuellen zu automatisierten Prozessen sollte nicht gleichbedeutend mit einem ‚Rip and Replace‘-Ansatz sein“, bemerkt er. Jedes Unternehmen besitzt spezifisches internes Fachwissen und grundlegende Altsysteme, die zur Erreichung der Automatisierungsziele genutzt werden sollten. Unternehmensmodernisierungen müssen konsequent einen Return on Investment liefern und konkrete Geschäftserwartungen erfüllen.

    Silos aufbrechen für gemeinsame Verantwortung

    Moderne Orchestrierung erfordert eine strikte Abstimmung zwischen Anwendungsentwicklung und IT-Betrieb, um effektiv zu funktionieren. „Darüber hinaus erfordert die Einführung von CI/CD-Pipelines auf Unternehmensebene eine engere Zusammenarbeit zwischen AppDev- und Ops-Teams“, hebt Dr. Eraso hervor.

    Historisch gesehen operierten diese Teams völlig getrennt und interagierten nur, wenn Ressourcen benötigt wurden oder bei aktiven Systemvorfällen. „CI/CD verlagert diese Dynamik hin zu gemeinsamem Aufbau und gemeinsamer Verantwortung“, sagt Dr. Eraso. Beide Abteilungen müssen aktiv an den Design-, Administrations- und Wartungsphasen der Pipeline teilnehmen. Diese enge Zusammenarbeit gewährleistet eine hohe Zuverlässigkeit und steigert gleichzeitig die Produktionseffizienz erheblich.

    Die technologischen Grenzen, die zentrale Systeme vom Rest der IT-Landschaft isolierten, sind geschwunden. „Was sich geändert hat, ist, dass der Mainframe kein geschlossenes Ökosystem mehr ist; er kann nun an einem offenen CI/CD-Ökosystem neben verteilten Plattformen teilnehmen, wobei er sich auf gemeinsame Muster wie CLIs, APIs und Webhooks stützt“, erklärt Dr. Eraso.

    Die Möglichkeit, Git als Source Code Manager (SCM) zusammen mit Anwendungen wie SonarQube zur Qualitätssicherung zu nutzen, überbrückt die verbleibenden technischen Lücken zwischen den Abteilungen. „Infolgedessen kann Mainframe CI/CD auf die gleiche Weise wie verteiltes CI/CD auf modernen Plattformen wie GitHub Actions, GitLab CI und Azure DevOps orchestriert werden“, bemerkt Dr. Eraso.

    Die Einbindung von Legacy-Umgebungen in moderne Workflows ermöglicht es Unternehmen, ihren gesamten Software-Lieferzyklus systematisch zu überprüfen. „Die Einführung von CI/CD auf dem Mainframe kann daher eine Chance für Organisationen sein, ihre bestehenden verteilten Prozesse neu zu bewerten und herauszufordern“, sagt er.

    Während sich zentrale Plattformen weiterentwickeln, erfordern auch die Kernfundamente früher verteilter Pipelines kontinuierliche Aktualisierungen und Verfeinerungen. „Anstatt eine Herausforderung zu sein, sollte Mainframe CI/CD als eine Gelegenheit für Organisationen gesehen werden, ihre gesamten CI/CD-Praktiken zu verfeinern und zu verbessern“, schließt Dr. Eraso.

    Bibliography: - BMC Software. (n.d.). Modern Mainframe CI/CD. Retrieved from https://www.bmc.com/content/dam/bmc/collateral/bmc/ispw-fact-sheet.pdf - BMC Software. (n.d.). BMC AMI DevX Code Pipeline. Retrieved from https://www.bmc.com/it-solutions/bmc-ami-devx-code-pipeline.html - SoftwareOne. (n.d.). BMC AMI DevX Code Pipeline - Datasheet. Retrieved from https://platform.softwareone.com/files/product-media-files/PCP-5338-7278/dae43f980d818474a26ffdac6dd69407f529fc678e1840650f8a80db7a1b2d53.pdf - Gopalkrishna, R. S. (2026, February). Introduction - BMC Documentation. Retrieved from https://docs.bmc.com/xwiki/bin/view/Mainframe/BMC-Experience-Guides/bmcexpguide/codepipelinecicd01/About-this-documentation/ - YouTube. (2026, January 27). Optimize and accelerate CI/CD workflows with BMC AMI DevX Code Pipeline. Retrieved from https://www.youtube.com/watch?v=c1TnEYCl_Qw - McKenny, J. (2025, August 14). How to adopt Git for mainframe with BMC AMI DevX Code Pipeline. LinkedIn. Retrieved from https://www.linkedin.com/posts/john-mckenny-994446_git-bmcami-devops-activity-7361754527080869888-Ulpn - Anter, T. (n.d.). How to Supercharge Mainframe DevOps with Git + BMC AMI DevX Code Pipeline. BMC Blogs. Retrieved from https://www.bmc.com/blogs/how-does-git-work-with-ispw/ - Datta, P. (2025, February 28). Introduction to Mainframe DevOps - BMC Documentation. Retrieved from https://docs.bmc.com/xwiki/bin/view/Mainframe/DevX/BMC-AMI-DevX-Mainframe-DevOps/mdvops/Introduction-to-Mainframe-DevOps/ - BMC Software. (n.d.). Accelerate mainframe application development with DevOps and a mainframe-inclusive CI/CD pipeline. Retrieved from https://www.bmc.com/forms/accelerate-mainframe-application-development-with-ci-cd-pipeline-ebook.html - Schettenhelm, M. (n.d.). Maximize the Benefits of Your CI/CD Pipeline by Including the Mainframe. BMC Blogs. Retrieved from https://www.bmc.com/blogs/include-mainframe-cicd-pipeline/

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen