Ein Turbo für das Machine Learning
Interview: «Häufig fehlt es an klar definierten Geschäftszielen»
Machine-Learning-Projekte zum Erfolg zu führen, ist keine triviale Aufgabe. MLOps kann dazu einen wichtigen Beitrag leisten. Srikumar Ramanathan, Chief Solutions Officer bei Mphasis, erläutert, worauf Unternehmen dabei achten sollten.
Computerworld: Herr Ramanathan, vor einigen Jahren hat Gartner den Anteil der KI- und Machine-Learning-Projekte, die im Sande verlaufen, auf 85 Prozent geschätzt. Welche Erfahrungen hat Mphasis gemacht?
Srikumar Ramanathan: Unserer Erfahrung bei Mphasis nach enden knapp 30 Prozent der Projekte nicht produktiv. Dafür gibt es eine Reihe von Gründen. Häufig scheitern ML-Projekte, weil es keine klar definierten Key Performance Indicators (KPIs) und Geschäftsziele gibt. Machine Learning wird dann in Bereichen eingesetzt, in denen ein regelbasierter, heuristischer Ansatz genauso gut funktioniert hätte. Wenn man zu Beginn nicht weiss, was man mit ML eigentlich bezwecken möchte, ändern sich zudem die Anforderungen laufend und der Umfang von Projekten ufert aus.
CW: Oft ist zu hören, dass Unternehmen Probleme haben, KI und ML in vorhandene Abläufe zu integrieren. Stimmt das?
Ramanathan: Das trifft zu. Manchmal liegt das schlichtweg am Design, weil zunächst nur ein Experiment und gar kein Produktiveinsatz geplant war. Ausserdem führen häufig schlechte Datenverfügbarkeit oder mangelnder Datenzugriff zu Verzögerungen. Eine besondere Herausforderung ist darüber hinaus die Zusammenarbeit zwischen den verschiedenen Gruppen. Denn um ML-Projekte zum Erfolg zu führen, müssen Data Engineers, Data Scientists, ML-Ingenieure und IT Operations eng zusammenarbeiten. Hier fehlen häufig geeignete Tools, Sichtbarkeit und klar definierte Verantwortlichkeiten.
CW: Wie kann MLOps zum Erfolg von Machine-Learning-Projekten beitragen?
Ramanathan: MLOps umfasst Best Practices sowie Tools und Plattformen, um die genannten Herausforderungen zu bewältigen. Das Konzept verbessert die Zusammenarbeit zwischen Data-Science-, Entwicklungs- und Bereitstellungs-Teams und bringt Kontrolle über Daten, Code, Algorithmen und Modelle. Ausserdem macht MLOps Modelle und die Modell-Performance interpretierbar und erleichtert die Qualitätssicherung durch ein Debugging.
CW: Welche Qualitätsprobleme können denn auftreten?
Ramanathan: Ein Faktor ist beispielsweise die Drift Detection. Experten müssen erkennen, ob ein produktives Modell vom Trainingsmodell abweicht, etwa weil sich Datenprofile verändert haben. MLOps unterstützt zudem die kontinuierliche Integration und die Implementierung von Modellen in die Software-Entwicklungs- und Bereitstellungsumgebung. Dabei kommen automatisierte Pipelines und Feedback-Schleifen zum Einsatz.
“MLOps verbessert die Zusammenarbeit zwischen Data-Science-, Entwicklungs- und Bereitstellungs-Teams.„
Srikumar Ramanathan
Chief Solutions Officer bei Mphasis
Chief Solutions Officer bei Mphasis
CW: Wie attraktiv sind vor diesem Hintergrund die KI- und Machine-Learning-Services von grossen Cloud-Providern? Diese schliessen ja meist MLOps- und AIOps-Angebote mit ein.
Ramanathan: Es gibt einige Vorteile, die für solche Angebote sprechen. Vor allem vereinfachen sie die Bereitstellung und Nutzung der Infrastruktur sowie Prozesse. Alle ML-Systeme erfordern jedoch eine gute Dateninfrastruktur. Wenn sich die Daten bereits in der Cloud befinden, ist es daher bequemer, Machine Learning in derselben Cloud auszuführen. Auch die Integration in Unternehmenssysteme sowie die Bereitstellung, Überwachung und Verwaltung von Modellen in der Produktion ist einfacher. Denn die Plattformen nutzen Best Practices aus DevOps und MLOps für die Orchestrierung von ML-Workflows und Pipelines. Ausserdem bieten sie Zugang zu vortrainierten Modellen. Nicht zuletzt profitieren Unternehmen bei den Angeboten der Cloud-Provider von Pay-as-you-go-Modellen.
CW: Mphasis hat mit Pace-ML ein MLOps-Framework entwickelt. Welche Vorteile bringen solche integrierten Lösungen für ML-Projekte?
Ramanathan: Nutzer können ML-Modelle schneller in den Produktivbetrieb überführen, Pipelines in Data-Science-Projekten automatisieren und dadurch KI-Produkte und -Services schneller auf den Markt bringen. Ausserdem werden KI-Systeme transparenter und kontrollierbarer. Das reduziert Risiken und erhöht die Nutzerakzeptanz. Ausserdem vereinfacht ein Framework das Management der ML-Modelle und die Governance. Da sich Modell-Deployment-Pipelines und das Monitoring auf einer einzigen Plattform befinden, haben Nutzer zudem die Möglichkeit, Versionskontrollen zu etablieren und bereitgestellte Modelle besser zu warten.