Auto-ML: Mit Ende-zu-Ende zur perfekten ML-Lösung
Auto ML - mehr Werkzeug als Zauberstab
Die Deutsche Bahn sucht sie, Ferchau auch, sogar die Modekette C&A und der mittelständische Maschinenbauer sowieso. Im Karrierebereich der Hannover Messe stapeln sich die Ausschreibungen nach ihnen, an Universitäten stehen Personaler Schlange. Data Scientisten sind in allen Branchen gefragt.
Das Problem: Es gibt am Markt zu wenige Expertinnen und Experten. Prof. Dr. Oliver Niggemann von der Universität der Bundeswehr in Hamburg schrieb in einem Gastbeitrag für die Hannover Messe: „Die Traumschwiegertocher studiert Data Science.“ Vor allem mittelständische Unternehmen tun sich schwer, Fachleute für die Daten-Analyse, die Auswahl des Algorithmus oder das Trainieren der Modelle zu finden. Zusammen mit den Domänenexperten, den Werkern an den Maschinen entlocken sie den Daten die letzten Geheimnis.
Wie dem Mangel begegnen? Mehr ausbilden, fordern Wissenschaftler, aber das kommt für viele Unternehmen zu spät und die Nachfrage wäre auch mit mehr Absolventen kaum zu befriedigen. Doch die Forscher arbeiten auch an Alternativen. In Freiburg forscht Prof. Frank Hutter seit mehreren Jahren mit Kolleginnen und Kollegen aus der ganzen Welt an Auto ML-Verfahren oder Guided Analytics. Zugespitzt formuliert: Der Werker kann in Zukunft selber ML-Projekte an seiner Maschine fahren.
Die Technologie hat laut VDMA ein konkretes Ziel: Sowohl den Bedarf an Data Scientists für kleine und mittlere Unternehmen zu minimieren als auch die Abhängigkeit von ihnen, heißt es in einem Arbeitspapier des Maschinenbauverbands. So soll die große Lücke zwischen Datenmeer und Data-Analytics-Werkzeugen geschlossen werden. Heute ist der Data-Science-Ansatz überwiegend manuell und explorativ. Deshalb sollen die meisten Arbeitsschritte der Data Scientists automatisiert werden. So wird im Falle von Guided Analytics die Ausführung der Datenanalyse durch einen Domänenexperten nur noch initiiert, läuft jedoch ansonsten automatisiert. Der Domänenexperte wird so befähigt, den Mehrwert in „seinen“ Daten selbst zu finden, fordern die Autoren des Werks. In einer weiter fortgeschrittenen Phase wird durch „Autonome Analytics“ der gesamte Datenanalyseprozess automatisiert – von der Eingabe bis zur Präsentation der Resultate.
„Wir brauchen auch weiter Data Scientisten“, meint Dr. Albert Krohn von 21data aus Nürnberg, Anbieter einer AutoML-Lösung. Seine Plattform (wie so viele Programme auf der Programmiersprache Python basierend) ist Open Source. Geld verdienen will er mit den Pipelines für die Daten, die er für seine Kunden im ersten Schritt aufsetzt. Komplexe Data Science Pipelines beinhalten viele Verarbeitungsschritte, die in einer Kette zusammengebracht werden müssen. Da hilft zunächst auch kein Self-Service Analytics, denn der Anwender ist schon mit der Auswahl der Algorithmen überfordert. Das will er ändern: an diesem Schritt setzt Guided Analytics an, bei dieser Technologie ist dann ein Workflow für eine Pipeline vorgegeben und der User kann diesem Workflow mit weniger Freiheiten folgen.
„Wir entlasten die Domänenexperten und die Data Scientists“, erklärt er im Gespräch. Cluster, Layer, Lernraten, Input und Output-Abhängigkeiten seien automatisierbar. „Ich will es den Domänenexperten so einfach wie möglich machen. Deshalb orientiert sich das Interface unserer Lösung an den bekannten Systemen aus der Fertigung“, so Albert Krohn. Er meint MES oder SCADA-Anwendungen, die mittlerweile Standard in der Fertigung sind.
Gründer Krohn definiert vier Schritte für Guided Analytics: Self-Service Analytics für den Power AI-User, Self-Guided Analytics, Adaptive Analytics und Autonomous Analytics - die Endausbaustufe quasi. Automatisierung bei ML-Projekten erleichtere in Zukunft auch das Deployment. Albert Krohn spricht in diesem Zusammenhang von „MLOps“. In der Endstufe erinnert Guided Analytics dann schon an Reinforcement Learning. Der Domänenexperte muss dann am Ende entscheiden, ob das Ziel erreicht oder verfehlt wurde, ob das Bauteil gut oder schlecht ist.
Für viele Anwender ist die Auswahl des Algorithmus die erste große Herausforderung in einem ML-Projekt. Lars Kothoff von der University of Wyoming bestätigt das und forscht dazu, zusammen mit
Pr
of
. „Es existieren bis zu einem Dutzend Sortieralgorithmen und der Anwender weiß oft nicht, in welchen Szenarien er welchen einsetzen soll.“ Diese Suche nach dem richtigen Algorithmus will Kothoff dem Anwender erleichtern. Er solle sich auf die kreativen Aufgaben konzentrieren, beispielsweise Modellierung. Wenn Anwender den falschen Algorithmus einsetzen, leidet die Performance des Projekts. „Ich denke konkret an solche Anwendungen, wo wir NP vollständige Probleme lösen, wo wir eine Heuristik einsetzen. Wenn diese Heuristik falsch ist, dann dauert es unter Umständen Jahre, das Problem zu lösen, und wenn es die richtige Heuristik ist, dann kann das Problem in wenigen Sekunden gelöst werden.“ Und das Suchen nach den richtigen Algorithmen belastet die Umwelt. Victor Schmidt vom Montreal Institute for Learning Algorithms (MILA) arbeitet zu diesem Thema. Er hat einen webbasierten ML-Energieverbrauchs-Kalkulator entwickelt und will die Logik in Zukunft auch als Codezeile in Python zugänglich machen. Auto ML könnte helfen, den Energieverbrauch bei ML-Anwendungen zu reduzieren, heißt es bei den Kanadiern.
Zurück über den Atlantik nach Deutschland. In Detmold bei Weidmüller verdienen die Verantwortlichen ihr Geld eigentlich, überspitzt formuliert, mit Klemmen, mit einem klassischen C-Artikel. Doch seit einiger Zeit setzen die Ostwestfalen auch auf Data Analytics. Das „AutoML-Tool“ der Ostwestfalen „demokratisiert“ nach eigenen Aussagen die Anwendung von KI und ML, denn die Methoden werden einer breiten Masse zugänglich gemacht, heißt es bei den Entwicklern. Die Ausgangssituation bei vielen Unternehmen: Klassische Automatisierungs- und Maschinenbauexperten sind mit den derzeit verfügbaren ML-Tools und deren Möglichkeiten überfordert. Sie verfügen in der Regel nicht über die Kenntnisse, um entsprechende Modelle zu entwickeln. Deswegen übernehmen Data Scientists die Datenanalyse und Modellbildung ‒ wie bereits oben beschrieben. Ihr Expertenwissen ist notwendig, um die Methoden der KI oder des ML auf die Daten anzuwenden und Modelle zu entwickeln, die beispielsweise Anomalien erkennen und Fehler voraussagen können. Natürlich arbeitet der Data Scientist bei der Modellentwicklung eng mit dem Maschinenbauer bzw. -betreiber zusammen, um die gefundenen Zusammenhänge in den Daten ingenieurmäßig zu interpretieren sowie die für die Modellbildung relevanten Feature zu identifizieren.
Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung, weshalb auch von „Guided Analytics“ gesprochen wird. Dadurch kann sich der Anwender auf sein Wissen zum Maschinen- und Prozessverhalten fokussieren. Der Maschinen- und Anlagenexperte kann die Erstellung und Weiterentwicklung der Modelle eigenständig vorantreiben – ohne selbst Data Scientist zu sein und ohne spezielles Wissen im Bereich KI zu haben. Das vorhandene Wissen über Prozesse, Maschinen und Fehlerbilder bleibt so im Unternehmen, da diese ihr Domänenwissen selbstständig einpflegen und mit den Modellbildungsschritten verknüpfen können. Die Software hilft bei der Übersetzung und Archivierung des wertvollen Applikationswissens in eine verlässliche ML-Anwendung. Die AutoML-Lösung erstellt schließlich auf Basis des eingebrachten Applikationswissens automatisch die Modelle zur Anomalieerkennung, Klassifikation oder Fehlervorhersage sowie komplett konfigurierte ML-Pipelines.
Bei der automatischen Modellbildung werden zunächst auf Basis der Struktur der Trainingsdaten, der Analyseaufgabe und des Applikationswissen automatisch passende ML-Verfahren ausgewählt und bis zu 300 Feature für jede Datenspur aus den Rohdaten. Dann werden alternative ML-Modelle mit unterschiedlichen Feature-Kombinationen trainiert und ihre Hyperparameter optimiert. Abschließend erfolgt eine Validierung der Modelle und ihre Integration in die parallel generierte ML-Pipeline. Alle diese Schritte laufen vollständig automatisch ab. Je nach Komplexität kann die Berechnung der Modelle Minuten oder Stunden dauern, wobei erste Modelle bereits nach wenigen Minuten vorliegen, so dass der Nutzer schnell eine Rückmeldung zur Güte der Modelle bekommt und entscheiden kann, ob der Modellbildungsprozess fortgesetzt oder abgebrochen werden soll.
Erfolg entscheidend für den Modellbildungsprozess ist das Applikationswissen der Domänenexperten mit dem der Trainingsdatensatz angereichert wird. Auf Basis ihres Maschinen- und Prozesswissens können sie die Daten labeln, also z.B. gewünschtes und nicht gewünschtes Verhalten der Maschine in den Daten markieren. Nach demselben Prinzip lassen sich bestimmte Prozess- oder Fertigungsschritte labeln. Ein typisches Beispiel ist das Anlaufverhalten einer Maschine. Ebenso kann der Nutzer eigene Feature erzeugen, die in den Rohdaten nicht enthalten sind aber helfen den Fertigungsprozess zu beurteilen.
Darüber hinaus stellt die AutoML-Lösung die für die Ausführung der erstellten ML-Modelle erforderliche Software-Komponenten zur Verfügung,die zum Betrieb der ML-Modelle in der Cloud oder in einer on Premise-Anwendung dienen. Die Ausführungsumgebung ist plattformunabhängig und skaliert automatisch gemäß der Anzahl der auszuführenden Modelle. Darüber hinaus stellt sie die Modellergebnisse verständlich dar, sodass der Nutzer konkrete Handlungen z.B. zur Fehlervermeidung umsetzten kann.
Wichtig zu verstehen ist, dass die generierten Modelle im Betrieb kontinuierlich weiterentwickelt werden müssen, da sie mit Ereignissen konfrontiert werden, die nicht in den Trainingsdaten enthalten waren. Auch dafür haben die Ostwestfalen eine Lösung: Genauso einfach wie das Applikationswissen bei der Modellentwicklung eingebracht werden konnte, ist es mit wenigen Klicks möglich die Modelle im Betrieb z.B. um neue Anomalien oder Fehler zu erweitern. Damit gelingt es den Nutzern ihre Modelle im Betrieb kontinuierlich zu verbessern. Da sich die Modelle damit über ihren Lebenszyklus verändern und Varianten entstehen, stellt ein Modellmanagement u.a. Funktionen zur Modellversionierung, -wiederherstellung, und -überwachung bereit.
Die AutoML Lösung von Weidmüller ist eine Ende-zu-Ende Lösung zum Erstellen, Betreiben und Optimieren von ML-Modellen, heißt es bei den Ostwestfalen. Sie reduziert die Komplexität beim Einsatz des maschinellen Lernens und beschleunigt die Realisierung von ML-Lösungen in der Indsturie erheblich, versichern die Entwickler.
Interview: Taggen vereinfachen
Tobias Gaukstern verantwortet als Head of Business Unit Industrial Analytics die Auto ML-Software von Weidmüller. Die Redaktion blickt mit ihm in die nahe Zukunft der Technologie.
Frage: Wer nutzt Ihre AutoML-Software?
Gaukstern: Boge zählte zu unseren ersten Kunden, aber auch der Medizintechnikspezialist Brasseler zählt dazu. Boge ist ein spannender Case, denn die Verantwortlichen entwickelten früh Ideen für neue datenbasierte Geschäftsmodelle. Die Ingenieure erkannten, dass sie mit traditionellem Condition Monitoring nicht weiter kamen. Deshalb suchten sie eine Lösung, die auf Machine Learning beruhte. Heute erstellen die Boge-Mitarbeiter ihre ML-Modelle selbst; sie brauchen unsere Data Scientists nicht mehr und sind User unseres Software as a Service Angebots.
Frage: Das ist also ein klassisches Lizenzgeschäft?
Gaukstern: Genau, die Kunden lizensieren die Software und partizipieren durch Releases an neuen Feature. Natürlich kann ein Kunde auch ein klassisches Projekt mit uns machen um z.B. die ML-Pipeline an seine Anforderungen anzupassen, oder wir unterstützen bei der Einführung der AutoML Software, oder unsere Data Scientists holen das Maximum aus den ML-Modellen raus. Darüber hinaus arbeiten wir mit unseren Kunden auch in Forschungsprojekten zusammen, um das Thema AutoML weiterzuentwickeln.
Woran?
Gaukstern: Vor allem arbeiten wir daran die Berücksichtigung des Domänenwissens bei der automatischen Modellbildung auszuweiten. Beispielsweise soll dem Nutzer das Taggen vereinfacht werden, wozu wir active learning integrieren wollen. Das bedeutet, wenn der Nutzer im Datensatz ein bestimmtes Maschinenverhalten, wie etwa das Anlaufverhalten klassifiziert, soll die Software automatisch den Datenbessatz nach gleichen oder ähnlichen Situationen durchsuchen und entsprechend labeln.