

Gastbeitrag
Wenn Maschinen lernen, Prozesse zu verstehen
October 23, 2025
Co-Innovation
Digitalisierung
Wie Machine Learning Produktionsprozesse in der Lebensmittelindustrie optimiert
In der Lebensmittelindustrie sind präzise Abläufe der Schlüssel zu Qualität, Effizienz und Wirtschaftlichkeit. Ein Prozess kann auf dem Papier perfekt geplant sein – doch in der Realität entscheiden oft Erfahrung, Intuition und Fingerspitzengefühl darüber, ob das Ergebnis stimmt. Genau hier setzt die datengetriebene Optimierung an. In einem kürzlich abgeschlossenen Projekt durfte ich als Data Science Consultant ein Unternehmen der Lebensmittelindustrie dabei unterstützen, seine Produktionsprozesse mithilfe von Machine Learning intelligenter, planbarer und effizienter zu gestalten.

PasqualKreher
ML & AI Engineer | Data Science Consultant
TIQ Solutions
Im Mittelpunkt standen zwei eng miteinander verbundene Fragestellungen: Wie lässt sich die Dauer eines komplexen Produktionsverfahrens automatisiert vorhersagen? Und wie können Fehler, die während des Prozesses auftreten, frühzeitig erkannt werden, bevor sie sich auf die Produktqualität auswirken? Beide Anwendungsfälle wurden als Teil eines integrierten Projekts umgesetzt – mit dem Ziel, Erfahrungswissen in reproduzierbare, datengetriebene Intelligenz zu überführen.
Vom Erfahrungswert zum datengetriebenen Prozessverständnis
Zu Beginn war die Situation typisch für viele Produktionsumgebungen: Die Prozessdauer konnte bislang nur von wenigen erfahrenen Mitarbeitenden zuverlässig abgeschätzt werden. Diese Expertise war wertvoll, aber auch ein Engpass. Die Planung hing stark vom individuellen Wissen einzelner Personen ab, was zu hohem personellen Aufwand, langen Durchlaufzeiten und teilweise inkonsistenten Ergebnissen führte.
Das Projektziel war daher klar formuliert: Mit Machine Learning sollte die Prozessdauer präzise vorhergesagt werden können – automatisch, objektiv und in Echtzeit. Gleichzeitig sollte ein zweites System entwickelt werden, das Fehler während des Produktionsprozesses frühzeitig erkennt und Handlungsempfehlungen ableitet.
Der erste Schritt war, die Datenbasis zu verstehen. Produktionsprozesse in der Lebensmittelindustrie sind hochkomplex: Temperatur, Druck, chemische Parameter und zeitliche Abfolgen wirken aufeinander ein. Die Herausforderung lag darin, diese Zusammenhänge in den Daten abzubilden. Messungen aus verschiedenen Anlagen mussten synchronisiert, Datenlücken geschlossen und die Reihenfolgen der Prozessschritte präzise rekonstruiert werden. Erst durch diese gründliche Datenaufbereitung entstand die Grundlage für valide Machine-Learning-Modelle – ein Prozess, der ebenso technisch wie analytisch anspruchsvoll war.
Wie aus Daten Intelligenz wurde
Für die Vorhersage der Prozessdauer entwickelten wir ein mehrstufiges Modell, das verschiedene statistische und lernbasierte Verfahren miteinander kombiniert. Ziel war es, sowohl die Stabilität klassischer Regressionsansätze als auch die hohe Anpassungsfähigkeit moderner Machine-Learning-Methoden zu vereinen. Dadurch entstand ein System, das mit komplexen Wechselwirkungen zwischen den Prozessparametern umgehen kann und gleichzeitig robuste, nachvollziehbare Ergebnisse liefert.
Die Modellarchitektur wurde so aufgebaut, dass sie flexibel erweiterbar bleibt und sich bei Bedarf an neue Produktionsbedingungen oder zusätzliche Datenquellen anpassen lässt. In umfangreichen Tests zeigte sich, dass das Modell die Prozessdauer mit hoher Genauigkeit prognostizieren kann – auch dann, wenn einzelne Parameter schwanken oder sich Umgebungsbedingungen verändern.
Um den Nutzen im Alltag unmittelbar sichtbar zu machen, wurde das Modell in eine anwenderfreundliche Oberfläche integriert. Mitarbeitende können dort Produktionsparameter eingeben und erhalten in Echtzeit eine fundierte Einschätzung der voraussichtlichen Prozessdauer. Diese Vorhersagen werden automatisch dokumentiert und können mit den tatsächlichen Prozesswerten verglichen werden. Das hat nicht nur die Planungssicherheit deutlich erhöht, sondern auch zu einem transparenteren Entscheidungsprozess geführt.
Wenn Maschinen Fehler selbst erkennen
Parallel zur Vorhersage der Prozessdauer wurde ein zweites Modell entwickelt, das Fehler im Produktionsprozess automatisch erkennt. In der Vergangenheit traten bestimmte Fehlerbilder nur vereinzelt auf und wurden meist erst spät bemerkt – häufig erst, wenn sich die Auswirkungen bereits auf die Produktqualität ausgewirkt hatten.
Durch die systematische Analyse historischer Prozessdaten konnten typische Muster identifiziert und klassifiziert werden. Anschließend wurde ein erklärbares Entscheidungsmodell implementiert, das auf einem Decision-Tree-Ansatz basiert. Dieses Modell erkennt Anomalien in Echtzeit, bewertet deren Schweregrad und schlägt geeignete Gegenmaßnahmen vor.
Ergebnisse und messbare Erfolge
Mit dem Abschluss des Projekts hat sich die Produktionsweise des Unternehmens spürbar verändert. Die Vorhersage der Prozessdauer hat zu einer deutlich präziseren Planung geführt und den personellen Aufwand erheblich reduziert. Gleichzeitig sorgt die automatisierte Fehlererkennung für eine stabile Produktqualität und eine höhere Auslastung der Anlagen.
Ein weiterer, oft unterschätzter Effekt betrifft die Organisation selbst. Das Erfahrungswissen einzelner Mitarbeitender wurde nicht ersetzt, sondern digitalisiert und so für das gesamte Unternehmen nutzbar gemacht. Das Wissen ist nun nicht mehr an Personen gebunden, sondern Teil eines lernenden Systems. Damit hat das Unternehmen nicht nur seine Prozesse optimiert, sondern auch seine Resilienz gestärkt.

Erkenntnisse aus dem Projekt
Aus Data-Science-Sicht war das Projekt ein Paradebeispiel dafür, wie erfolgreich KI-Anwendungen in der Industrie eingeführt werden können, wenn Technik, Prozesse und Menschen zusammen gedacht werden. Ein tiefes Verständnis des Produktionsverfahrens war die Voraussetzung, um die richtigen Features zu identifizieren und ein robustes Modell zu entwickeln. Ebenso entscheidend war die Qualität der Daten – saubere, strukturierte und zeitlich konsistente Daten waren der Schlüssel zum Erfolg.
Auch die Erklärbarkeit der Modelle erwies sich als essenziell. Gerade im Produktionsumfeld muss jede Entscheidung nachvollziehbar sein, um Vertrauen zu schaffen. Durch den Einsatz erklärbarer Entscheidungsstrukturen konnte das Modell nicht nur überzeugen, sondern auch Akzeptanz gewinnen.
Das iterative Vorgehen – also die schrittweise Entwicklung, Erprobung und Integration der Modelle – hat sich als äußerst effektiv erwiesen. Kurze Entwicklungszyklen, direktes Feedback aus der Produktion und messbare Fortschritte förderten sowohl die technische Qualität als auch die Akzeptanz im Unternehmen.
Fazit: Datenintelligenz als Wettbewerbsvorteil
Mit dem erfolgreichen Abschluss des Projekts hat das Unternehmen einen großen Schritt in Richtung datengetriebene Produktion gemacht. Die Verbindung von maschinellem Lernen, erklärbarer KI und Prozesswissen hat gezeigt, dass datenbasierte Systeme in der Lebensmittelindustrie nicht nur Effizienzsteigerungen ermöglichen, sondern auch Qualität, Planungssicherheit und Nachhaltigkeit verbessern können.
Der größte Erfolg liegt jedoch darin, dass Technologie und Menschen nun Hand in Hand arbeiten. Die Mitarbeitenden profitieren von datenbasierten Empfehlungen, während das System kontinuierlich dazulernt und sich an neue Bedingungen anpasst. Damit ist aus einem experimentellen Machine-Learning-Projekt eine tragende Säule der Produktionsstrategie geworden – ein Beweis dafür, dass künstliche Intelligenz dort am stärksten ist, wo sie menschliche Erfahrung ergänzt und erweitert.
Our strategic partners
Key partners extend our technology stack with components of software, hardware and connectivity. In addition, there are collaborations with research, the public sector, start-ups and users.





