Kunststoffe, Waschmittel, Düngemittel – diese Stoffe sind aus unserem Alltag kaum noch wegzudenken. So verschieden sie sind, sie haben eines gemeinsam: Sie werden aus bestimmten Grundchemikalien hergestellt, die die chemische Industrie in Massen produziert. Dafür ist allerdings viel Energie nötig: Die Chemikalienherstellung ist für 20 Prozent des gesamten gewerblichen Energiebedarfs in Europa verantwortlich. Wenn es gelingt diesen zu senken, schont das sowohl die Umwelt als auch die Budgets der Unternehmen. Trial and Error scheidet aus – denn dann erfüllt das Produkt möglicherweise nicht mehr die Qualitätsvorgaben und ist nicht zu verkaufen. Die Verluste wären unkalkulierbar.
Analysetool: signifikant Energie einsparen
Ein Modell, das die komplexen Prozesse umfassend beschreibt, hat das Team um Priv.-Doz. Dr. Michael Bortz und Prof. Karl-Heinz Küfer vom Fraunhofer ITWM in Kaiserslautern entwickelt. Dafür erhalten sie den Joseph-von-Fraunhofer-Preis. »Unsere Algorithmen bilden die Prozesse realitätsnah ab, wir können die Produktionsvorgänge daher über den kompletten Lebenszyklus hinweg beschreiben«, erläutert Bortz, Physiker und Abteilungsleiter am Fraunhofer ITWM. »Bei einer bestehenden Produktionsanlage konnten wir damit bereits zehn Prozent der Energie einsparen.« Der Chemiekonzern BASF sowie das schweizerische Chemie- und Pharmaunternehmen Lonza Group AG setzen die Software schon ein; sie steht täglich hunderten von Prozessingenieuren zur Verfügung.
Hybrider Ansatz: Modelle und Prozessdaten gehen Hand in Hand
»Für unsere Analyse haben wir zwei Dinge zusammengebracht: Erstens die physikalischen Gesetze, die wir in einem Modell dargestellt haben – sprich das Expertenwissen über die thermodynamischen und chemischen Prozesse. Und zweitens die Daten, die verschiedene Sensoren zum Messprozess ermitteln, beispielsweise zu Temperatur und Druck. Diese verwenden wir dort, wo keine physikalischen Angaben vorliegen«, erläutert Küfer, Bereichsleiter am Fraunhofer ITWM. Bisher werden solche Sensordaten bereits dazu genutzt, die Prozesse zu überwachen und rechtzeitig reagieren zu können, wenn zum Beispiel Druck oder Temperatur abweichen. Das Team rund um die beiden Forscher hebt diesen »Datenschatz« durch Methoden des maschinellen Lernens, dazu gehört beispielsweise das Trainieren künstlicher neuronaler Netze. Modelle und Prozessdaten ergänzen sich dabei auf gewinnbringende Weise.
Die Anwendungsmöglichkeiten sind nicht auf die chemische Industrie beschränkt: Vielmehr sind überall dort Vorteile zu erwarten, wo Prozesse mit einer großen Zahl an Einflussfaktoren gesteuert werden müssen – und sich nicht allein über Messungen oder die Prozessdaten beschreiben lassen. Langfristig, so der Plan der Forscher, soll das System echtzeitfähig werden.