Bei der industriellen Fertigung ist es entscheidend, dass die Maschinen funktionieren und das Produkt keine Mängel aufweist. Der Produktionsprozess wird daher kontinuierlich überwacht. Von Menschen, aber auch von immer mehr Sensoren, Kameras, Soft- und Hardware. Meist orientiert sich die von Maschinen übernommene automatisierte Prüfung an visuellen oder physikalischen Kriterien. Nur der Mensch setzt ganz natürlich auch seine Ohren ein: Wenn etwas ungewöhnlich klingt, schaltet er die Maschine sicherheitshalber ab. Das Problem: Jeder Mensch nimmt Geräusche unterschiedlich war. Ob etwas schief läuft, ist daher eher ein subjektives Gefühl und bietet eine erhöhte Fehleranfälligkeit.
Training mit Millionen von Datensätzen
Das Fraunhofer-Institut für Digitale Medientechnologie IDMT entwickelt kognitive Systeme, die Fehler anhand von akustischen Signalen exakt erkennen. Der technologische Ansatz vereint intelligente akustische Messtechnik und Signalanalyse, maschinelles Lernen sowie datensichere, flexible Datenspeicher. »Wir integrieren die Intelligenz des Hörens in die industrielle Zustandskontrolle von Maschinen bzw. automatisierte Prüf- und Testsysteme für Produkte«, erklärt Steffen Holly vom IDMT-Geschäftsfeld »Industrial Media Applications«. Hat man sie einmal trainiert, können kognitive Systeme objektiver hören als das menschliche Gehör: Statt zwei stehen ihnen sozusagen viele Tausende Ohren zur Verfügung – in Form millionenfacher neutraler Datensätze. Erste Pilotprojekte mit der Industrie laufen bereits. Die Forscher konnten dabei bis zu 99 Prozent der Defekte rein akustisch aufspüren.
Geräusche eindeutig zuordnen
Die Wissenschaftler identifizieren mögliche Geräuschquellen und analysieren deren Ursachen, erstellen ein Lärmmodell der Umgebung und richten darauf ihre Mikrofone aus. »Ideal ist es, das menschliche Ohr nachzustellen: Es empfängt Töne über die Luft«, schildert Holly. Störgeräusche wie Stimmen oder den Lärm eines vorbeifahrenden Gabelstaplers rechnet das System aus dem Gesamtsignal heraus. Dieses wird dann immer wieder mit zuvor ermittelten, Labor-reinen Referenzgeräuschen abgeglichen. Mit Hilfe künstlicher neuronaler Netze entwickeln die Wissenschaftler Schritt für Schritt Algorithmen, die in der Lage sind, Fehler am Geräusch zu erkennen. »Je reiner das akustische Signal vorliegt, desto besser erkennt das kognitive System Abweichungen«, erklärt Holly. Die Technologie ist so feinfühlig, dass sie auch Nuancen in der Fehlerstärke anzeigt und komplexe Aufgabenstellungen bewältigt. Beispiel Automobilproduktion: In modernen Autositzen sind viele einzelne Motoren eingebaut, mit deren Hilfe der Fahrer seinen Sitz individuell einstellen kann. Die Bauweise der Motoren ist nicht gleich, ihre Geräusche sind verschieden und sie sind an unterschiedlichen Stellen verbaut. »Bei einem Pilotprojekt mit einem Automobilzulieferer spürte unser akustisches Monitoring alle Fehlerquellen einwandfrei auf«, berichtet Holly.
Flexibler, sicherer Datenspeicher in der Cloud
Die Datensicherheit der gesammelten akustischen Signale gewährleisten die Fraunhofer-Forscher durch Nutzerberechtigungen, Rechte- und Identitätsmanagement. Ein Beispiel ist das Entkoppeln von realen und virtuellen Identitäten, um beim Auswerten der Daten durch unterschiedliche Personen keine Nutzerrechte zu verletzten. Meist sind Maschinen und Testsysteme fest in der Fertigungsstraße verbaut. Die Forscher lagern ihre akustischen Datensätze daher in einer sicheren Cloud ab. »Wir können so sehr flexibel auf Änderungen im Produktionsablauf reagieren und unser kognitives System dementsprechend anpassen«, stellt Holly einen weiteren Vorteil dar.