Maschine denkt mit

Webspecial Fraunhofer-Magazin 3.2024

Wenn er geht, sieht es noch gefährlich nach geriatrischem Schlurfen aus. Dafür kann Optimus aber inzwischen ein rohes Ei aus dem Karton heben und im Eierkocher platzieren. Große Hoffnungen ruhen auf den breiten Metallschultern des Bots: Tesla-Chef Elon Musk, offizieller Vater von Optimus, prognostizierte schon – vollmundig wie immer –, dass humanoide KI-Roboter wie Optimus die Wirtschaft komplett auf den Kopf stellen werden.

Optimus ist nicht das einzige Exemplar seiner Art. Figure 2 aus den Tech-Laboren des US-amerikanischen Softwareunternehmens OpenAI kann sprechen und Geschirr in die Spülmaschine räumen, Atlas von Boston Dynamics beherrscht Saltos und durchläuft selbst schwierige Parcours. Der Armar-7, kreiert vom Karlsruher Institut für Technologie (KIT) als Support im Alltag, kann Türen öffnen, mit Menschen interagieren und kleine Mahlzeiten zubereiten. Diese Erfolge lassen die Erwartungen der Öffentlichkeit an KI-basierte Robotik steigen. Bei manchen Visionären hört es sich bereits so an, als wäre das »Terminator«-Zeitalter längst angebrochen.

Viele Fraunhofer-Experten sehen dies anders. »Entwicklungen wie der Optimus von Tesla schaffen natürlich Aufmerksamkeit. Doch die eigentlichen Innovationen entstehen woanders. Ein Schweißroboter mag nicht so sexy sein wie Optimus, spielt aber in der industriellen Produktion schon heute eine sehr viel größere Rolle«, sagt Dr.-Ing. Werner Kraus, Leiter des Forschungsbereichs Automatisierung und Roboter am Stuttgarter Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA. »Wir haben große und berechtigte Zweifel, dass die humanoiden Roboter in den nächsten zwei bis fünf Jahren wesentlich zur Wertschöpfung beitragen werden.«

Trotzdem führt auch für Kraus kein Weg an smarten Robotern vorbei: »KI braucht Robotik – und Robotik braucht KI«, steht für den Mechatronik-Ingenieur fest. Hier komme zusammen, was sich perfekt ergänzt: Der Roboter besaß bislang nicht die nötige Intelligenz, um mehr als nur einen festen Satz einprogrammierter Bewegungen auszuführen. Der Künstlichen Intelligenz wiederum fehlte der Körper, um in der realen Welt aktiv zu werden. »Die Vision ist, dass der Roboter irgendwann mitdenkt und proaktiv tätig wird«, sagt Kraus. »Bislang aber sind wir schon froh, wenn wir dem Roboter eine gewisse Flexibilität bei der Aufgabenbewältigung verleihen können – etwa, um auch Gegenstände korrekt zu greifen, die er vorher noch nie gesehen hat.«

Der berühmte Griff in die Kiste

Dem Roboter das Greifen beibringen: Daran arbeitet seit mehreren Jahren ein Forschungsteam am Fraunhofer IPA. Die Automatisierung des sogenannten »Griff in die Kiste« – englisch »Bin Picking« – gilt als eine der Königsdisziplinen der Robotik. In vielen Bereichen der industriellen Produktion fallen große Mengen Schüttgut an, die möglichst sortenrein getrennt werden sollen. Die Aufgabe ist monoton, körperlich belastend und kostenintensiv – und dadurch bestens geeignet für den Kollegen Roboter. Für den allerdings ist dieser Job höchst anspruchsvoll: Das Gros der Industrieroboter, die hier aktuell im Einsatz sind, verwendet bestenfalls einen Laserscan, um vorher gelernte Gegenstände unterscheiden zu können.

Künstliche Intelligenz versucht, die kognitiven Fähigkeiten eines Menschen nachzuahmen, indem sie – wie der homo sapiens auch – eingehende Informationen erkennt und sortiert. Allerdings wird dabei kein Lösungsweg vorgegeben: Der Algorithmus entwickelt bei diesem maschinellen Lernverfahren allein in der Simulation einen Weg, Aufgaben korrekt auszuführen. Durch das Training mit sehr großen Datenmengen können sogenannte Neuronale Netze – ein Untergebiet des Maschinellen Lernens – Muster und Zusammenhänge erkennen und auf dieser Basis dann Entscheidungen und auch Vorhersagen treffen. Dies bedingt, dass sie mit der Zeit immer besser werden.

Maschinelles Lernen kann auch bei der Handhabung unbekannter Objekte weiterhelfen: Im Forschungsprojekt Deep Grasping wurden Neuronale Netze in einer virtuellen Simulationsumgebung für die Objekterkennung trainiert und anschließend auf reale Roboter übertragen. Inzwischen ist das Robotersystem in der Lage, selbst verhakte Bauteile zu erkennen und sein Greifen so zu planen, dass es diese voneinander lösen kann. Zudem wird an Automatisierungssystemen gearbeitet, die sich selbstständig konfigurieren, etwa durch die automatische Wahl von Greifer und Greifposen – Stichwort »Automatisierung der Automatisierung«.

Dinge aus einer Kiste zu klauben und anderswo abzulegen: Das klingt banal angesichts der von Optimus & Co. geweckten Hoffnungen. Doch diese scheinbar kleinen Jobs basieren auf riesigen Fortschritten in der Robotik. Werner Kraus verweist hier auf das sogenannte »Moravec‘sche Paradox«: Gerade Aufgaben, die uns Menschen unglaublich simpel erscheinen, sind für Roboter tatsächlich extrem schwierig. Oder wie es der kanadische Wissenschaftler Hans Moravec formulierte: »Es ist vergleichsweise leicht, Computer dazu zu bringen, Leistungen auf Erwachsenenniveau bei Intelligenztests oder beim Dame-Spiel zu erbringen – und schwierig bis unmöglich, ihnen die Fähigkeiten eines Einjährigen in Bezug auf Wahrnehmung und Mobilität zu vermitteln.«

Der Einzug der KI in die Robotik soll helfen, diese Hürden zu überwinden, und gilt als einer der bahnbrechenden Trends in der Digitalisierung der industriellen Produktion. Das Marktforschungsunternehmen Mordor Intelligence etwa prognostiziert für den Robotikmarkt bis 2029 eine jährliche Wachstumsrate von 29 Prozent. Smarte Industrieroboter können Produktionsgeschwindigkeit, Genauigkeit und Sicherheit steigern, die Fehlererkennung und -behebung erleichtern und die Produktion durch vorausschauende Wartung resilienter machen.

Um die Wirtschaft auf ihrem Weg in die Industrie 5.0 zu unterstützen, hat das Fraunhofer IPA gemeinsam mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO in Stuttgart 2019 das KI-Forschungszentrum »Lernende Systeme und Kognitive Robotik« gegründet – ein anwendungsorientierter Zweig des Cyber Valley, Europas größter Forschungskooperation im Bereich KI. Ziel ist, über praxisnahe Forschungsprojekte eine Brücke zu schlagen zwischen Technologien der KI-Spitzenforschung und dem Mittelstand.

In Magdeburg hat das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF gemeinsam mit Unternehmen Use Case Labs geschaffen, in dem das produzierende Gewerbe ihre Automatisierungsanforderungen präsentieren und maßgeschneiderte intelligente Robotik-Lösungen erarbeiten kann. Das Spitzenforschungsinstitut Lamarr – eines von fünf universitären KI-Kompetenzzentren bundesweit, die als Teil der KI-Strategie der Bundesregierung dauerhaft gefördert werden – gestaltet eine neue Generation der Künstlichen Intelligenz, die leistungsstark, nachhaltig, vertrauenswürdig und sicher zur Lösung zentraler Herausforderungen in Wirtschaft und Gesellschaft beiträgt. Das Fraunhofer-Institut für Materialfluss und Logistik IML bringt sich dabei unter anderem mit seiner Forschungsinfrastruktur PACE Lab ein.

Im Juli ist zudem das Robotics Institute Germany (RIG) gestartet, das zur zentralen Anlaufstelle für Robotik in Deutschland werden soll. An dem vom Bundesministerium für Bildung und Forschung (BMBF) mit 20 Millionen Euro geförderten Kompetenznetzwerk unter der Leitung der Technischen Universität München (TUM) sind neben den Fraunhofer-Instituten IPA und IML auch das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB beteiligt. Ziele des RIG sind, eine international wettbewerbsfähige Forschung für KI-basierte Robotik in Deutschland zu etablieren, Forschungsressourcen effektiv zu nutzen, Talente auf dem Gebiet der Robotik gezielt zu fördern und den Transfer von Forschungsergebnissen in die Industrie, in Logistikunternehmen und die Dienstleistungsbranche zu vereinfachen und voranzutreiben.

Roboter entsprechend ihrer Aufgabe entwickeln

Der Roboter als »der Neue« im Team muss nicht zwingend auf zwei Beinen einlaufen, denn das ist beim aktuellen Stand der Technik nicht die effektivste Art der Fortbewegung: zu energieintensiv, zu langsam, zu sturzgefährdet. »Ein humanoider Roboter wäre insgesamt für Industrie und Logistik völlig überentwickelt: zu viele Aktoren, zu viele Freiheitsgrade, zu viele Motoren, die gar nicht für den jeweiligen Use Case nötig sind«, argumentiert Leon Siebel-Achenbach, stellvertretender Leiter der Abteilung IoT und Eingebettete Systeme am Fraunhofer IML. »Wir müssen stattdessen mehr Roboter bauen, die nennenswert Leistung bringen können – gerade für Branchen, in denen der Fachkräftemangel bereits spürbar ist.«

Am Fraunhofer IML hat ein kreatives Projektteam bereits 2019 für den Logistikbereich den LoadRunner entwickelt – ein autonomes Highspeed-Fahrzeug mit dem Aussehen eines überdimensionierten Staubsauger-Roboters, der sich dank intelligenter Fahrzeugkoordination mit bis zu zehn Metern pro Sekunde selbst im Schwarm sicher bewegt und sich bei Bedarf mit seinen Roboterkollegen zusammenkoppeln kann. Als Transporter für Lasten bis zu 30 Kilogramm eignet sich der LoadRunner perfekt für Sortier- und Verteilungsaufgaben.

Auf den LoadRunner folgte 2021 unter Leitung von Patrick Klokowski der evoBOT®: »Projektziel ist die Entwicklung eines agilen Roboters für die Logistik, der Lasten selbstständig aufnehmen, transportieren und aktiv übergeben kann in einer Höhe, die auch von Menschen bedient wird«, beschreibt es Elektrotechnik-Ingenieur Leon Siebel-Achenbach. Statt auf zwei Beinen zu gehen, rollt der evoBOT® auf zwei Rädern heran, und das ganz schön flink. Der AMR (autonome mobile Roboter) basiert auf dem Prinzip des inversen Pendels, wie man es beispielsweise vom Segway kennt, einem sich selbst ausbalancierenden elektrischen Roller auf zwei Rädern. Links und rechts besitzt er zwei mit Greifern versehene »Arme«, mit denen er Gegenstände aufheben und transportieren kann.

Am Ende des Projekts soll der evoBOT® in der Lage sein, dank Künstlicher Intelligenz seine Umgebung und den Untergrund zu erkennen und zu kartografieren, sodass er sich frei in einem definierten Raum bewegen und Hindernissen ausweichen kann. Kamerasysteme unterstützen ihn dabei, Ladegut zu identifizieren und zu klassifizieren, es also korrekt aufzuheben, sich entsprechend des Gewichts auszubalancieren und die Ware an einem anderen Ort abzugeben. »Dann könnte der evoBOT® komplett autonom als Serviceroboter eingesetzt werden«, so Siebel-Achenbach. »Interessant wäre dies etwa für die Logistikbranche oder auch im Krankenhaus – der Roboter könnte dort Betten transportieren oder Medikamente im Haus verteilen. Wir haben ihn bewusst modular entwickelt, sodass er hinsichtlich der Größe maximal skalierbar ist und zugleich möglichst viele Use Cases abdeckt.«

Der Forscher Leon Siebel-Achenbach steht im Inneren des Institutsgebäudes am Fenster und blickt auf den Serviceroboter Evobot, der auf einer Wiese steht und einem Transportkorb mit Computer-Tastaturen hoch hält.
© Sven Döring / laif
Wohin geht die Reise? Mit einem Forschungsteam hat Leon Siebel-Achenbach am Fraunhofer IML den evoBOT® bewusst modular entwickelt, um viele Nutzungsvarianten abzudecken.

Prof. Elkmann und Magnus Hanses stehen in einer Konstruktionshalle vor einem Produktions-Roboter.
© Sven Döring / laif
Wie viel Nähe ist möglich? Prof. Elkmann und Magnus Hanses stellen auch die Sicherheitsfrage bei der Mensch-Roboter-Kollaboration ins Zentrum ihrer Forschung am Fraunhofer IFF.
Zwei Forscher stehen mit dem Rücken zur Kamera und blicken auf den Service-Roboter Care-o-Bot, der in Blickkontakt mit einem der beiden ist.
© Sven Döring / laif
Der Care-o-Bot® wurde am Fraunhofer IFF als Serviceroboter entwickelt.

Das neue Lern-Paradigma

»Wir werden mit KI neue und bessere Lösungen für so manches komplexe Problem finden – ohne dass wir im Detail nachvollziehen können, wie die KI funktioniert«, prognostiziert Logistik-Experte Prof. Michael ten Hompel, der sich im April als Leiter des Fraunhofer IML in den Ruhestand verabschiedete.  »Wir steuern damit auch auf ein neues Paradigma des Lernens zu.«

Sichtbar wird dies etwa beim Projekt iDEAR des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF in Magdeburg. Vorrangig geht es dabei um mehr Nachhaltigkeit bei der Wiederverwertung von Ressourcen aus den gut 54 Millionen Tonnen (Stand 2019) Elektroschrott pro Jahr. Zugleich steht hier die Frage im Zentrum, welche Rolle Roboter dabei spielen könnten. Denn die Idee ist naheliegend, am Ende des Lebenszyklus elektronischer Geräte KI-gestützte Roboter einzusetzen.

Die Demontage von Hightech-Geräten ist allerdings sehr viel komplizierter als der Zusammenbau, da es um mehr geht, als eine bekannte Anzahl von Teilen in festgelegten Arbeitsschritten zusammenzufügen. »Rechner sind je nach Hersteller unterschiedlich gebaut, bei alten Geräten gibt es oft keine Anleitung mehr«, erklärt Prof. Norbert Elkmann, Abteilungsleiter Robotersysteme am Fraunhofer IFF. »Zudem sieht man dem Rechner seinen inneren Zustand von außen nicht an. Deshalb muss der Roboter während der Demontage selbstständig die Aktion für den nächsten Schritt generieren.«

Die Forschenden stehen hier also vor einem Paradigmenwechsel: »Die Arbeit mit vielen Unbekannten ist mit einem statischen Programm nicht zu bewältigen, sondern setzt ein adaptives Vorgehen voraus«, betont Magnus Hanses, Gruppenleiter Kognitive Robotik am Fraunhofer IFF. »Sobald ein Mensch bei einer Tätigkeit sagt, er entscheide über die nächste Aktion situativ und intuitiv, wird es schwierig für Programmierer. KI aber kann hier punkten.« Das Ziel von iDEAR ist die Entwicklung von Automatisierungssystemen, die nicht nur flexibel, sondern auch intelligent reagieren können – und das von der Produktidentifikation und -bewertung über eine dynamische Wirtschaftlichkeitsbetrachtung bis hin zur Demontageplanung und -durchführung.

Wie bringt man all das einem Roboter bei? »Training auf dem realen System wäre wirtschaftlich nicht machbar, da zu zeitaufwendig und auch zu gefährlich«, erklärt Magnus Hanses. »Unser Ansatz ist, die Demontage-Prozesse in der Simulation zu modellieren. Im digitalen Raum können beliebig viele virtuelle Roboter parallel und in einem sehr viel höheren Tempo ohne Sicherheitsbedenken trainieren.« So lassen sich automatisiert Lösungsstrategien für Teilprozesse in hoher Varianz finden. Dazu fließen Daten aus dem digitalen Zwilling durchgängig in den automatisierten Demontageprozess in der Realität ein, so wie umgekehrt die Informationen aus dem Abbau-Prozess dem digitalen Zwilling rückgemeldet werden. Auch das Erfahrungswissen von Menschen wird eingespeist, um so den Automatisierungsgrad noch weiter zu steigern. Allerdings sollte, so Hanses, KI nur dort eingesetzt werden, wo sie tatsächlich einen Mehrwert bietet: »Viele Teilprozesse lassen sich mit analytischen Methoden deutlich effizienter lösen.«

 

Die Lücke zwischen Simulation und Realwelt überbrücken

Das Lernen in der digitalen Simulation hat viele Vorteile – aber auch eine Schwachstelle: Die virtuelle Lernumgebung ist nie zu 100 Prozent deckungsgleich mit der realen Welt. »Die Herausforderung für die Forschung«, erklärt Informatiker Christian Jestel, »liegt darin, den sogenannten ›Reality Gap‹ klein zu halten«. Es gilt, die Simulation entweder möglichst identisch zur Realität zu gestalten oder aber maximal viele Varianten der Realität abzudecken, damit das Neuronale Netz zu generalisieren lernt und sich eines Tages dann auch in unbekannten Umgebungen zurechtfindet.

Der Forscher Christian Jestel steht im Flur seines Institutsgebäudes und blickt in eine offene Tür, vor ihm auf dem Boden der RoboMaster, ein kleiner spielfahrzeug-ähnlicher blauer Roboter.
© Sven Döring / laif
Wie lernen KI-Roboter? Christian Jestel trainiert am Fraunhofer IML den RoboMaster in der Simulation mit Belohnung und Bestrafung.

Am Fraunhofer IML forscht Jestel mit sogenannten RoboMastern: Robotern eines chinesischen Herstellers, von denen der Wissenschaftler aber nur Chassis und Räder als Forschungsplattform für das sogenannte »Deep Reeinforcement Learning« nutzt: Lernen mittels Belohnung und Bestrafung. In einer von Jestel entwickelten Simulation erhält die KI umso mehr Punkte, je schneller und störungsfreier sie an ein vorgegebenes Ziel gelangt. Entfernt sie sich davon oder stößt sie an ein Hindernis, werden ihr Punkte abgezogen.

»Anfangs probiert die KI einfach alles aus. Doch schon in den nächsten Trainingsrunden vermeidet sie jene Handlungen, die zu einem Punkteabzug geführt haben«, erklärt Jestel. Mit der trainierten KI ausgerüstet, können die RoboMaster dann in der realen Welt Richtungsentscheidungen dezentral und autonom auf der Basis der Umgebungswahrnehmung mittels Laserscanner treffen. Auch dieser Trainingsansatz könnte schon bald die Logistikbranche verändern. »Mitunter bekomme ich zu hören, der RoboMaster sei ja nur ein Spielzeug«, sagt Jestel. »Doch bei diesem Projekt geht es nicht um das Fahrzeug selbst, sondern um die Idee dahinter. Und die hat Transformationspotenzial für eine Vielzahl von Anwendungen für industrielle mobile Roboter.«

 

Intelligenz zum Andocken

Dank Künstlicher Intelligenz emanzipiert sich der Roboter immer mehr vom Menschen. Die Einsatzmöglichkeiten für seinesgleichen sind – Stand heute – noch nicht abzuschätzen, doch gerade das fasziniert Informatiker Sebastian Hoose an der Thematik: »Alles ist so superschön kompliziert, immer wieder neu und anders spannend.« Um den Technologie-Sprung auch kleinen und mittelständischen Unternehmen zu ermöglichen, forscht der wissenschaftliche Mitarbeiter am Fraunhofer IML an einer Software, die möglichst generisch trainiert und verwendet werden kann. »RAI – Remote AI« ist so etwas wie eine KI zum Mitnehmen: Künstliche Intelligenz in einer Box, mit deren Hilfe sich herkömmliche Transportfahrzeuge nach dem Plug-and-Play-Prinzip schnell und einfach autonomisieren und mit speziellen Fähigkeiten aufwerten lassen. Die Algorithmen der KI-Box ermöglichen es dem Roboter, sich in definierten Räumen fortzubewegen und Transportaufgaben zu übernehmen. Ein weiterer Vorteil des Remote-Ansatzes: Der Lernerfolg einzelner Fahrzeuge kann problemlos anderen Robotern oder gar einer gesamten Roboter-Flotte zur Verfügung gestellt werden.

Aufrüsten statt Neuanschaffung: »RAI macht die Technologie für KMU ökonomisch interessant«, urteilt Sebastian Hoose. Als ein Zusatzmodul besitze die KI-Box eine gewisse Brückenfunktion zwischen herkömmlicher und KI-basierter Robotik. Limitiert wird der Remote-Ansatz noch durch die Herausforderung, dass aktuell jeder Transportroboter je nach Hersteller eine andere Schnittstelle aufweist, was ein simples Andocken der Box verhindert. »Wir haben deshalb von RAI-Seite aus einen Standard entwickelt«, erklärt Hoose. Nun müsse man bei der Installation lediglich ein kleines Code-Stück implementieren, »darum kommen wir nicht herum, solange es keine Industriestandards gibt«.

 

Informatiker Sebastian Hoose in einem  Institutsraum mit halb abgedunkelter Jalousie an einem großen Fenster und hantiert an dem transportablen Roboter-System RAI - Remote AI.
© Sven Döring / laif
Darf‘s noch etwas KI sein? Informatiker Sebastian Hoose hat am Fraunhofer IML mit »RAI – Remote AI« ein transportables System entwickelt, das Roboter mit kognitiven Fähigkeiten ausstattet.

Roboter auf gefährlicher Mission

KI-basierte Robotik ist einerseits interessant für jene Wirtschaftszweige, die vom Fachkräftemangel bedroht sind und bestimmte Jobs gerne an Robotersysteme vergeben würden. Auf der anderen Seite gibt es aber auch die Aufgaben, deren Bewältigung für den Menschen zu schwierig, zu belastend oder zu gefährlich sind: Tätigkeiten etwa in Krisen- und Katastrophengebieten, auf Deponien, bei der Bergung von Altlasten oder auf vermintem Gelände. Intelligente Robotersysteme für menschenfeindliche Umgebungen zu entwickeln, hat sich das Kompetenzzentrum ROBDEKON auf die Fahne geschrieben. Es wurde 2018 vom BMBF ins Leben gerufen und mit rund 20 Millionen Euro gefördert; die Gesamtkoordination des Netzwerkes hat das Fraunhofer IOSB inne. Denn dort entwickeln Forschende schon länger unterschiedliche Basisfunktionalitäten, die – ähnlich der KI-Box RAI – vorhandenen Robotersystemen und Fahrzeugen eine gewisse Autonomie und Intelligenz verleihen können.

Forscher Janko Petereit sitzt im Institutsgebäude vor einem Bildschirm mit einer bunten Grafik eines Raupenbaggers, dahinter ein Unimog in der Ausfahrt, vor ihm ein Mitarbeiter vor zwei kleineren Bildschirmen.
© Sven Döring / laif
Was sieht der Roboter? Erkundung des Geländes mit Sensoren und optischen Kameras. Damit Großfahrzeuge autonom unterwegs sein können, werden im Fraunhofer IOSB die nötigen Sensortechnologien und Algorithmen entwickelt.
Der Forscher Janko Petereit steht im Freigelände neben einem Raupenbagger, gebeugt über einen Laptop, der auf dem Raupenlaufwerk liegt.
Dr.-Ing. Janko Petereit macht am Fraunhofer IOSB Großfahrzeuge fit für die autonome Arbeit in menschenfeindlichen Umgebungen.

»Wir beschäftigen uns mit wirklich großen Robotersystemen«, betont Dr.-Ing. Janko Petereit, Gruppenleiter Autonome Robotersysteme am Fraunhofer IOSB und zugleich ROBDEKON-Koordinator. Im Zentrum stehen beispielsweise Bagger, die ganz ohne Bediener Gefahrstoffe bergen oder kontaminierte Bodenschichten abtragen können. Petereit: »Dank verschiedener intelligenter Algorithmen für die Lokalisierung und Kartierung sowie Hinderniserkennung und Bewegungsplanung können sich die Robotersysteme selbstständig auch auf unbekanntem Gelände bewegen und Aufgaben erfüllen. Das erhöht die Effizienz, entlastet Fachkräfte und kann vor allem Unfall- und Gesundheitsrisiken bei Einsätzen in schwer zugänglichen oder gefährlichen Umgebungen verringern.«

Wie gut dies bereits funktioniert, demonstrierte Fraunhofer-Forscher Petereit im Mai beim BMBF-Innovationsforum in Berlin: Interessierte konnten hier dem im rund 500 Kilometer entfernten Karlsruhe stehenden 24-Tonnen-Bagger ALICE Aufträge erteilen, zum Beispiel die Bergung von potenziell kontaminierten Fässern. ALICE führte diese dann dank KI-basierter Wahrnehmung und Interpretation der Umgebung vollkommen eigenständig aus.

 

Faszination für viele Fachbereiche

Was viele Fraunhofer-Forschende am Thema KI-basierte Robotik fasziniert, ist dessen Interdisziplinarität: »Um ein intelligentes Gesamtsystem zu entwickeln, ist Expertise aus vielen Fachbereichen gefragt«, erklärt Janko Petereit. Und zwar nicht nur aus Gebieten wie Informatik, Elektrotechnik oder Mechatronik, sondern auch aus der Psychologie, den Rechtswissenschaften und der Ethik. Denn intelligente, oftmals bereits sprachfähige Roboter, die uns immer häufiger am Arbeitsplatz, im privaten Umfeld und auch im öffentlichen Raum begegnen werden, verändern die Art und Weise, wie wir auf Hightech-Geräte blicken, sie wahrnehmen und mit ihnen interagieren. Je humanoider sie aussehen, desto eher tendieren wir beispielsweise dazu, Robotern nicht nur Intelligenz, sondern auch menschliche Eigenschaften und Emotionen zuzuschreiben. Als im Juni 2024 in der südkoreanischen Stadt Gumi ein Serviceroboter eines Restaurants erst lange um eine Stelle kreiste und sich dann eine mehr als zwei Meter hohe Treppe hinabstürzte, entstanden sofort Theorien, inwiefern das technische Versagen ein maschineller Suizid aufgrund von Arbeitsüberlastung gewesen sei.

Die Forscherin Selina Layer sitzt vor einer Bildschirm-Reihe und blickt auf einen Bildschirm.
© Sven Döring / laif
Wie arbeiten wir morgen? Fraunhofer unterstützt Unternehmen dabei, KI für Robotik nutzbar zu machen. Ingenieurpsychologin Selina Layer forscht am Fraunhofer IAO zur Roboter-Mensch-Interaktion.
Die Forscherin Selina Layer führt einen Hunderoboter an der Leine und überquert einen Zebrastreifen auf dem Institutsgelände.
© Sven Döring / laif
Die Forscherin Selina Layer in einem Gebäude mit Betonwänden, sie trägt eine VR-Brille und hält in der Hand einen Handcontroller.
© Sven Döring / laif
Was bringt die Zukunft? Ingenieurpsychologin Selina Layer forscht am Fraunhofer IAO zur Roboter-Mensch-Interaktion

Selina Layer hat das noch relativ junge Fach Ingenieurpsychologie studiert und forscht nun als wissenschaftliche Mitarbeiterin am Fraunhofer IAO an den Hintergründen und der Optimierung der Interaktion zwischen Mensch und Maschine. Im Projekt NIKA (Nutzerzentrierte Interaktionsgestaltung für kontextsensitive und akzeptable Roboter) beschäftigte sie sich im Rahmen ihrer Bachelorarbeit mit der Frage, was ein Roboter können und wie er sich verhalten muss, um auch von älteren Menschen akzeptiert zu werden und diesen einen Mehrwert zu bieten. Die Ergebnisse des Projekts wurden in Form von »Interaktionsmustern« in einer sogenannten »Pattern«-Bibliothek gespeichert – einer Sammlung, die auf Forschungsarbeiten von Dr. Kathrin Pollmann vom Fraunhofer IAO zurückgeht und langfristig dabei helfen soll, je nach User und Situation die passende Verhaltensweise für den Roboter auszuwählen und an diesen zu übermitteln. Layer: »Die Pattern-Bibliothek soll heranwachsen zu einer Art Grundlage für die Gestaltung sozialer Interaktionen zwischen Mensch und Maschine.«

Im Zentrum des aktuellen Forschungsprojekts von Selina Layer stehen drei Serviceroboter, die nicht im häuslichen Umfeld, sondern im öffentlichen Raum tätig sein sollen – etwa bei der Straßenreinigung oder als Transportroboter. Derzeit, so Layer, sind derartige Maschinen vor allem nachts in industriellen Produktionshallen im Einsatz sein, also zu Zeiten, in denen ihnen nur wenige Personen begegnen. Trotzdem müssen sowohl Roboter als auch Menschen auf diese Begegnungen vorbereitet werden. »Erste Studien innerhalb unseres Projekts ZEN-MRI haben beispielsweise gezeigt, dass Passanten nicht so gut antizipieren können, wie und wohin sich eine Maschine als nächstes bewegt«, erklärt Selina Layer. Gerade wenn Menschen abgelenkt sind, etwa durch Unterhaltungen oder durch den Blick aufs Handy, steige die Gefahr einer »ungeplanten Annäherung«. Layer: »Um Kollisionen zu vermeiden, muss der Roboter dann stärker auf sich aufmerksam machen – aber zugleich so, dass er nicht als akustische Belästigung empfunden wird.«

Auch die Motivation des Roboters muss für den Menschen ersichtlich sein, um dessen Tun – gerade in den Anfangsjahren einer wachsenden »Roboterisierung« unserer Welt – zu akzeptieren: Warum ist das Gerät hier und jetzt unterwegs, was ist seine Aufgabe? »Wenn nicht etwa durch Informationstafeln am Ort oder Aufkleber am Roboter klar ersichtlich ist, welche gesellschaftlich relevanten Jobs dieser übernimmt, steigt die Wahrscheinlichkeit von Angriffen auf das Gerät bis hin zur Sachbeschädigung«, erklärt Layer.

Befragungen im Rahmen von ZEN-MRI haben unter anderem ergeben, dass 73 Prozent der Probanden befürchten, bei Stürzen etwa nach Kollision mit einem Roboter verletzt zu werden. Knapp jeder Zweite ist besorgt wegen möglicher Sicherheitslücken durch Störungen der Hard- oder Software des Geräts, beinahe jeder Dritte sieht den Roboter als potenzielles Hindernis an. Solche Ängste und Wahrnehmungen begünstigen das sogenannte Robot-Bullying, also tätliche Angriffe auf das Gerät.

Niedlich – aber bitte nicht zu niedlich

Um derlei zu unterbinden und dem Menschen die Interaktion zu erleichtern, wurde beispielsweise die KI-Box RAI des Fraunhofer IML mit zwei stilisierten Augen versehen sowie zwei Lautsprechern links und rechts des Kastens, die wie Ohren aussehen. Dem evoBOT® verleihen zwei Punkte, die entfernt an Augen erinnern, ein niedliches, leicht menschliches Aussehen. »Das freundliche Design hat die Funktion, die Hemmschwelle für die Interaktion mit dem Roboter zu senken«, sagt Forscher Leon Siebel-Achenbach. »Das haben wir mit dem Design besser erreicht als erwartet. Obwohl es sich um einen Prototyp handelt, der noch einige Entwicklungszyklen durchlaufen muss, um ihn für die sichere Interaktion mit dem Menschen fertigzustellen, sind wir überrascht, wie offen die Menschen auf den Roboter zugehen.« Bei den mobilen Reinigungsgeräten, die bei ZEN-MRI zum Einsatz kommen, wurde bewusst auf ein humanoides oder tierähnliches Äußeres verzichtet, um jegliche unterschwellige Aufforderung zur Interaktion zu vermeiden.

»Gerade weil Roboter momentan noch nicht so etabliert sind im Alltag der Menschen, finde ich die Forschung in diesem Bereich so spannend und wertvoll«, erklärt Selina Layer. »Es geht um die Gestaltung von Standards: Wie werden wir künftig mit Robotern kommunizieren – und wie sie mit uns?«

Eine Frage der Sicherheit

Industrieroboter agieren immer noch vorwiegend hinter Schutzgittern. Bei Cobots, die ohne Schutzzaun zum Einsatz kommen können, spielt das Thema der Personensicherheit und Sicherheitszertifizierung eine sehr wichtige Rolle. Doch mit intelligenten AMR, also autonomen mobilen Robotern, und humanoiden Robotern wird eine neue Stufe der Sicherheitsbewertung und deren Anforderungen erreicht. »Die Sicherheitsfrage hat sich de facto als einer der wichtigsten Herausforderungen für die Kollaboration von Mensch und Roboter im gemeinsamen Arbeitsraum erwiesen«, erklärt Prof. Norbert Elkmann vom Fraunhofer IFF. »Sie ist ein wesentlicher Grund, warum sich die Hoffnungen der Industrie auf eine schnelle Implementierung von Robotern und Cobots in der Produktion nicht in dem Maße erfüllt haben.«

In einer Studie von 2018 wurde beispielsweise vom Weltwirtschaftsforum prognostiziert, dass im Jahr 2025 gut 52 Prozent und damit die Mehrheit aller Arbeitsstunden von Robotern erledigt werden. Davon, so Elkmann, sind wir aktuell noch weit entfernt – auch weil der Planungs- und Umsetzungsaufwand sowie der Prozess zur CE-Kennzeichnung für Anwendungen mit Mensch-Roboter-Kollaboration oftmals sehr aufwendig ist. Für mobile Roboter entstehen ganz neue Herausforderungen: die Aktionen und Szenarien des Zusammentreffens von Mensch und Roboter sind viel weniger planbar als bei stationären Robotern. Das Fraunhofer IFF verfolgt daher einen neuen Ansatz: Jede Aktion eines Roboters wird einer digitalen Risikoanalyse unterzogen und dann mit einem CE-Kennzeichen versehen. »KI-gestützte Robotik, die ihre Bewegungen selbstständig plant und ausführt, steht diametral den heutigen Sicherheits- und Zertifizierungsprinzipien entgegen, die von deterministischen Systemen ausgehen«, erläutert Elkmann. »Aber wir werden auch das lösen.«

Das Fraunhofer IFF erstellt Sicherheitsstandards für die Mensch-Roboter-Kooperation, die sich weltweit in Normen niederschlagen. Beispielsweise haben Forscher des Instituts eine Versuchseinrichtung mit einem Pendel entwickelt, die – mit Zustimmung der Ethikkommission – Kollisionsversuche mit Versuchspersonen ermöglicht, um die sogenannte Schmerzeintrittsschwelle zu ermitteln: Ab wann tut eine Kollision an welchen Körperstellen weh? Die in derlei Studien ermittelten Belastungswerte für Kraft, Druck und Stoßenergie lassen sich dann in verifizierte Grenzwerte überführen, die von essenziellem Nutzen für die Gestaltung einer sicheren Mensch-Roboter-Kollaboration sind. Die Resultate aus der Studie bilden heute den Stand der Technik weltweit ab. Zudem ermöglichen die Daten eine sehr präzise simulative Abbildung von Berührungen zwischen Mensch und Roboter. Dies ist eine wesentliche Voraussetzung dafür, dass sich künftig KI-gesteuerte Roboter so bewegen, dass der Mensch im Kontaktfall nicht zu Schaden kommt.

»Die Erwartungshaltung der Wirtschaft wie der Menschen überhaupt hinsichtlich intelligenter und möglicherweise auch humanoider Roboter ist hoch, manchmal auch – bedingt durch die neuen Entwicklungen aus den USA – stark überhöht«, bilanziert Norbert Elkmann. »Die Robotik-Entwickler haben noch einige grundsätzliche Aufgaben vor sich, bis wirklich flexibel und ökonomisch sinnvoll einsetzbare Produkte auf den Markt kommen. Die Sicherheitsfragen sind zusätzlich zu lösen. Diese Entwicklung zu begleiten und mitzugestalten, macht sehr viel Spaß.«                             

 

Fraunhofer Strategisches Forschungsfeld Künstliche Intelligenz (KI)

Künstliche Intelligenz, kognitive Systeme und Maschinelles Lernen spielen eine entscheidende Rolle in der künftigen Transformation von Wirtschaft und Gesellschaft. Die Fraunhofer-Gesellschaft entwickelt an vielen Instituten Schlüsseltechnologien für KI und ihre Anwendungen. Unsere Forschung leistet wesentliche Beiträge zur Entwicklung von sicheren, vertrauenswürdigen und ressourceneffizienten KI-Technologien und orientiert sich eng am praktischen Bedarf von Unternehmen und Gesellschaft.

Fraunhofer-Verbund Produktion

Der Fraunhofer-Verbund Produktion ist eine Kooperation von Fraunhofer-Instituten mit dem Ziel, produktionsorientierte Forschung und Entwicklung gemeinsam zu betreiben, um den Kunden in Industrie, Handel und Dienstleistung durch die Bündelung der vielfältigen Kompetenzen und Erfahrungen der einzelnen Institute auch umfangreiche, ganzheitliche Problemlösungen aus einer Hand anbieten zu können.