E infach am Zielort aussteigen und dem Auto die Parkplatz- suche überlassen? Noch fünf Jahre, schätzt Dr. Michael Mock, Privatdozent und wissenschaftli- cher Mitarbeiter am Fraunhofer-Institut für Intelligente Analyse- und Informati- onssysteme IAIS, dann könnte der Traum in Erfüllung gehen. Künstliche Intelligenz (KI) soll es möglich machen. Allerdings: Wer würde sein Fahrzeug einer KI über- lassen, der er nicht vertrauen kann? Schließlich möchte man sichergehen, dass das autonom durch das Stadtviertel kurvende Auto auf der Suche nach einem Parkplatz keinen Schaden nimmt – und keinen Schaden verursacht. Noch ist die Skepsis groß. Laut einer Um- frage des deutschen Digitalverbandes Bit- kom vom September 2020 verlangen neun von zehn Befragten, dass KI-Systeme vor einer Zulassung »besonders gründlich« ge- prüft sein müssen. Das zeigt die Sorge. Die Hoffnung: Gleichzeitig bewerteten zwei Drittel die Chancen, die mit der Techno- logie einhergehen, als enorm. Vertrauen in KI: Genau daran arbeitet Michael Mock mit seinen Kolleginnen und Kollegen am Fraunhofer IAIS. »Künstliche Intelligenz ist die Schlüsseltechnologie, mit der wir die Digitalisierung entschei- dend voranbringen können – vorausgesetzt, uns gelingt es, das Vertrauen in sie zu fördern«, ist Mock überzeugt. Während herkömmliche Software auf Grundlage von Algorithmen funktioniert, die vom Entwickler vorgegeben werden, werden KI-Systeme mit einer großen Menge an Beispieldaten gefüttert, aus denen sie selbstständig lernen und Regeln ableiten (»Maschinelles Lernen«). Welche das sind, bleibt im Verborgenen. Selbst im Nachhi- nein lassen sie sich oft nur zum Teil oder gar nicht ermitteln – der Nutzer muss da- rauf vertrauen, dass die KI zu den richtigen Schlüssen kommt. In dem Projekt »Zertifizierte KI« ent- wickeln Mock und das Fraunhofer IAIS- Team Methoden und Maßnahmen, mit denen sich KI-Systeme absichern lassen. Im Juni haben die Forschenden einen »Leit- faden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« veröffentlicht, der kostenlos im Internet zur Verfügung steht. Auch die EU sieht Handlungsbedarf. Im April legte sie den weltweit ersten rechtli- chen Rahmen für KI vor. »Bei Künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk«, betonte Kommissionsvi- zepräsidentin für Digitales Margrethe Ves- tager. KI, die die Sicherheit, die Lebens- grundlagen und die Rechte von Menschen bedroht, soll verboten werden, Systeme mit hohem Risiko müssen strenge Vor- gaben er füllen, bevor sie auf den Markt kommen. »Der EU-Vorschlag für die Regu- lierung von KI ist sehr gut«, urteilt Mock. »Bei Künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk.« Margrethe Vestager, EUKommissions vizepräsidentin für Digitales »Es werden sinnvolle Anforderungen ge- stellt – allerdings kaum Maßnahmen ge- nannt, wie sie erfüllt werden können. Da ist unser Leitfaden schon deutlich konkre- ter.« Das 160 Seiten umfassende Werk soll Entwicklern helfen, von Anfang an alle relevanten Kriterien zu berücksichtigen. »Es gibt eine Vielzahl von Risiken, die es zu bedenken gilt – aber auch Möglichkei- ten, damit umzugehen«, sagt Mock. Jedes Prüfverfahren beginnt mit der Risikoanalyse. Sie erfolgt systematisch nach grundlegenden Anforderungsberei- chen, den sechs »Dimensionen der Vertrau- enswürdigkeit«: Fairness, Zuverlässigkeit, Autonomie und Kontrolle, Transparenz, Sicherheit, Datenschutz. »Nicht jede Dimen- sion ist für jeden Anwendungsfall relevant«, betont Mock. So spiele beispielsweise für eine KI-gesteuerte Farbmischmaschine in der industriellen Produktion die Dimen- sion Fairness, also die Frage danach, ob die KI alle Betroffenen fair behandelt, kei- ne Rolle – im Unterschied zu einer auto- matisierten Bewerberauswahl. Hier ist es entscheidend, der KI in der Trainingspha- se die richtigen Beispiele zur Verfügung zu stellen, um eine Benachteiligung auf- 3 | 21 grund von Geschlecht, Alter, Religionszu- gehörigkeit, Hautfarbe oder Ethnie zu ver- meiden. Beispiel Amazon: 2018 machte der Digitalkonzern publik, dass sein KI-System männliche Bewerber bevorzugt hatte, weil in den zugrundeliegenden Beispieldaten Frauen unterrepräsentiert waren. Beispiel Twitter: Hier begünstigte die Bildbeschnei- dungsautomatik weiße Frauen, die be- stimmten Schönheitsidealen entsprachen. Als Konsequenz schaltete der Konzern die Software vor Kurzem ab. »Das zeigt, wie wichtig es ist, die Trainingsdaten für die KI sorgfältig auszuwählen. Oft transpor- tieren sie menschliche Vorurteile«, warnt Mock. Darüber hinaus gebe es mathema- tische Methoden, mit denen man sicher- stellen könne, dass alle betroffenen Grup- pen fair berücksichtigt werden. Sie sind im kürzlich entwickelten Leitfaden be- schrieben, ebenso wie Überprüfungsmög- lichkeiten. Für das autonome Fahren spielen alle sechs Dimensionen der Vertrauenswür- digkeit eine Rolle. Zusammen mit Volks- wagen leitet Mock stellvertretend das Pro- jekt »KI-Absicherung« für automatisierte Mobilität und übernimmt auch die wis- senschaftliche Koordination. Gefördert vom Bundesministerium für Wirtschaft und Energie haben sich hier große deut- sche Automobilhersteller, Zulieferer, Tech- nologie-Unternehmen und Forschungs- institutionen zusammengeschlossen. Das Gesamtbudget beträgt 41 Millionen Euro. Von zentraler Bedeutung für die Vertrau- enswürdigkeit der KI im Auto und zu- gleich das Spezialgebiet Mocks: die Zuver- lässigkeit. Auch hier ist die Auswahl der Beispiele entscheidend, mit denen die KI trainiert wird. Dafür legt das Fraunhofer IAIS-Team zunächst die Rahmenbedin- gungen fest, unter denen die Wahrneh- mungsmodule, beispielsweise die Fußgän- gererkennung, funktionieren sollen. Wie jedes andere Softwaresystem benötigt KI einen genau definierten Betriebsbereich, der im Kontext des autonomen Fahrens als Operational Design Domain, kurz ODD, bezeichnet wird. »Man spezifiziert also, für welche Anwendungsfälle die KI getestet worden ist und wo sie zuverlässig funktioniert«, erklärt Mock. Dann wer- den die Beispielbilder künstlich per zurück zu Seite 1 33 r e n t i e L a l i e n a D : n e n o i t a r t s u l l I