2 | 23 KI – und wo bleibt Europa? Größer, leistungsstärker, vielseitiger: Die amerikanischen Tech-Giganten befinden sich im harten Wettstreit um die Vorherrschaft bei Künstlicher Intelligenz, auch China investiert Milliarden. Europa braucht seinen eigenen Weg, noch ist es nicht zu spät. Von Dr. Sonja Endres C hatGPT hat alle überrascht – selbst KI-Ex- pertinnen und -Experten. Der Super-Chatbot kann Aufgaben lösen, für die er nie trainiert wurde, und sogar Witze erklären. Wie er das macht, weiß im Detail niemand. Trainiert wurde er nur darauf, in seiner Antwort das wahrscheinlich nächstfol- gende Wort zu finden. ChatGPT hat neue Eigenschaften selbstständig ausgebildet. »Emergenz« nennen das die Fachleute – ein Charakteristikum der neuen, großen KI-Modelle, die auf bis zu 100-mal mehr Trainingsdaten basieren wie ihre bereits leistungsstarken Vorgänger. 1997 besiegte Deep Blue den damaligen Schach-Großmeister Garri Kasparow, 2011 schlug Watson zwei Champions der in den USA beliebten Quizshow »Jeopardy«, 2016 bezwang AlphaGo den weltbesten Go-Spieler – alles Leistungen, die weltweit für viel Aufmerksamkeit sorgten; nichts im Vergleich mit der Künstlichen Intelligenz der nächsten Generation. Mit der Veröffentlichung des Sprachmodells GPT-3 durch die US-amerikanische Firma OpenAI im Sommer 2020, auf dem auch ChatGPT beruht, begann eine neue Zeitrechnung. Während anfangs nur ausgewählte Perso- nen Zugriff auf GPT-3 hatten, ist seine Weiterentwicklung ChatGPT seit wenigen Monaten für alle kostenlos im In- ternet verfügbar. Warum der leistungsstarke Bot immer wieder neue Überraschungen liefert, erklärt Dr. Gerhard Paaß, Mathematiker und Senior Scientist am Fraunhofer- Institut für Intelligente Analyse- und Informationssys- teme IAIS: »Diese großen KI-Modelle, von denen GPT zur- zeit sicher das bekannteste ist, können nicht nur Sprache verstehen, Texte zusammenfassen oder übersetzen. Sie sind auf riesigen Mengen allgemeiner Daten trainiert und können leicht an verschiedenste Aufgaben angepasst wer- den.« »Homogenisierung« nennen Experten dieses Phä- nomen. Ein aufgabenspezifisches Training ist nicht mehr notwendig, die Modelle reagieren auf Anweisungen und fungieren als Grundlage für vielfältige Anwendungen, weshalb sie auch Grundlagen- oder Foundation-Modelle genannt werden. ChatGPT kann programmieren wie ein professionel- ler Entwickler, zielgerichtet Informationen aus medizi- nischen Fachtexten zusammenstellen oder Jura-Examens- prüfungen bestehen. Foundation-Modelle sind zudem multimodal, das heißt, sie können verschiedene Medien verarbeiten, neben Text auch Sprache, Bilder und Videos. Um die Entwicklung schnell voranzutreiben, investierte Microsoft weitere Milliarden Dollar in OpenAI, sodass das Unternehmen inzwischen mit einem noch größeren Modell, GPT-4, nachlegen konnte. Technische Details wur- den bisher nicht publiziert, aber eine Vielzahl von Test- ergebnissen lässt vermuten, dass es Fakten noch viel zu- verlässiger reproduziert als GPT-3. Auch Meta und Google arbeiten mit Hochdruck an eigenen Modellen. 73 Prozent der großen KI-Modelle werden zurzeit in den USA ent- wickelt, 15 Prozent in China – in Europa bisher weniger als zwei Prozent, darunter Luminous vom deutschen Start- up Aleph Alpha. Sprache prägt die KI entscheidend Das soll sich bald ändern, wenn es nach den Autorinnen und Autoren der LEAM-Machbarkeitsstudie geht, die im Januar der Öffentlichkeit präsentiert wurde. Sie wur- de vom Fraunhofer IAIS gemeinsam mit weiteren For- schungsinstitutionen, Wirtschaftsverbänden und Unter- nehmen erstellt und beschreibt, welche Voraussetzungen geschaffen werden müssen, um bei der Entwicklung von KI-Grundlagen- und -Sprachmodellen in Deutschland konkurrenzfähig zu bleiben. Gefördert wurde die Stu- die vom Bundeswirtschaftsministerium. »Es ist immens wichtig, dass man die KI mit europäischen Sprachen trainiert«, betont Paaß, der an der Studie mitgewirkt hat. Sprache präge das Modell entscheidend, weil sie die Kultur mit all ihren Eigenarten, Normen und Werten repräsentie- re. »Nur drei Prozent der Trainingsdaten von GPT-3 waren deutsch. Das bedeutet, dass zum Beispiel detaillierte Fak- ten aus der deutschen Geschichte, Geographie, Technik usw. oder unsere Normen in Bezug auf Datenschutz in dem Modell stark unterrepräsentiert sind und daher kaum berücksichtigt werden. Das Wissen und damit natürlich auch die Antworten von GPT-3 sind im Englischen sehr viel besser als im Deutschen«, erklärt er. 53 . 3 1 - 8 . S , i 0 2 0 2 / 3 k n h c e T & r u t a N : n i , i ? n e k n e d n e n h c s a M n e n n ö K , f l o d u R , g n i s i e S d n u k n a r F , n n a m t t i D : I K r e d e t h c i h c s e G e l l e u Q s e g a m p d d i , s s e r p n o i t c a , s e i r a r b i L y t i s r e v i n U n o l l i e M e g e n r a C y s e t r u o C , y e n r u o d M i j I K : o t o F