Der Enkeltrick 2.0, die vorgetäuschte Videokonferenz oder die Beeinflussung der öffentlichen Meinung in Wahlkampfzeiten – Deepfakes sind riskant. Und das für jeden Einzelnen, für Unternehmen und für die Gesellschaft. Die Expertinnen und Experten der Fraunhofer-Gesellschaft verfügen bereits heute über Methoden, Audio- und Videomanipulationen verlässlich zu entlarven – und zwar wiederum mittels KI.
Wie das funktioniert, erklärt der Sicherheitsexperte Dr. Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC. Mit Annette Weiß spricht er über Sicherheitsprüfungen und Schutzmaßnahmen, um Betrug auszuhebeln, aber auch über die Potentiale der KI im Audiobereich für die Kreativwirtschaft und den Gesundheitssektor.
Prof. Dr. Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie SIT zeigt auf, wie brandgefährlich Bild- und Videomanipulationen beispielsweise bei politischen Konflikten sind. Der Mediaforensiker erklärt, wie auch hier Algorithmen eingesetzt werden, um gefälschte Bilder und Videos zu erkennen.