• Story

«Wenn du etwas glauben willst, solltest du zweifeln»

15.10.2024 Künstliche Intelligenz (KI) generiert immer realistischere Medieninhalte (Deepfakes). Wie wir als Gesellschaft damit umgehen können, erklärt BFH-Forscher Reinhard Riedl im Interview.

Das Wichtigste in Kürze

  • Es ist unmöglich, Deepfakes zuverlässig zu erkennen.
  • Im Zweifelsfall hilft der Kontext eines Deepfakes.
  • Kritisches Denken ist der entscheidenden Digital Skill im Umgang mit Deepfakes.

Können wir lernen Deepfakes zu erkennen?

Nein. Wir täuschen uns, wenn wir glauben, dass wir Deepfakes erkennen können. Studien zeigen, dass es rein zufällig ist, ob wir ein Deepfake als solches erkennen oder nicht. Wir müssen lernen mit dieser Unsicherheit umzugehen.

Was heisst das jetzt? Müssen wir uns künftig bei jedem Bild, Video und Text fragen: Ist das Realität oder Fiktion?

Wir müssen uns eine Art Generalverdacht antrainieren. Man muss immer die Möglichkeit miteinbeziehen, dass ein Artefakt ein Deepfake sein könnte. Wie brisant dies ist, hängt aber vom Kontext ab. In der Schweiz etwa reisen Bundesräte meist ganz alleine im öffentlichen Verkehr, in anderen Situationen brauchen sie dagegen Leibwächter. Soll heissen: Wie genau wir aufpassen müssen, hängt vom Kontext ab.

Wer etwas glauben will, sollte immer nach- und hinterfragen.

Reinhard Riedl
Reinhard Riedl BFH-Forscher

Was können wir also tun?

Die harte Botschaft lautet: Wir haben kein Patentrezept und wir wissen, dass das viele Menschen enttäuscht. Als Forscher*innen können wir Beispiele zeigen, wir können Erfahrungen teilen, aber wir können keine Rezepte liefern. Die Rezepte muss jeder für sich selbst machen.

Warum sind Patentrezepte bei Deepfakes nicht möglich?

Das ist einfach: Gute Deepfakes funktionieren vor allem dort, wo sie unsere Schwächen adressieren. Jede Person hat ein anderes Gefährdungsmuster. Wir müssen als Individuen herausfinden, wann wir besonders gefährdet sind. Diese Situationen und Kontexte müssen wir uns merken. Wenn wir hereingelegt worden sind, müssen wir bereit sein, uns den Fehler einzugestehen.

 

Was ist ein Deepfake, was sind synthetische Medien?

Deepfakes sind synthetische Medien, die mit KI hergestellt werden. Es sind Multimedia-Kreationen, die auf existierenden Inhalten basieren.

Originaldaten von Menschen (z.B. Videomaterial) dienen dabei als Basis. Dank KI entstehen aus menschgemachten Originaldaten, neue Multimedia-Artefakte. Deren Inhalt ist fiktiv, aber sie wirken authentisch, weil sie das Aussehen, die Bewegungen und die Sprachmelodie von dargestellten Personen sehr gut nachahmen können.

Synthetische Medien bezeichnet das gleiche wie Deepfakes. Anders ist aber die Konnotation der beiden Begriffe: Deepfakes werden primär negativ wahrgenommen, synthetische Medien sind neutraler.

Das sind trübe Aussichten.

Naja, es sind eigentlich ein paar wenige, sehr menschliche Dinge, bei denen wir besonders aufpassen müssen. So glaubt man eine Nachricht gerne, wenn sie die eigene Weltsicht bestätigt oder einem als Wissenschafter den fehlenden Puzzlestein zur Erarbeitung einer neuen Theorie liefert.

Wer etwas glauben will, sollte immer nach- und hinterfragen, statt Information unreflektiert zu übernehmen. Gerade im Umgang mit Deepfakes brauchen wir also kritisches Denken. ChatGPT ist ein schönes Bespiel dafür, weil es gern halluziniert. Wer kritisch denken kann, erkennt leichter, ob das Tool zuverlässig arbeitet oder Anwender*innen gerade ins Schilf schickt.

Könnten Deepfakes denn auch positiv eingesetzt werden?

Ja, klar. Spontan fallen mir personalisierte Unterrichtsmaterialien an Bildungsinstitutionen ein und vielfältige Anwendungen in der Filmindustrie. Aber auch in der Kunst, im Theater und in der Musik ist der bewusste Einsatz von synthetischen Medien interessant.

Unsere Forschung zeigt, dass einige Künstler*innen die KI sogar als Partner oder Nachfolger ansehen. Zuletzt haben wir beispielsweise darauf hingearbeitet Deepfakes von berühmten Pianisten zu erstellen. Diese Deepfakes könnten beliebige Stücke im Stile bestimmter Pianisten spielen, was einerseits künstlerisch hochinteressant, aber auch für die Ausbildung angehender Pianist*innen sehr spannend sein könnte.

Auch wenn ein Deepfake etwas zeigt, von dem wir wissen, dass es nicht real ist, kann es Schaden anrichten.

Reinhard Riedl
Reinhard Riedl BFH-Forscher

Wann sind Deepfakes schädlich?

Wenn sie eingesetzt werden um zu täuschen. Aber auch wenn ein Deepfake etwas zeigt, von dem wir wissen, dass es nicht real ist, kann es Schaden anrichten, einfach dadurch, dass es Dinge zusammenbringt, die nicht zusammengehören.

Ein Beispiel dafür ist der Porno-Clip mit einem Gesicht eines Hollywood-Stars, einer Politikerin oder auch der Ex-Freundin. Der Schaden entsteht, obwohl – oder gerade weil – wir wissen, dass besagte Person nie Pornos gedreht hat. Gefährlich wird es also nicht erst, wenn das Fake perfekt ist.

Was halten Sie vom Fall einer grossen Modekette, die für eine Kampagne menschliche durch KI-generierte Models ersetzt hat?

Das zeigt, dass wir lernen müssen, mit künstlichen Identitäten umzugehen. Unsere Welterfahrung wird reichhaltiger. Es gibt heute Dinge, die sich Shakespeare nicht hätte vorstellen können. So gibt es zum Beispiel in Japan schon länger artifizielle Pop-Ikonen.

Das Phänomen Deepfakes ist für uns als Gesellschaft aber recht neu. Wir wissen noch nicht, wie wir beispielsweise darauf reagieren sollen, wenn ein Kind Fan einer vollkommen künstlichen Figur ist. Wichtig ist darauf hinzuweisen, dass die artifizielle Figur etwas anderes ist als ein Mensch.

Sie sagen, dass wir nicht in der Lage sind, Deepfakes als solche zu erkennen. Müssten wir das denn?

Ich glaube, dass wir in der Kunst und in der Ausbildung ein Deepfake als solches kenntlich machen müssen. Generell richte ich mich nach einem alten Theater-Grundsatz: Du darfst alles machen, solange du dabei transparent bleibst. Das Publikum muss die Möglichkeit haben zu erkennen, dass es manipuliert wird.

Konkret heisst das: Wenn man Deepfakes generiert, sollte man das Deklarieren. Auch wenn man Bild-, Ton- oder Textwelten anderer Menschen benutzt, sollten man dies aus Fairness angeben.

Mehr erfahren