Täuschend echt und doch erfunden: wie Deepfakes sich immer weiter verbreiten

Was einst aufwendige Spezialkenntnisse erforderte, ist heute dank frei zugänglicher KI-Tools leicht anwendbar: manipulierte Videos oder Bilder – sogenannte Deepfakes – kann heute jede und jeder erstellen. Sonja Angehrn, Dozentin für Künstliche Intelligenz und Kursleiterin des MAS Artificial Intelligence an der OST – Ostschweizer Fachhochschule, klärt auf, wie diese Technologie funktioniert, warum Deepfakes immer besser werden und wie wir diese erkennen können.

 

Autorin: Lena Graf

Ob ein Video einer grünen Politikerin, die die gegnerische Partei unterstützt oder ein Bild vom Papst in einem dicken weissen Daunenmantel. Immer häufiger kursieren im Internet Bilder und Videos von Situationen, die es so nie gab. Doch was genau sind Deepfakes? «Deepfakes sind realistisch wirkende, aber gefälschte Bilder, Videos oder Audiodateien. Dabei sieht oder hört man Menschen Dinge sagen oder tun, die sie in Wirklichkeit nie gesagt oder getan haben», sagt Sonja Angehrn, Dozentin für Künstliche Intelligenz und Kursleiterin des MAS Artificial Intelligence an der OST – Ostschweizer Fachhochschule.

Es gibt viele verschiedene Arten, wie Deepfakes erstellt oder generiert werden. Bei den bildbasierten Deepfakes unterscheidet man unter den folgenden vier Typen:

  • Manipulation eines Gesichtsausdruckes (facial reenactment)
    Bestimmte Teile des Gesichtes werden verändert, wobei die Identität der Zielperson erhalten bleibt

  • Ganzkörperpuppenspiel (full body puppetry)
    Die Pose eines Körperteils oder des gesamten Körpers einer Person wird verändert

  • Gesichtsaustausch (face-swapping)
    Das Gesicht einer Zielperson wird durch das Gesicht des Ausgangsbildes ersetzt

  • Gesichts-Morphing (face-morphing)
    Zwei Gesichter oder Personen werden miteinander verschmolzen

  • Zusätzlich zu diesen Deepfake-Typen besteht die Möglichkeit, mit KI-Tools komplett fiktive, jedoch sehr realitätsnahe Bilder- und Videoinhalte zu erstellen.

 

Bereits vor der Verbreitung von Künstlicher Intelligenz existierten Deepfakes. Doch mit der aktuellen KI-Technologie gewinnen sie an Bedeutung. «Noch vor wenigen Jahren brauchte man viel Fachwissen und Erfahrung mit Bildbearbeitungsprogrammen, um Deepfakes zu erstellen. Heute ist das dank moderner KI-Tools viel einfacher geworden», sagt Sonja Angehrn. «Viele dieser Werkzeuge sind frei zugänglich und lassen sich mit wenigen Klicks ganz einfach bedienen». Oft reiche schon ein kurzer Text wie: «Erstelle ein Bild, das eine bestimmte Szene zeigt», und die KI erzeugt das gewünschte Ergebnis. Die Technik dahinter müsse von den Benutzenden nicht mehr verstanden werden, denn die aktuellen Werkzeuge übernähmen die komplexe Arbeit allein aufgrund der eingegebenen Beschreibung. «Ich finde es wichtig, dass die Menschen sich bewusst sind, wie einfach heutzutage Deepfakes erstellt werden können und wie leicht sich diese verbreiten lassen», betont die Expertin.

Es wird immer schwieriger, Deepfakes zu erkennen

KI-Tools zur Erstellung von Deepfakes werden mit grossen Mengen an Fotos, Videos oder Sprachaufnahmen trainiert. Dabei lernen die Modelle, wie ein Gesicht aussieht und sich bewegt oder wie eine Stimme klingt. Dieses gelernte Muster kann anschliessend auf andere Aufnahmen von existierenden Personen übertragen werden. So lässt sich zum Beispiel ein Gesicht in eine kompromittierende Szene einfügen oder eine Stimme für Aussagen verwenden, die nie gemacht wurden. «Früher konnte man Deepfakes oft an kleinen Fehlern erkennen, etwa an seltsamen Fingern, verwachsenen Ohrläppchen oder anderen surrealen Details. Die neuesten KI-Tools sind jedoch so gut, dass viele gefälschte Bilder oder Videos für uns Menschen kaum noch von echten zu unterscheiden sind», sagt die Kursleiterin des MAS Artificial Intelligence.

Die neuesten KI-Tools sind so gut, dass viele gefälschte Bilder oder Videos für uns Menschen kaum noch von echten zu unterscheiden sind.

Sonja Angehrn, Dozentin für Künstliche Intelligenz und Kursleiterin MAS Artificial Intelligence

 

Doch gerade weil Deepfakes immer besser werden, müsse man sich heute viel mehr darauf konzentrieren, woher das Bild oder Video komme und von wem und in welchem Zusammenhang es veröffentlicht worden sei. Kontext und Quelle seien nach wie vor die am verlässlichsten Indikatoren. Beispielsweise kann es ein Hinweis auf ein KI-generiertes Bild sein, wenn sich ein Inhalt ausschliesslich über soziale Medien verbreitet und keine klar nachvollziehbare Quelle erkennbar ist. Es gibt zudem immer mehr Plattformen, die offizielle Resultate von Faktenchecks veröffentlichen. Google führt beispielsweise das «Fact Check Tool», in dem nach Nachrichten, Bildern oder Videos gesucht werden kann und Google prüft, ob diese echt, durch KI manipuliert oder sogar von dieser erstellt wurden. «Diese Faktenchecks können dabei unterstützen, zu verstehen, was real ist und was nicht», sagt Sonja Angehrn.

Die Verbreitung einschränken und Aufklärungsarbeit leisten

Deepfakes stellen ein grosses Risiko für Desinformation und Fake News dar. Im Zeitalter von Social Media verbreiten sich News zudem wie ein Lauffeuer und haben grössere Wirkungen. Auch die Gefahr von Cyberkriminalität oder Rufschädigung steigen dadurch erheblich. Sonja Angehrn betont: «Wenn man Deepfakes von sich selbst entdeckt, ist es wichtig, zu dokumentieren wie und wo diese verbreitet wurden.» Erscheinen diese auf einer Plattform oder Webseite, könne über die Meldefunktion beantragt werden, dass diese gelöscht werden. «Wenn Deepfake benutzt wird, um sexualisierte oder intime Bilder oder Videos zu erstellen, können sie sehr schnell grossen Schaden anrichten», sagt die Kursleiterin. In diesen Fällen sei es wichtig, bei der Polizei Anzeige zu erstatten. So können Behörden ermitteln und eine weitere Verbreitung verhindern. «Die wichtigste Aufgabe unserer Behörden und des Kantons ist die Aufklärungsarbeit. Viele Menschen, insbesondere Jugendliche, wissen nicht, dass die Erstellung von Deepfakes strafbar sein kann und welche psychischen Schäden sie bei Betroffenen anrichten können», betont Sonja Angehrn. Durch Schulungsprogramme für Lehrpersonen, Workshops für Eltern und Sensibilisierungskampagnen in den Sozialen Medien könne der Kanton die Präventionsarbeit an Schulen und in der Öffentlichkeit verstärken. 

Wir müssen unsere Selbstverantwortung wahrnehmen

Neben all den negativen Seiten: «Die Deepfake-Technologie hat durchaus auch positive Anwendungen», sagt Sonja Angehrn. In der Filmindustrie kann beispielsweise simuliert werden, dass eine Schauspielerin oder ein Schauspieler einen gefährlichen Stunt ausführt, ohne dass die Person sich in Gefahr begeben müsse. Im Marketing und in der Bildung könne die zugrundeliegende KI-Technologie nützlich sein, um Werbematerial oder Schulungsvideos zu erstellen.

«In jedem Fall ist es wichtig, dass alle Menschen ihre Selbstverantwortung wahrnehmen, Bildungsangebote und Aufklärungsarbeiten nutzen und einen verantwortungsvollen Umgang mit dieser Technologie üben», betont die Expertin.

MAS Artificial Intelligence

Künstliche Intelligenz verändert die Art, wie Unternehmen denken, entscheiden und handeln. Sie eröffnet neue Wege, um Prozesse zu automatisieren, Innovation zu beschleunigen und ganz neue Geschäftsmodelle zu schaffen. Damit wächst der Bedarf an Fach- und Führungspersonen, die KI nicht nur verstehen, sondern strategisch und verantwortungsvoll einsetzen können. Der MAS Artificial Intelligence vermittelt praxisnahes Wissen zu modernen KI-Technologien und lehrt, die KI-Transformation in der eigenen Organisation strategisch mitzugestalten.