KI-generierte Inhalte – Zwischen Kreativität, Deepfakes und Betrugsmaschen

Täuschend echte Bildaufnahmen von Situationen, die nie stattgefunden haben, künstlich erzeugte Stimmen, ausgefeilte Texte ohne menschlichen Autor – was echt und was unecht ist, lässt sich immer schwerer erkennen. So lässt sich auch über künstliche Intelligenz sagen, was auf Technologie allgemein zutrifft: sie ist Fluch und Segen zugleich, je nachdem wie und zu welchem Zweck sie eingesetzt wird.

Während viele der KI-generierten Inhalte, die heute im Netz kursieren, das Produkt von Nutzer*innen sind, die ihrer Kreativität freien Lauf lassen, wird KI auch eingesetzt, um zu täuschen und Desinformation zu verbreiten. Welche Arten KI-generierter Inhalte es gibt und wie Sie diese erkennen, erfahren Sie hier.

KI-generierte Texte

Die Qualität der Texte, die der Chatbot ChatGPT ausgibt, hat einen ganz neuen Hype um die Möglichkeiten der KI ausgelöst. Das Besondere: Der Chatbot kann menschliche Sprache verstehen und Antworten generieren, die sich kaum noch von menschlichen Antworten unterscheiden.

Dafür wurde er mit einer riesigen Menge an Daten trainiert, die aus Texten, Büchern, Websites, Artikeln sowie aus vielen anderen Quellen stammen. Der Chatbot ist imstande, den Kontext einer Konversation zu erfassen und Antworten zu generieren, die auf dem bisherigen Nachrichtenverlauf basieren. So entsteht der Eindruck eines natürlichen Gesprächs. Zudem kann der Chatbot kreative Texte verfassen, Geschichten und Gedichte schreiben. Haben Sie sich z. B. schon mal gefragt, wie Goethes „Die Leiden des jungen Werthers“ als moderne Seifenoper klingt?

ChatGPT, Antwort auf den Befehl (Prompt) “Schreibe die erste Seite von die Leiden des jungen Werther im Stil einer modernen Soap Opera” vom 31.08.2023, https://chat.openai.com/


Doch auch wenn der Chatbot auf einem enormen Fundus aus Trainingsdaten basiert, als Suchmaschine sollte man ihn dennoch besser nicht nutzen. Nicht nur weil die Trainingsdaten nur bis September 2021 reichen und nur einen winzigen Bruchteil des Internets repräsentieren, die Ausgaben des Chatbots sind keineswegs immer wahrheitsgetreu. Dennoch wirken seine Antworten meistens äußerst überzeugend. Doch warum ist das so?

Die Antwort ist einfach: Chatbots wie ChatGPT oder Goolge Bard wurden in erster Linie so programmiert, dass sie plausibel klingende Texte produzieren, jedoch nicht darauf, dass sie faktisch korrekte Antworten liefern.

Ein Grund hierfür liegt auch darin, dass die Sprachmodelle, die hinter den Chatbots stecken, selbst keinen Sinn für Wirklichkeit haben und auch keine Idee davon, was wahr und was falsch ist. Hier müssen wir uns vergegenwärtigen, dass eine KI – so authentisch ihre Antworten auch klingen mag – über kein konsistentes Weltwissen verfügt und auch über keine menschliche Wahrnehmung. Vielmehr beruhen ihre Ausgaben auf statistischen Modellen. So kann eine KI zwar berechnen, welches Wort am wahrscheinlichsten auf ein anderes Wort folgt, den Sinn des so entstehenden Textes kann die KI selbst jedoch nicht erfassen. Wie wahrscheinlich es ist, dass der Text faktentreu ist, hängt davon ab, wie oft eine Wortfolge in den Trainingsdaten vorkam. Die Suche über ChatGPT ersetzt heute also noch immer nicht unsere Recherchekompetenzen und auch nicht den gesunden Menschenverstand.

ChatGPT und Desinformation

Einen vertiefenden Einblick, wie Sprachmodelle funktionieren und wie es dazu kommt, dass sie Fakten verfälschen, erhalten Sie hier:

Und warum ChatGPT in manchen Sprachen mehr Desinformationen erzeugt als in anderen, können Sie in diesem Artikel von BR24 nachlesen.

KI-generierte Bilder und Videos

Von skurril bis täuschend echt – die Bilder, die sich mittels Künstlicher Intelligenz erzeugen lassen, können vieles sein: kreative Experimente, humorvolle Collagen bis hin zu gezielten Täuschungen. Wofür man vor nicht allzu langer Zeit noch Fähigkeiten in der Bildbearbeitung beherrschen musste, reicht heute ein einfacher Textbefehl. Programme, mit denen das möglich ist, gibt es mittlerweile viele. Zu den bekanntesten gehören DALL-E 2, Midjourney oder Stable Diffusion. Das Prinzip ist meistens gleich: Die oder der Nutzende gibt einen Sprachbefehl (in der Fachsprache „Prompt“) ein und der Bildgenerator gibt ein fertiges Bild aus. Die Ergebnisse sehen zunehmend realistisch aus.

Prominente Beispiele, wie solche durch eine KI erzeugten Bilder aussehen können, gab es in letzter Zeit viele. Einige davon fanden auch in der Presse große Resonanz: Der Papst in einer stylischen weißen Daunenjacke, Donald Trump, der sich gegen seine Festnahme wehrt, oder Putin, der vor Xi Jinping einen Kniefall macht (Links befinden sich außerhalb von digital-mobil-im-alter.de).
 

Deepfakes und woran wir sie erkennen können

Solche Kreationen, die auch als „Deepfakes“ bekannt sind, zeigen vor allem eines: durch künstliche Intelligenz lassen sich fotorealistische Fälschungen einfach und in nur wenigen Sekunden erstellen. Das ist auch deshalb problematisch, weil immer mehr solcher Fälschungen im Netz kursieren und es durch die stetige Weiterentwicklung der KI zunehmend schwieriger wird, echte Bilder von falschen zu unterscheiden.

Trotzdem gibt es noch immer einige Anhaltspunkte, wie man Deepfakes erkennen kann: Passt der Schatten zum Lichteinfall? Gibt es merkwürdige Formen im Hintergrund? Stimmt etwas nicht mit bestimmten Details (z. B. den Händen, dem Haaransatz, den Zähnen, Spiegelung in den Brillengläsern)? Gibt es Elemente, die unnatürlich aussehen?
Auch KI-basierte Detektionssoftware wie z. B. AI or Not kann dabei helfen solche Fälschungen zu entlarven.
 

Auch im Bereich des Bewegtbildes kommt KI immer häufiger zum Einsatz. So stellen „Deepfake“-Videos ihre Rezipienten ebenfalls vor die Herausforderung zu erkennen, was echt und was gefälscht ist - wie auch in diesem Video, das den Schauspieler Morgan Freeman zeigt, erzeugt von einer KI.

Zwei weitere Beispiele, die aufgrund ihrer Brisanz für Schlagzeilen sorgten, waren eine gefälschte Videobotschaft des ukrainischen Präsidenten Selensky, in welcher er zur Kapitulation aufruft und ein ebenfalls gefälschtes Video der ehemaligen US-Außenministerin Hillary Clinton, in dem sie sich für den Republikaner Ron DeSantis als nächsten US-Präsident ausspricht (Links befinden sich außerhalb von digital-mobil-im-alter.de).

Auch hier gibt es KI-basierte Programme, mit denen man überprüfen kann, ob ein Video durch eine KI erzeugt wurde, wie z. B. die Seite deepware.ai.

Doch lassen sich Deepfake-Videos meist noch relativ leicht erkennen, da ihre Erstellung viel aufwendiger ist als die von Bildern. Oft passen die Lippenbewegungen nicht zu dem Gesagten, die Körperbewegungen haken oder wiederholen sich auf unnatürliche Weise.

Um einige Anhaltspunkte zu haben, wie man Deepfakes erkennen kann, hat das Massachusetts Institute of Technology (MIT) mehrere Tipps veröffentlicht:

  1. Betrachten Sie das Gesicht. Fast immer handelt es sich bei Deepfakes um Gesichtstransformationen.
  2. Achten Sie auf die Haut. Wirkt diese zu glatt oder zu faltig? Passt das Alter der Haut zum Alter der Haare und der Augen bzw. zum Rest des Körpers?
  3. Betrachten Sie die Schatten um die Augen und Augenbrauen. Deepfakes geben die physikalischen Gesetzmäßigkeiten einer Szene meistens nicht vollständig wieder.
  4. Gibt es Spiegelungen in den Brillengläsern? Sehen diese realistisch aus?
  5. Wirkt die Gesichtsbehaarung natürlich? Gibt es zu viel oder zu wenig Haare?
  6. Achten Sie auf Leberflecken im Gesicht. Sehen diese echt aus?
  7. Achten Sie auf das Blinzeln einer Person. Blinzelt sie zu viel oder zu wenig?
  8. Achten Sie auf die Lippenbewegungen. Sehen die Lippenbewegungen natürlich aus?

Kreative Expertimente mit KI

Natürlich handelt es sich nicht bei allen Bildern und Videos, die mittels einer KI erzeugt wurden, gleich um Täuschungen. Viele nutzen die Bildgeneratoren momentan für kreative Experimente und loten die Möglichkeiten der KI aus.

Auch in den Medien wird dieser Trend aufgegriffen. In einem Beitrag des MDR wurde z. B. der KI Midjourney der Befehl gegeben, Bilder von den Bewohner*innen der Städte Sachsen-Anhalts zu erzeugen. Die Ergebnisse sind zwar alles andere als realistisch aber dafür durchaus amüsant. Das womöglich Gute hierbei: Durch das Experimentieren mit den Bildgeneratoren werden wir für die Möglichkeiten der KI sensibilisiert und lernen die Echtheit von Bildern mehr zu hinterfragen.

Und hier sehen Sie, wie sich die KI Midjourney Digital Mobil im Alter vorstellt:

Midjourney, Antwort auf den Befehl (Prompt) “Digital mobility in old age” (auf Deutsch: Digitale Mobilität im hohen Alter) vom 26.09.2023,https://discord.com @Midjourney Bot

Was fällt uns auf? Die Bilder sehen erst einmal unterschiedlich gut und realistisch aus. Wenn man genau hinsieht, fallen auch kleine "Fehler in der Matrix" auf - z.B. sind bei dem Herren unten links die Augen nur verschwommen unter der Brille dargestellt. Auch handelt es sich um sehr stereotype Darstellungen älterer Menschen. Wie Künstliche Intelligenz Stereotype reproduziert und verstärken kann, lesen Sie hier.

KI-generierte Stimmen

Wir stellen eine Anfrage, sie geben eine Antwort in “menschlicher” Sprache aus: Wie Sprachassistenten funktionieren und wie Sie diese sinnvoll in Ihren Alltag integrieren können, lesen Sie hier.

 

KI-Radio

Ein Radiosender, der von einer künstlichen Intelligenz moderiert wird? Eine Vorstellung, bei der womöglich vielen Radioliebhaber*innen das Herz blutet. Und dennoch: KI-basiertes Radio gibt es schon heute und ist auch hierzulande angekommen.

So betreibt die Audiotainment Südwest seit 2023 als erstes Medienhaus in Deutschland ein komplett KI-generiertes Radioprogramm mit dem Namen „bigGPT“. Musik, Nachrichten, Wettervorhersagen und regionale Informationen werden von einer KI zusammengestellt. Dafür durchkämmt sie das Internet und wertet den Inhalt regionaler Social-Media-Kanäle aus. Auch die Moderation schreibt sich die KI selbst. Vorgetragen wird sie von einer synthetischen Stimme. Trotzdem überlasse man laut den Betreibern die KI nicht vollkommen sich selbst. On-Air gehe nichts, was nicht parallel von Menschen betreut werde. So soll z. B. verhindert werden, dass sich die KI Falschinformationen aus dem Netz zieht und diese verbreitet. Wie in vielen anderen Branchen wird also auch im Hörfunk mit dem Einsatz von KI experimentiert.

Ob sich KI-Radio durchsetzen wird oder den Hörer*innen irgendwann die Ohren schlackern, wird sich also noch zeigen.

KI im Radio

Mehr Informationen zum Thema hören Sie auf einem noch immer ganz menschlichen Radiosender - bei  Deutschlandfunk Kultur.

KI-basierte Betrugsmaschen: Von geklonten Stimmen und falschen Polizeibeamten

Der Enkeltrick und Schockanrufe, bei denen falsche Polizeibeamte das Geld der Angerufenen in „Sicherheit“ bringen wollen oder bei denen vermeintliche Familienmitglieder in einer angeblichen Notlage Geld verlangen, sind mittlerweile vielen bekannt. Trotzdem nehmen die Telefonbetrugsfälle immer weiter zu. Aber nicht nur das: um ihre Ziele zu erreichen, greifen die Telefonbetrüger jetzt auch in die KI-Trickkiste und bringen ihre Betrugsmaschen auf ein neues Level. So können mittels KI Stimmen geklont und Telefonanrufe inszeniert werden.

Ein mögliches Szenario sieht z. B. so aus:

Die Tochter oder der Sohn ruft mit aufgelöster Stimme an und erzählt, dass sie oder er einen tödlichen Unfall verursacht hat und nun im Gefängnis ist. Kurz darauf meldet sich ein falscher Polizist und verlangt nun Bargeld als Kaution.

Die Betrüger*innen setzen dabei auf den Schockeffekt, bei dem starke Emotionen und Ängste die gesunde Skepsis und rationale Abwägung oftmals überwiegen. Gefährdet sind daher alle Altersgruppen, auf die KI-Masche hereinzufallen. Lesen Sie mehr dazu auf NDR.

Die folgenden Tipps, wie Sie auf einen Schockanruf reagieren können, gibt das Bundeskriminalamt auf seiner Website:

  • Folgen Sie nicht den Aufforderungen der Anrufer. Lassen Sie sich nicht in ein Gespräch verwickeln oder unter Druck setzen. Legen Sie einfach auf.
  • Geben Sie am Telefon keine Details zu persönlichen oder finanziellen Verhältnissen preis.
  • Rufen Sie Ihre tatsächlichen Angehörigen unter der Ihnen bekannten Nummer an.
  • Denken Sie daran: Die Polizei oder vergleichbare Amtspersonen werden Sie niemals telefonisch um die Aushändigung von Bargeldbeträgen oder Wertsachen bitten.
  • Übergeben Sie niemals Geld oder Wertgegenstände an Personen, die Sie nicht kennen.
  • Lassen Sie grundsätzlich keine Unbekannten in Ihre Wohnung oder Ihr Haus.
  • Falls Sie einen solchen Anruf erhalten haben, wenden Sie sich bitte umgehend an Ihre örtlich zuständige Polizeidienststelle, um den Vorfall zur Anzeige zu bringen.

Wie können Stimmen kopiert und Gespräche imitiert werden?

Zunächst einmal finden sich im Internet unzählige Programme, mit denen Stimmen imitiert werden können. Hinzu kommt, dass wenige Sprachfetzen ausreichen, um die Programme mit der eigenen Stimme oder der Stimme einer anderen Person sprechen zu lassen. In Zeiten von sozialen Medien, sind solche Sprachfetzen im Internet leicht auffindbar. Gerade Plattformen wie TikTok oder Instagram leben davon, dass Nutzer*innen von sich selbst Bilder und Videos posten. Noch einfacher ist es natürlich die Stimmen von Politiker*innen zu imitieren, da von ihnen viele Video- und Audioaufnahmen im Netz kursieren.

Wie die KI-Stimmimitation funktioniert, erfahren Sie in diesem kurzen Videoclip auf Instagram.

Weiterführende Informationen

Weitere Informationen zum Thema Betrugsmaschen und Enkeltrick finden Sie hier:

Tagesschau: Enkeltrick mit Deepfake - Wie Betrüger künstliche Intelligenz nutzen

Auch interessant: Die Reportage des SWR zur Bekämpfung krimineller Betrugsbanden

 

 

Redaktion: Matthias Röck