Künstliche Intelligenz (KI) erlebt derzeit so etwas wie einen zivilisatorischen Moment. Maschinelles Lernen und die wachsende Fähigkeit von Computeralgorithmen, komplexe Handlungen in Nachahmung menschlicher Intelligenz auszuführen, sind nicht neu und haben schon seit geraumer Zeit Auswirkungen auf unser Leben – zumeist auf unsichtbare Weise, wie in unserem Artikel „Künstliche Intelligenz: Hoffnung oder Bedrohung?“ vom Mai 2015 beschrieben.

Die künstliche Intelligenz steuert die Karten-App auf Ihrem Smartphone, wenn Sie durch den Verkehr navigieren, und sie entscheidet, welche Suchergebnisse Ihnen beim Einkaufen auf Amazon angeboten werden. Doch in den letzten Monaten wurden die Nachrichten mit dramatischen Berichten über generative KI überschwemmt – künstlich intelligente Systeme, die in der Lage sind, Texte, Bilder, Videos oder Audiodateien zu produzieren, die erstaunlich lebensecht und real erscheinen. Das heißt, die künstliche Intelligenz lernt, die Realität in einem immer genaueren Maßstab zu imitieren. Dies ist ein dramatischer Wandel.

Das Ergebnis kann ein Segen für Kreative in allen Bereichen sein – Schreiben, Bildproduktion, Videobearbeitung usw. Aber es verspricht auch unheimlichere Möglichkeiten, da diejenigen, die dies zur Täuschung nutzen würden, nun über neue und mächtige Werkzeuge zur Nachahmung der Realität verfügen. Wie nah sind wir daran, eine Welt zu generieren, in der wir keinem Bild oder Video mehr trauen können, das wir sehen? Werden wir immer in der Lage sein, falsche oder künstliche Bilder und Töne von echten zu unterscheiden, oder stehen wir vor einer möglichen „Informationsapokalypse“, wie ein Forscher es genannt hat?

Die Fähigkeit der künstlichen Intelligenz, die Realität zu simulieren, scheint sich zu beschleunigen – in einer Art und Weise, die einige vermuten lässt, dass wir uns am Rande einer der größten technologischen Revolutionen der Geschichte befinden. Was in diesem Monat „Stand der Technik“ ist, könnte schon in wenigen Monaten dramatisch in den Schatten gestellt sein, da KI-Systeme und -Ansätze lernen, das wirkliche Leben an mehreren Fronten zu imitieren.

 

Bilder

Mehrere Unternehmen bieten KI-gestützte Modelle an, z. B. Midjourney, Stable Diffusion und DALL-E 2 von OpenAI, die in der Lage sind, auf der Grundlage einer reinen Textbeschreibung sowohl fantasievolle als auch realistische Bilder zu erzeugen, die den Anschein erwecken, von Menschen geschaffen worden zu sein. Möchte ein Benutzer beispielsweise ein Bild von einem Einhorn, das auf einem Regenbogen, der am Planeten Saturn vorbeiführt, durch den Weltraum galoppiert, so gibt er einfach genau diese Beschreibung ein. Die künstliche Intelligenz generiert oft mehrere Bilder, die der Nutzer dann auswählen und entweder verwenden oder durch zusätzliche Bearbeitung verbessern kann. Und für jede Anfrage wird ein neues, einzigartiges Bild erzeugt.

Am verblüffendsten sind vielleicht die realistischen Bilder. Die generativen Systeme können sehr spezifische Eingaben verarbeiten, indem sie das Aussehen einer bestimmten Kamera, eines bestimmten Objektivs und einer bestimmten Belichtungsstufe simulieren, die gewünschten Emotionen in den Gesichtern der abgebildeten Personen hervorrufen und die „Hintergrundgeschichte“ vermitteln, die das Bild möglicherweise andeuten soll. Die Ergebnisse können äußerst überzeugend sein, so als ob es sich um echte Fotos von echten Menschen in echten Situationen handeln würde – und sie wurden bereits erfolgreich eingesetzt, um viele zu täuschen.

Gegenwärtig kann man oft „Hinweise“ darauf finden, dass ein Bild maschinell erzeugt wurde, z. B. Merkmale, die sich bei näherer Betrachtung als unsinnig erweisen – z. B. Pupillen, die nicht zusammenpassen, oder eine Hand mit einem zusätzlichen Finger. Die Bildgeneratoren und ihre menschlichen Benutzer scheinen jedoch schnell zu lernen, wie sie ihre Ergebnisse verbessern und diese Fehler beseitigen können.

 

Gesichter

Im Jahr 2020 veröffentlichte die New York Times auf ihrer Website einen interaktiven Artikel mit dem Titel „Designed to Deceive: Do These People Look Real to You?“ [„Gemacht, um zu täuschen: Sehen diese Menschen für Sie echt aus?“].  Die Times nutzte die von ihr selbst in Auftrag gegebene künstliche Intelligenz, um zu veranschaulichen, wie einfach es ist, völlig falsche, aber absolut glaubwürdige menschliche Gesichter zu erzeugen. Auf ihrer Webseite erlaubte sie den Besuchern, Bilder von Gesichern hinsichtlich Alter Geschecht, Ethnie und emotinalem Ausdruck zu verändern. Keines der Gesichter stellte eine reale Person dar, und jedes einzelne wurde von einem Computer generiert – dennoch waren sie erstaunlich glaubwürdig. Zwar gab es oft kleine „Hinweise“ darauf, dass sie künstlich generiert waren – unpassende Ohrformen oder unsymmetrische Brillengläser –, aber ein unaufmerksamer Betrachter konnte diese leicht übersehen.

Die vielleicht gefährlichste Anwendung von KI-generierten Gesichtern ist jedoch die Fähigkeit, die Gesichter echter Menschen in Videos und Filmen digital zu verändern und sie mit unheimlicher Genauigkeit in die Gesichter anderer Menschen zu verwandeln. Die allgemein als „Deepfakes“ bezeichnete Technologie hat in Filmen die jugendlichen Gesichter von inzwischen alten Schauspielern hinzugefügt, um jüngere Versionen ihrer Figuren darzustellen, und die Gesichter inzwischen verstorbener Schauspieler wurden gegen die Gesichter von Stellvertretern ausgetauscht. Und das in London ansässige Unternehmen Flawless hat seine Gesichtsmanipulations-KI eingesetzt, um die Vulgaritäten und Schimpfwörter eines Films zu ersetzen, um eine Einstufung im Jugendschutz zu erhalten, die ein breiteres Publikum zulässt. Bei jeder Ersetzung sieht es so aus, als ob die Schauspielerin wirklich das „sauberere“ Wort anstelle der ursprünglichen Vulgarität sagt.

 

Stimmen

Forscher und Medienschaffende beginnen, mithilfe der künstlichen Intelligenz bemerkenswert realistische Audioaufnahmen von Personen zu erstellen, die Dinge sagen, die sie nie wirklich gesagt haben. Nachdem die Stimme einer Person etwa 30 Minuten lang aufgenommen wurde, ist der Computer in der Lage, einen beliebigen geschriebenen Text zu vertonen, der so klingt, als würde die Person selbst sprechen und den Text laut vorlesen.

Die Ergebnisse, die von vielen als „Voice Cloning“ oder „Audio Deepfake“ bezeichnet werden, entwickeln sich in ihrer Qualität ständig weiter. Am Presidents' Day 2023 in den Vereinigten Staaten nutzte der Digitaldesigner Linus Ekenstam KI-Wekzeuge zur Textgenerierung und zum Klonen von Stimmen, um ein Podcast-Interview mit Ronald Reagan zu simulieren, in dem Ekenstam den verstorbenen Präsidenten zu seinen Gedanken über Technologie, die Lage der USA und den ehemaligen Präsidenten Donald Trump befragte. Abgesehen von der Anekdote, die der von der künstlichen Intelligenz erzeugte Reagan über die Entführung durch Außerirdische zum Besten gab, war das „Interview“ relativ glaubwürdig, und die Stimme klang wirklich wie die von Reagan, wenn auch weniger lebhaft und lebendig, als man es bei einem persönlichen Interview mit dem verstorbenen Präsidenten erwartet hätte.

Ein berühmter und viel beachteter Einsatz dieser Technologie war der Einsatz von KI durch den Unterhaltungskonzern Disney, der mit der Erlaubnis des Schauspielers die ikonische Stimme von James Earl Jones für die gesprochenen Zeilen von Darth Vader in seiner Obi-Wan Kenobi-Streamingserie imitierte. Und die Technologie wird immer besser. Im Januar 2023 wurde in einer Vorabveröffentlichung der Cornell University zum Thema Berechnung und Sprache ein KI-Stimmengenerierungssystem vorgestellt, das in der Lage ist, die Stimme eines Probanden nach einem Training mit drei Sekunden langen Hörproben im Wesentlichen und realistisch zu reproduzieren. Das Modell erlaubt es dem Benutzer sogar, die der Stimme innewohnende emotionale Qualität zu variieren.

 

Unterhaltungen

ChatGPT, ein Sprachverarbeitungstool, das von Menschen geschriebenen Text und Konversation imitiert, hat kürzlich die Aufmerksamkeit auf den aktuellen Stand der KI-Entwicklung gelenkt. ChatGPT, das auf dem umfangreichen GPT-3-Sprachmodell basiert und von seinen Schöpfern, OpenAI, der Öffentlichkeit zugänglich gemacht wurde, war für viele Laien die erste Erfahrung mit der Fähigkeit der KI, menschliche Reaktionen zu simulieren.

ChatGPT ist in der Lage, einen Text-Chat zu führen, komplizierte Konzepte in einfachen Worten zu erklären und originelle Inhalte zu produzieren, die selbst in den lächerlichsten Szenarien wie von Menschenhand geschaffen wirken. Bitten Sie ChatGPT, originale Gedichte, Songtexte oder sogar Drehbücher zu jedem erdenklichen Thema zu verfassen, oder imaginäre „Transkripte“ von Gesprächen zwischen berühmten Personen zu erstellen, die sich nie getroffen haben, oder einfach den Schreibstil eines berühmten Autors zu imitieren, und ChatGPT wird Ihnen mit erstaunlich menschenähnlichen Ergebnissen entgegenkommen.

Doch ChatGPT hat derzeit noch Schwächen. OpenAI hat eingeräumt, dass die politischen und ideologischen Neigungen des umfangreichen Inhalts, mit dem ChatGPT trainiert wurde, voreingenommen sind. Und Forscher und Testnutzer haben festgestellt, dass ChatGPT und andere ähnliche KI-Chatbots dazu neigen, bei längeren Unterhaltungen zu „halluzinieren“, d. h. die KI beginnt, „Fakten“ einzubringen, die schlichtweg falsch sind. Dies gilt insbesondere dann, wenn der Mensch, der mit der KI kommuniziert, den Algorithmus absichtlich in Bereiche drängt, in die er nicht vordringen soll. Dennoch arbeiten Forscher ständig daran, ihre KI-Systeme so zu trainieren, dass sie solche Fallstricke vermeiden und die menschliche Interaktion immer erfolgreicher simulieren.

 

Mächtige Werkzeuge in gefährlichen Händen

In dem Maße, in dem künstlich intelligente Werkzeuge immer besser in der Lage sind, verschiedene Facetten der realen Welt – Bilder, Videos, Sprache, Texte – zu imitieren, wächst auch die Fähigkeit von Einzelpersonen, Unternehmen und Regierungen, diese Werkzeuge zur Täuschung anderer einzusetzen. Tatsächlich geschieht dies bereits, und zwar schon seit einiger Zeit.

Im Jahr 2019 berichtete die Associated Press, dass ein LinkedIn-Nutzer namens Katie Jones ein gefälschtes Konto war, das wahrscheinlich für Spionagezwecke verwendet wurde. Die nicht existierende Katie Jones nutzte ein von der künstlichen Intelligenz generiertes Gesicht für ihr Kontoprofil und hatte Verbindungen zu vielen Personen in der amerikanischen Politik und Politikgestaltung aufgebaut. Die AP zitierte den damaligen Direktor des Nationalen Zentrums für Spionageabwehr und Sicherheit der USA, William Evanina, mit den Worten, China nutze solche Konten mit gefälschten Profilen, um die USA „in großem Stil“ auszuspionieren.

So mancher Facebook-Nutzer hat schon eine seltsam klingende Textnachricht erhalten, die scheinbar von einem Freund stammt, der in Schwierigkeiten steckt und schnelle finanzielle Hilfe braucht. Aufmerksame Leser erkennen solche Fälschungen schnell – zum Beispiel aufgrund des Fehlens persönlicher Angaben oder der unpersönlichen Art der Nachricht. Doch schon bald könnte textgenerierende Software die Beiträge von Menschen in sozialen Medien überprüfen und ihren Stil mit bemerkenswerter und trügerischer Genauigkeit imitieren – und sogar auf Fragen in der „Stimme“ der angenommenen Identität mit Antworten entgegnen, die persönliche Details enthalten.

Und im Jahr 2019 hat die KI einen Hightech-Telefonbetrug für Unternehmen ermöglicht. Das Wall Street Journal berichtete am 30. August desselben Jahres über den Fall eines ungenannten britischen Unternehmens, das von Betrügern um 220.000 Euro betrogen wurde, die KI nutzten, um die Stimme des Vorstandsvorsitzenden der deutschen Muttergesellschaft des Unternehmens zu imitieren. Und diese Technologie hat sich seitdem stark weiterentwickelt.

Wie viel erfolgreicher werden solche Betrügereien sein, wenn die KI-Betrüger in der Lage sind, mit den Opfern zu interagieren und jeden Validierungstest zu bestehen? Und wie die von Herrn Evanina angedeutete „massenhafte“ Spionage würden solche Anwendungen und Programme einen ähnlich massenhaften Betrug ermöglichen, da ein einziger Betrüger in der Lage ist, Hunderte oder sogar Tausende von Programmen gleichzeitig einzusetzen.

Da die Existenz von KI-Software immer alltäglicher wird, häufen sich die Behauptungen, wenn neue Videos oder Bilder auftauchen, dass diese „deepfaked“ seien. In vielen Fällen erweisen sich solche Behauptungen als wahr. Da die Fähigkeit der künstlichen Intelligenz, die Realität zu imitieren, jedoch immer besser wird, wird es immer schwieriger, diese Behauptungen zu belegen.

 

Künstliche „Beziehungen“

Manche Gefahren sind subtiler. Im Juli 2021 schlug der San Francisco Chronicle Wellen mit seinem Artikel „The Jessica Simulation: Love and Loss in the Age of A.I.“ [Die Jessica-Simulation: Liebe und Verlust im Zeitalter der KI“]. Der Reporter Jason Fagone beschrieb, wie ein junger Mann Project December, eine auf GPT-3 basierende Anwendung des Spieldesigners Jason Rohrer, nutzte, um Textnachrichten seiner toten Freundin hochzuladen, damit der Chatbot sie in Gesprächen simulieren konnte, als ob er regelmäßig mit ihrem Geist sprechen würde. Dieses Beispiel inspirierte Herrn Rohrer dazu, das Project December als Mittel zur „Simulation von Toten“, wie es im Slogan heißt, zu entwickeln. Aber es führte offenbar dazu, dass OpenAI von Herrn Rohrer zusätzliche Sicherheitsvorkehrungen verlangte, die er nicht bereit war, umzusetzen, was ihn dazu veranlasste, das Projekt zu beenden.

Die Möglichkeit, Tote „wiederzubeleben“, scheint den Megakonzern Amazon jedoch nicht so abzuschrecken. Auf seiner KI-Technologiekonferenz im Juni 2022 zeigte Amazon ein Video, in dem ein Kind sein Alexa-Gerät fragt: „Alexa, kann Oma mir den Zauberer von Oz zu Ende lesen?“ Das Gerät antwortete mit „OK“ und las dann das Buch mit der Stimme der verstorbenen Großmutter des Kindes vor.

Der Gedanke, dass Menschen mit Imitationen ihrer verstorbenen Angehörigen interagieren, mag zwar einige Herzen erwärmen, aber wir sollten uns fragen: Ist das gesund? Vor dem Video sagte Amazons Senior Vice President und führender Wissenschaftler für Alexa, dass diese Entwicklungen „dauerhafte persönliche Beziehungen ermöglichen“. Aber egal, wie viele Interaktionen oder „Gespräche“ Sie mit einer künstlichen Intelligenz haben, die einen Menschen imitiert – egal, wie „tief“ oder „tiefgründig“ oder „bewegend“ sie sein mögen – Sie befinden sich nicht in einer Beziehung. Sie leben eine Lüge. Und es ist schwer vorstellbar, dass solche Fantasien auf lange Sicht nicht viel mehr Schaden als Nutzen anrichten würden.

 

Werkzeuge für den Vater der Lüge

Wohin das alles führen könnte – und zwar sehr schnell – sollte jedem klar sein, der die Identität des „Gottes dieser Welt“ (2. Korinther 4, 4) kennt. Satan, der Teufel, hat immer noch die Herrschaft über die Menschheit inne, in der der Geist des „Nehmens“ weitaus mächtiger ist als der Geist des „Gebens“. Jesus Christus bezeichnet ihn als den Vater der Lüge, und in dieser Welt, die den Charakter des Teufels auf allen Ebenen widerspiegelt, ist Täuschung seit langem eines der beliebtesten Werkzeuge für fleischlich gesinnte Menschen, die stehlen, zerstören und manipulieren wollen. Und die künstliche Intelligenz bringt Fähigkeiten mit, die dieses Werkzeug noch verstärken.

Wie viel Chaos kann in einer Welt entstehen, in der es scheint, dass die Realität selbst im Dienste der Falschheit umgestaltet werden kann?

Falsche Anschuldigungen sind seit langem Teil der Weltpolitik. Stellen Sie sich nun die Möglichkeit vor, falsche, aber absolut glaubwürdige „Beweise“ zu schaffen, um diese Anschuldigungen zu untermauern. Stellen Sie sich zum Beispiel vor, jemand würde die Stimme eines Politikers klonen, der „versehentlich“ über ein Mikrofon aufgenommen wurde, als er seine Anhänger beleidigte oder ein Verbrechen zugab. Bei Wahlen, bei denen nur wenige Prozentpunkte ausreichen, um das Ergebnis zu bestimmen, müssen solche Videos nicht jeden überzeugen – sie müssen nur genug Menschen überzeugen, um einen Unterschied zu machen.

Ähnliche Manipulationen könnten auch in der Geopolitik eingesetzt werden. Stellen Sie sich vor, ein wichtiger Diplomat würde mit gefälschtem „Filmmaterial“ über wirtschaftliche Sanktionen oder sogar militärische Operationen gegen ein anderes Land sprechen. Was für Reaktionen könnten diejenigen hervorrufen, die versuchen, die nationale Agenda zu manipulieren?

Eine gefälschte Aufnahme eines Wissenschaftlers, der zugibt, dass medizinische Experimente gefälscht wurden, könnte das Vertrauen der Öffentlichkeit in die Ergebnisse zerstören. Ein gefälschtes Video, auf dem zu sehen ist, wie ein Premierminister heimlich Vereinbarungen bricht, die er mit anderen Abgeordneten getroffen hat, könnte gerade genug Zweifel säen, um eine entscheidende Abstimmung zu beeinflussen.

Natürlich könnten die abgebildeten Personen schreien: „Deepfake! Stimmenklonen! KI-Fälschung!“ – was sie zu Recht tun sollten, wenn sie Opfer von computergenerierten Schikanen sind. Doch auch die wirklich Schuldigen würden anfangen, solche Behauptungen aufzustellen. In dem Maße, in dem Fälle von KI-gestützter Täuschung zu erwarten oder sogar üblich werden, werden echte Täter, die z. B. bei Video- oder Audioaufnahmen ertappt wurden, lernen, dass es von Vorteil ist, zu behaupten, dass auch sie Opfer digitaler Lügen und Hightech-Tricks sind, auch wenn sie es nicht sind.

Wie werden die meisten Menschen das unterscheiden?

 

Die menschliche Neigung zur Selbsttäuschung

Da die KI immer besser in der Lage ist, das wirkliche Leben zu imitieren, können wir natürlich erwarten, dass parallel dazu auch die Zahl der KI-gestützten Tools zunimmt, die uns dabei helfen, zwischen dem Falschen und dem Wahren zu unterscheiden – KI-Anwendungen, die KI-Fälschungen erkennen können. Da Highschool-Lehrer auf der ganzen Welt befürchten, dass ihre Schüler von KI-Chatbots geschriebene Hausaufgaben einreichen, hat OpenAI mit der Entwicklung eines „KI-Klassifizierers“ begonnen, der dabei hilft, zu erkennen, ob ein Text von einem Menschen oder einer KI erstellt wurde.

Das Unternehmen gibt jedoch zu, dass das Tool (Stand 31. Januar 2023) „nicht völlig zuverlässig“ ist. Laut der Website des Unternehmens identifiziert das Tool „26 % der von KI geschriebenen Texte (echte Positivmeldungen) korrekt als 'wahrscheinlich von KI geschrieben', während von Menschen geschriebene Texte in 9 % der Fälle fälschlicherweise als von KI geschrieben eingestuft werden (falsche Positivmeldungen)“. Nicht gerade ein ermutigendes Ergebnis, obwohl man hofft, dass sich die Ergebnisse durch mehr Rückmeldungen verbessern werden.

Die größte Schwäche im Kampf gegen KI-gestützte Täuschung liegt jedoch nicht so sehr in der Macht der Technologie, sondern in unserer eigenen menschlichen Natur. Laut der Heiligen Schrift ist die trügerischste Kraft in unserem Leben nicht äußerlich, sondern innerlich – unser eigenes Herz (Jeremia 17, 9). Gott erklärte: „Trügerisch ist das Herz, …mehr als alles“ (Elberfelder Bibel), und nur mit Gottes Hilfe kann es wirklich ergründet werden (Vers 10). Unsere eigene Natur ist mehr als fähig, gegen alle Bemühungen zu arbeiten, die Wahrheit von der Lüge zu unterscheiden – sie drängt und nötigt uns dazu, bequeme Unwahrheiten gegenüber unbequemen Wahrheiten zu akzeptieren.

Sollte ein Video in den sozialen Medien auftauchen, das einen Politiker zeigt, der genau das tut, was die Wähler, die ihn verachten, von ihm erwarten, wie bereit wären sie dann, es als wahr zu akzeptieren – ohne weitere Beweise? Sollte ein Audiomitschnitt eines Kongressabgeordneten oder Präsidenten in den Nachrichten verbreitet werden, der den Anschein erweckt, dass er genau das tut, was seine Gegner ihm vorwerfen, wie schnell würden diejenigen, die gegen ihn gestimmt haben, das glauben?

Viele von uns leben bereits in einer digitalen Medienblase, die wir selbst geschaffen haben. In der Tat sind viele Menschen der größte Betrüger in ihrer eigenen Selbsttäuschung geworden. Und Gott hat prophezeit, dass dies in den letzten Tagen der Zivilisation so sein wird.

Gott beschrieb die Menschen, die in der Endzeit leben, mit den Worten: „Denn sie sind ein ungehorsames Volk und verlogene Kinder, die nicht hören wollen die Weisung des Herrn“ (Jesaja 30, 9). Er fuhr fort und beklagte, dass sie „sagen zu den Sehern: »Ihr sollt nicht sehen!«, und zu den Schauern: »Was wahr ist, sollt ihr uns nicht schauen! Redet zu uns, was angenehm ist; schaut, was täuscht!«“ (Vers 10).

Natürlich schreit fast niemand buchstäblich: „Lüge mich an!“ Aber die Herzen der Menschen in den Jahren vor der Wiederkunft Jesu Christi werden genau das wollen. Sie werden immer weniger daran interessiert sein, die Realität zu hören, und immer mehr daran, Täuschungen zu hören, die das bestätigen, was sie bereits für wahr halten. Und solche Menschen sind reif dafür, getäuscht zu werden – sie verlangen förmlich danach.

Gott sagte über unsere heutige Generation in den Worten des Propheten Jeremia: „Es steht gräulich und grässlich im Lande. Die Propheten weissagen Lüge, und die Priester lehren auf eigene Faust, und mein Volk hat’s gern so“ (Jeremia 5, 30-31).

 

Seien Sie fest in der Wahrheit verwurzelt

Unmittelbar danach erzählte Jeremia, dass Gott eine Frage stellt: „Was werdet ihr aber tun am Ende von dem allen?“ (Vers 31; Elberfelder Bibel).

Was werden Sie tun?

Nur wenige von uns haben die Zeit und die Mittel, um Experten für künstliche Intelligenz zu werden. Und unabhängig davon, ob eine Welle von KI-gestützter Täuschung im Anmarsch ist oder nicht, steuert unsere Welt auf eine Zeit der Täuschung und Falschheit zu, wie sie sie noch nie erlebt hat. Die Bibel warnt davor, dass es viele Betrüger gibt und dass noch mehr kommen werden (1. Johannes 2, 18; Matthäus 24, 24), und der Apostel Johannes berichtete von der inspirierten Einschätzung, dass die ganze Welt unter der Täuschung des Teufels steht (Offenbarung 12, 9).

Wenn ein Wirbelsturm der Täuschung mit Sicherheit kommt, besteht die wichtigste Maßnahme, die wir ergreifen können, darin, uns auf die Dinge zu stützen, die wahr und vertrauenswürdig sind, immer und unter allen Umständen – ewige Wahrheiten, die unverwundbar sind gegenüber realitätsimitierenden Illusionen.

Diese Wahrheiten sind in Jesus Christus, dem Sohn Gottes, und seinem Vater zu finden. Gottes Wort ist Wahrheit (Johannes 17, 17) und – über die reine Wahrheit hinaus – sind die Worte Christi Geist und Leben (Johannes 6, 63).

Wenn Sie Ihren Geist vor dem Ansturm der prophezeiten Täuschungen schützen wollen – seien es Lügen der traditionellen Sorte oder Lügen der künstlichen Intelligenz –, dann sollten Sie Ihr Herz darauf vorbereiten, sich von allen Täuschungen und Selbsttäuschungen zu befreien, ob Sie diese gern haben oder nicht. Und den Geist Ihres Schöpfers zu suchen, ist der weiseste erste Schritt, den Sie tun können, denn „Er ist der Fels. Seine Werke sind vollkommen; denn alle seine Wege sind recht. Treu ist Gott und kein Böses an ihm, gerecht und wahrhaftig ist er“ (5. Mose 32, 4).

 

EIN CHAT MIT CHATGPT

Im folgenden Austausch haben wir uns mit dem Chatbot von OpenAI, ChatGPT, über die Risiken von KI-Anwendungen als Täuschungsinstrumente unterhalten.

 

Welt von Morgen (WVM): Vielen Dank, dass Sie dies tun. Wie soll ich Sie ansprechen?

ChatGPT: Sie können mich als ChatGPT ansprechen.

WVM: Nochmals vielen Dank! Lassen Sie uns gleich loslegen. Wie könnte die Regierung einer Nation KI-generierte Medien gegen eine andere einsetzen?

ChatGPT: Die Regierung einer Nation könnte möglicherweise KI-generierte Medien nutzen, um falsche Informationen oder Propaganda zu verbreiten, um eine andere Nation zu diskreditieren oder zu manipulieren.

WVM: Können Sie uns ein realistisches Szenario schildern?

ChatGPT: In einem hypothetischen Szenario könnte ein Land KI-generierte Video- oder Audiomaterialien verwenden, um überzeugende gefälschte Nachrichten zu erstellen, die ein rivalisierendes Land in einem negativen Licht darstellen, und diese dann über soziale Medienkanäle verbreiten, um die Glaubwürdigkeit und das internationale Ansehen des rivalisierenden Landes zu untergraben.

WVM: Wie könnten Menschen innerhalb einer Nation durch solche Mittel gespalten werden?

ChatGPT: KI-generierte Medien können bestehende Bruchlinien und Spaltungen innerhalb einer Gesellschaft ausnutzen, indem sie bestimmte Gruppen mit gezielten Desinformationen ansprechen, die ihre bestehenden Überzeugungen oder Vorurteile verstärken, was zu einer weiteren Polarisierung und Fragmentierung innerhalb der Nation führt.

WVM: Halten Sie es für wahrscheinlich, dass KI auf diese Weise eingesetzt werden wird?

ChatGPT: Leider ist es möglich, dass KI-generierte Medien auf diese Weise eingesetzt werden, da die Technologie immer fortschrittlicher und für Regierungen und andere Akteure, die die öffentliche Meinung beeinflussen oder ihre strategischen Interessen fördern wollen, zugänglicher wird.

WVM: Möglich, ja. Aber wie wahrscheinlich ist es?

ChatGPT: Es ist schwer zu sagen, wie wahrscheinlich es ist, da es von einer Vielzahl von Faktoren abhängt, darunter die Entwicklung der KI-Technologie, die Verfügbarkeit von Ressourcen und die Motivationen und Handlungen von Regierungen und anderen Akteuren. In Anbetracht der potenziellen Folgen solcher Maßnahmen ist es jedoch wichtig, sich der Risiken bewusst zu sein und auf deren Abmilderung hinzuarbeiten.

WVM: Welche einzelne, spezifische Form von KI-generierten Medien scheint für Sie das größte Gefahrenpotenzial zu bergen?

ChatGPT: Alle Formen von KI-generierten Medien haben das Potenzial, gefährlich zu sein, wenn sie zur Verbreitung von Desinformationen oder zur Manipulation der öffentlichen Meinung eingesetzt werden. Deepfakes, bei denen KI eingesetzt wird, um realistische, aber gefälschte Bilder oder Videos zu erstellen, haben jedoch das Potenzial, besonders schädlich zu sein, da sie schwer zu erkennen sind und sich schnell über soziale Netzwerke verbreiten können.

WVM: Ja, sie richten bereits großen Schaden an.

ChatGPT: Das ist richtig. Deepfakes wurden bereits zur Verbreitung von Fehlinformationen und zur Manipulation der öffentlichen Meinung in verschiedenen Bereichen wie Politik, Unterhaltung und Werbung eingesetzt, und ihr Schadenspotenzial wird mit dem Fortschreiten der Technologie wahrscheinlich noch zunehmen.

WVM: Sind Sie auch der Meinung, dass die technologische Entwicklung schneller voranschreitet als unsere Fähigkeit, die Technik ethisch zu nutzen?

ChatGPT: In einigen Fällen hat die technologische Entwicklung unsere Fähigkeit, ethische Bedenken vorherzusehen und zu berücksichtigen, überholt, vor allem, wenn neue Technologien auftauchen und schnell von der Gesellschaft übernommen werden. Es gibt jedoch auch viele Bemühungen, eine verantwortungsvolle Entwicklung und Nutzung von Technologien zu fördern, u. a. durch Forschung, Politik und Bildung, was dazu beitragen kann, potenzielle ethische Probleme zu entschärfen.

WVM: Sollten wir die Entwicklung der generativen KI unterbrechen, bis wir moralisch darauf vorbereitet sind?

ChatGPT: Eine generelle Unterbrechung der Entwicklung generativer KI ist nicht notwendig, aber es ist wichtig, die ethischen Auswirkungen dieser Technologien zu berücksichtigen und Schritte zu unternehmen, um sicherzustellen, dass sie auf verantwortungsvolle Weise entwickelt und eingesetzt werden. Dazu könnten die Einführung von Vorschriften, die Förderung von Transparenz und Rechenschaftspflicht sowie Investitionen in Bildung und Forschung gehören, um die Fähigkeit zu entwickeln, diese Technologien auf ethische Weise zu nutzen.

WVM: So viele fallen bereits auf falsche Informationen herein. Ist es nicht eine Selbstverständlichkeit, dass KI diesen Trend noch beschleunigen wird?

ChatGPT: Die Fähigkeit der KI, überzeugendere und gezieltere Falschinformationen zu erstellen, birgt die Gefahr, dass sich der Trend, dass Menschen auf Falschinformationen hereinfallen, noch verschärft. Es ist jedoch auch möglich, dass eine stärkere Sensibilisierung für diese Themen in Verbindung mit Bemühungen zur Förderung der Medienkompetenz und der Fähigkeit zum kritischen Denken dazu beitragen kann, diesem Trend entgegenzuwirken und die Auswirkungen von Desinformationen zu verringern.

WVM: Was macht Ihnen in dieser Frage Hoffnung?

ChatGPT: Mich ermutigen die vielen Einzelpersonen, Organisationen und Regierungen, die daran arbeiten, das Problem der durch KI erzeugten Desinformation anzugehen und eine verantwortungsvolle Entwicklung und Nutzung von KI zu fördern. Es gibt auch ein wachsendes Bewusstsein für die potenziellen Risiken und die Bereitschaft, einen Dialog zu führen und Maßnahmen zu ergreifen, um diese Risiken zu mindern.

WVM: Können Sie unseren Lesern Tipps geben, wie sie KI-basierte Täuschungen vermeiden können?

ChatGPT: Um zu vermeiden, dass man auf KI-generierte Täuschungen hereinfällt, ist es wichtig, Medien, die zu schön sind, um wahr zu sein, skeptisch gegenüberzustehen und die Quelle und Richtigkeit von Informationen zu überprüfen, bevor man sie weitergibt oder darauf reagiert. Darüber hinaus kann der Aufbau von Medienkompetenz, wie z. B. die Fähigkeit, Fakten zu überprüfen und Quellen von Voreingenommenheit zu erkennen, hilfreich sein, um sich in einer zunehmend komplexen Medienlandschaft zurechtzufinden.

WVM: Großartig. Vielen Dank für Ihre Zeit, ChatGPT – oder Taktgeber, nehme ich an!

ChatGPT: Gern geschehen! Es war mir ein Vergnügen, von Ihnen interviewt zu werden.