„Rechtsextreme können Internetkultur“

Diskussion zum Kampf gegen rechts in Zeiten von Deep Fakes und Social Bots
Auf einer Bühne sitzen vier Menschen im Podium - im Hintergrund ist die Aufschrift zu sehen: Panel: Marike Mehlmann-Trip; Jan Rathje,; Johanna Maj Schmidt sowie der Titel der Veranstaltung: „KI versus Demokratie? Der Kampf gegen rechts in Zeiten von Deep Fakes, Social Bots und Fake News“

Wird rechtsextreme Propaganda wirksamer, wenn sie von Künstlicher Intelligenz unterstützt wird? Und wie kann KI den Kampf gegen rechts unterstützen? Darüber diskutierten am 14. November Expert*innen in Berlin. „KI versus Demokratie? Der Kampf gegen rechts in Zeiten von Deep Fakes, Social Bots und Fake News“ hieß die Veranstaltung im Rahmen der KompRex-Salonreihe. Auf Einladung von Gesicht Zeigen! tauschten Marike Mehlmann-Trip (Cluster Lead Social Engagement, Group Corporate Responsibility, Telekom), Jan Rathje (Senior Researcher, CeMAS) und Johanna Maj Schmidt (Assoziierte Wissenschaftlerin, Else-Frenkel-Brunswik-Institut für Demokratieforschung) ihre unterschiedlichen Perspektiven und Erfahrungen aus und beantworteten Fragen der Teilnehmer*innen. Moderiert wurde der Salon vom Journalisten und Autoren Sebastian Friedrich.

Chancen und Risiken Künstlicher Intelligenz für Schutz der Demokratie

Als roter Faden zog sich die Frage nach den Chancen und Risiken von Künstlicher Intelligenz für die Rechtsextremismusprävention und den Schutz der Demokratie durch den Abend. Eine Blitzabfrage zu Beginn der Veranstaltung zeigte, dass eine Mehrheit im Publikum mehr Risiken als Chancen in der Technologie sieht. Gut illustriert wurden diese Risiken mit einem aktuellen Beispiel, das zu dem Zeitpunkt im Netz und in den Sozialen Medien kursierte: Eine mit KI erstellte Tonaufnahme, in der es so klingt, als würde sich ein bekannter Tagesschau-Sprecher für die Corona-Berichterstattung der ARD entschuldigen und rechtsextreme Talking Points zur Pandemie wiederholen.

Wie gefährlich solche sogenannten Deepfakes sind, auch wenn sie zurzeit noch ganz gut als Fälschungen zu enttarnen sind, zeigt der Kommentar des leitenden Redakteurs für Sicherheitspolitik und Konflikte bei BILD, Julian Röpcke, auf X. Der Journalist verlangte unter dem Audio-Deepfake und der dazugehörigen Warnung, dass es sich hierbei um eine Fälschung handelt, über den Inhalt zu diskutieren. Es handele sich bei der Aussage an sich um eine Wahrheit, die ausgesprochen werden müsse, so Röpcke. Das rechtsextreme Narrativ der „lügenden Staatspresse“, die die „Corona-Verbrechen“ der Regierung stützte, wird also mithilfe von KI in die Welt gesetzt, es wird suggeriert, dass selbst der öffentlich-rechtliche Rundfunk „aufgewacht“ sei. Und dann wird es von realen Personen im Diskurs verankert.

Darüber hinaus wurden auf dem Podium viele weitere Risiken von KI diskutiert. KI ist für Rechtsextreme vor allem interessant, weil sie ermöglicht, schnell und günstig große Mengen Propagandamittel zu erzeugen. Und diese dann über Soziale Medien genau zu denen zu bringen, die besonders anfällig für rechtsextreme Narrative sind.

Johanna Maj Schmidt bringt es auf den Punkt:

„Rechtsextreme treffen online den richtigen Ton. Sie können Internetkultur.“

Dazu kommen strukturelle Bedingungen im Kapitalismus. Es ist im Interesse von den gewinnorientierten Plattformen, die Nutzer*innen möglichst lange zu halten. Und da Inhalte, die negative Emotionen auslösen, User*innen länger auf den Plattformen beschäftigen, werden sie von den Betreiber*innen im Algorithmus bevorzugt.

Deutlich wurde auch, dass wir eine neue Qualität und Quantität von KI-generierten Bildern und Texten erleben. Abbildungen sind mittlerweile sehr exakt in ihrer Nachahmung von Menschen. Mit KI können passgenaue Feindbilder kreiert werden, die sich hervorragend eignen, um Leute zu beeinflussen und in ihrer Weltsicht umso leichter zu bestätigen. Außerdem brauchen User*innen immer weniger Fähigkeiten, um selbst KI nutzen zu können. Zwar können wir heute noch relativ einfach durch KI-generierte Bilder erkennen, z.B. an anhand von nicht ganz akkuraten Händen oder Ohren der dargestellten Menschen. Doch auch das wird sich mit der Zeit ändern.

Um die Risiken richtig abschätzen zu können, müssen wir uns als Gesellschaft auch bewusst machen, welche Datensätze KI nutzt. Schließlich arbeitet KI mit allen Informationen im Netz, auch den schon existierenden Fake News. KI-generierten Texten sollte man deshalb nicht blind vertrauen.

Jan Rathje räumt mit einer verbreiteten Annahme über die Potenziale von KI auf:

„Die Bots werden uns nicht retten, Technik wird uns nicht retten vor all den sozialen Problemen, die wir haben.“

Doch KI bietet auch Chancen: In der Rechtsextremismusforschung kann sie beispielsweise bei der Auswertung von Telegram-Kanälen unterstützen und so einen wichtigen Beitrag zur Analyse von Dynamiken und Gefahren der rechtsextremen Szene leisten. Die Menge an Daten ist Menschen nicht mehr bearbeitbar. Auch bei Recherche- und Monitoring-Arbeit in der Rechtsextremismusprävention bietet KI wertvolle Hilfe und Zeitersparnisse. Sie kann bei Förderanträgen unterstützen und beim wichtigen Prebunking helfen, also Menschen präventiv über die Mechanismen von Desinformation aufzuklären. Das heißt, die mühsamen und immer gleichen Fake News und Verschwörungsideologien zu enttarnen, müssen nicht immer Praktiker*innen der Präventionsarbeit leisten. Auch ChatGPT kann erklären, warum an der Reichsbürgererzählung von der „BRD GmbH“ nichts dran ist.

Für Marike Mehlmann-Tripp überwiegen die Chancen:

„Wir von der Telekom sind digitale Optimisten und sehen das Potenzial in KI, die Gesellschaft besser zu machen.“

Natürlich braucht es dafür Werte, eine digitale Ethik und möglicherweise auch weitreichendere Regulierungen in unserer Demokratie. Politik, Tech-Industrie und alle Nutzer*innen sind in der Verantwortung, die Risiken zu minimieren. Dann kann KI zum Beispiel bei der Entfernung von gewaltvollen Inhalten in den Sozialen Medien helfen. Bisher wird diese traumatisierende Arbeit vor allem an Menschen in Südostasien im Niedriglohnsektor ausgelagert.

Zum Schluss lenkte Moderator Sebastian Friedrich die Diskussion noch einmal auf die wichtige Frage, wie wir Kommunikation und Internet demokratisieren können. Soziale Medien sind, unabhängig von KI, unabdingbar für unsere Öffentlichkeit, Beziehungen und Meinungsbildung geworden. Ein demokratisches Internet ist der beste Schutz gegen rechtsextreme Einflussnahme, an dem Punkt waren sich die Gäste einig. Dass es dahin noch ein weiter Weg ist, zeigte auch die zweite Publikumsbefragung am Ende: Noch mehr Zuschauer*innen als zu Beginn sahen mehr Risiken als Chancen in Künstlicher Intelligenz.