Tasten einer beleuchteten Tastatur.
Kontext

Künstliche Intelligenz Die rettende Lösung gegen Desinformation?

Stand: 06.03.2023 10:51 Uhr

Klimawandel, Corona und der Krieg in der Ukraine - die Menge an Desinformation nimmt mit jeder Krise zu. Künstliche Intelligenz könnte eine Lösung sein, um damit umzugehen. Doch sie hat einen entscheidenden Knackpunkt.

Von Marleen Wiegmann, tagesschau.de

Seit mehr als einem Jahr führt Russland einen Angriffskrieg in der Ukraine. Die Menge an Desinformation darüber in den Sozialen Netzwerken ist massiv. Sie werden über Influencer, Bots oder Fake-Accounts verbreitet. Täglich posten Milliarden von Usern Inhalte auf Social Media-Plattformen wie Twitter, Instagram, Facebook und TikTok und verbreiten dabei auch immer wieder falsche Informationen. Um Desinformation handelt es sich jedoch erst dann, wenn falsche Informationen gezielt angebracht werden, also eine Intention hinter der Verbreitung steckt.

Desinformation auf Social-Media-Plattformen zu finden, ist daher wie die Nadel im Heuhaufen zu suchen - eine nicht endende Aufgabe. Künstliche Intelligenz könnte hier helfen. Aber wohin führt das?

Künstliche Intelligenz, das ist laut Andreas Dengel, dem Geschäftsführenden Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), die Simulation von intelligentem Verhalten. "Es geht letztlich darum, eine Maschine in die Lage zu versetzen, Dinge zu tun, für die der Mensch normalerweise Intelligenz braucht."

Untersuchung von Netzwerk oder Inhalt

Damit KI Desinformation erkennen kann, wird sie mit Datensätzen trainiert. Die Datensätze werden von Menschen angelegt und mit ihnen lernt die KI, was als Desinformation gilt und was nicht.

Desinformation lässt sich anhand von unterschiedlichen Merkmalen erkennen. "Auf der einen Seite geht es darum, KI zu entwickeln, die in der Lage ist, Stimmungen, also Emotionen bis hin zu Meinungsäußerungen zu erkennen", so Dengel vom DFKI. KI analysiert dafür Inhalte, also Texte, Videos oder Bilder. Besonders schwierig sind dabei Querverweise. Bild und Text können zusammen eine ganz neue Bedeutung bekommen. 

Auf der anderen Seite können auch Netzwerkstrukturen einen Hinweis auf Desinformation liefern. Alexander Schindler ist leitender Forscher am Austrian Institute of Technology (AIT): "Es gibt verräterische Kommunikationsmuster, zum Beispiel von Fake-News-Bots, also automatisierte Accounts in Sozialen Netzwerken, die Desinformation oder Propaganda streuen." KI kann also auch die Knotenpunkte zwischen User-Accounts analysieren oder auch die Reaktionen auf einen Post. Mit einer Resonanzanalyse wird gezeigt, ob User auf Inhalte neutral reagieren, sie kritisieren oder bestätigen.

KI nur so stark wie das Konzept

Desinformation an sich ist jedoch ein schwaches Konzept. Das heißt: "Desinformation ist kaum definierbar", so Schindler. "Die Definition ist von so vielen Faktoren abhängig, zum Beispiel politischen oder religiösen Ansichten, dass eine einheitliche oder standardisierte Kennzeichnung kaum möglich ist."

Aktuelle Forschungsprojekte zu Künstlicher Intelligenz im deutschsprachigen Raum arbeiten deshalb eher daran, die Arbeit von Menschen zu unterstützen. Eine Idee des AIT ist beispielsweise, Inhalten eine Nährwerttabelle zu geben - ähnlich wie das auch bei Lebensmitteln passiert. Auch das Recherchezentrum Correctiv arbeitet in Zusammenarbeit mit der Ruhr-Universität Bochum und der Technischen Universität Dortmund an einem Projekt, in dem KI Teilnehmende bei der Einordnung von Informationen unterstützen soll. 

Plattformen arbeiten mit einem Mix aus Maßnahmen

"Die Social-Media-Plattformen arbeiten mit einem Mix aus verschiedenen Technologien", so Dengel vom DFKI. "Das ist auch von Plattform zu Plattform unterschiedlich. Vor allem wird aber auch viel experimentiert." Meta, Twitter oder TikTok haben ein großes Interesse daran, mit der Entwicklung von KI weiterzukommen - unter anderem ließen sich mit deren Einsatz auch zahlreiche Stellen sparen.

Wenn es auf Social-Media-Plattformen jedoch KI gibt, die Desinformation aufspürt, ohne dass ein Mensch die Entscheidung noch einmal überprüft, müssten die Methoden schon sehr genau sein. "Und das lässt sich wahrscheinlich nur erreichen, wenn man den Wirkungsbereich stark einschränkt", sagt Schindler vom AIT. Das heißt, Desinformation würde dann vor allem erkannt, wenn es sich um eindeutige Fälle handelt. Subtilere Fälle würden durchrutschen. Ob und wie diese Technologie eingesetzt wird, ist von außen aber undurchsichtig. 

Damit Social-Media-Plattformen in Zukunft mehr Informationen veröffentlichen müssen und damit transparenter werden, hat die EU das Gesetz über digitale Dienste beschlossen. Der Erlass enthält zahlreiche Neuerungen. Ab Februar 2024 müssen Plattformen beispielsweise User darüber informieren, warum sie ihre Inhalte gesperrt oder gelöscht haben. Wenn sich die Plattform-Betreiber an diese Vorgaben nicht halten, drohen Strafzahlungen. 

Definition von Desinformation essentiell

Doch schon bei diesem Teil könnte es Schwierigkeiten geben. "Das System klassifiziert etwas als Desinformation, aber es kann nicht erklären, warum", so Dengel, Geschäftsführer vom DFKI. "Vielleicht waren die Daten, mit denen die KI trainiert wurde, verzerrt oder unvollständig oder die Beispiele nicht ausbalanciert. Systeme, die ihre Entscheidung erklären beziehungsweise rechtfertigen, werden zurzeit intensiv erforscht."

Das könnte jedoch ein großes Problem für die Zukunft von KI gegen Desinformation sein. Denn Inhalte können nicht einfach gelöscht oder in ihrer Sichtbarkeit eingeschränkt werden - vor allem nicht ohne weitere Begründung.

An Künstlicher Intelligenz führt laut Experten letztlich jedoch kein Weg vorbei. Doch: "Dass man davon ausgeht, dass KI die Rettung ist - das ist einfach falsch", sagt Schindler vom AIT. Schließlich ist KI bei der Erkennung von Desinformation nur so gut, wie die Richtlinien, die sie erhalten. Die wichtigste Arbeit, nämlich die Definition von Desinformation, können sie den Entwicklern nicht abnehmen. 

Dieses Thema im Programm: Über dieses Thema berichtete die „Münchener Runde“ am 24. Januar 2023 um 20:15 Uhr im BR Fernsehen.