Nadejda Komendantova ist Senior Research Scholar und Gruppenleiterin der “Cooperation and Transformative Governance Group” am “International Institute of Applied Systems Analysis” sowie Professorin am “Advanced Management Institute for Science, Technology and Applied Development Studies” in Botswana (AMISTAD).
Nach dem Merriam-Webster-Wörterbuch wird Fehlinformation gewöhnlich als ungenaue oder falsche Information bezeichnet, die absichtlich über verschiedene Kommunikationskanäle verbreitet wird. Fehlinformationen sind kein neues Phänomen. Sobald die Menschheit die Fähigkeit zur Kommunikation erlangte, tauchten Fehlinformationen auf. Die Entwicklung der digitalen Technologien hat jedoch die Verbreitung von Fehlinformationen dramatisch beeinflusst und sie fast universell gemacht. Mit der Absicht, BesucherInnen auf ihre Plattformen zu locken, kann ein einziger Tweet von mächtigen “InfluencerInnen”, der nicht auf seine Richtigkeit überprüft wurde, das Leben der Menschen auf unerwartete Weise beeinflussen.
Digitale, schnelle und scheinbar spontane soziale Medien beschleunigen die virale Verbreitung der emotionalen Äußerungen von Urängsten, Aggressionen und Verachtung. Die Anonymität derjenigen, die Inhalte teilen, und das weitgehende Fehlen von Sanktionsmechanismen ermöglichen die falsche Darstellung von Nachrichten, sogar diskriminierende Sprache und Hassreden gegen Einzelpersonen oder Gruppen.
In einem derart emotional aufgeladenen Umfeld fördern soziale Medien einen kognitiven Prozess, der in der Regel als “emotionales Denken” bezeichnet wird und bei dem die Einzelperson zu dem Schluss kommt, dass ihre emotionale Reaktion beweist, dass etwas wahr ist, auch wenn empirische Beweise dagegen sprechen. Dieser vom Psychiater Aaron Beck erstmals beschriebene Prozess schafft eine “emotionale Wahrheit”, die in direktem Widerspruch zu faktenbasierten Informationen stehen kann. Dieser kognitive Prozess erklärt, warum die sozialen Medien ein Umfeld darstellen, das besonders anfällig für Fehlinformationen ist und Vorurteile fördert, die zu Diskriminierung und Intoleranz gegenüber abweichenden Standpunkten und ungerechter Behandlung bestimmter sozialer Gruppen führen.
Migration ist häufig Gegenstand von Fehlinformationen. Die Einstellung gegenüber MigrantInnen wird durch Meinungen und Wahrnehmungen beeinflusst, die wiederum von den sozialen Medien beeinflusst werden. Die Wahrnehmungen gegenüber MigrantInnen sind subjektive Konstrukte, die nicht nur auf Faktoren wie Sozialisation, Erfahrung, Bewusstsein, Bildung und moralische Normen, sondern auch auf Informationen reagieren. Während die traditionellen Medien denjenigen, die Informationen konsumieren, nach wie vor eine überwiegend passive Erfahrung bieten, lösen Inhalte in den sozialen Medien Reaktionen in einem Umfeld aus, in dem jeder das diskutierte Thema kommentieren und seine Meinung dazu äußern kann, wodurch ein ganzer Strom von Gefühlen entsteht. Über einfache Likes hinaus formen diese Gefühle die “emotionale Wahrheit”, die eine äußerst wichtige Rolle bei der Bildung von Vorurteilen und Missverständnissen spielt, da sie den Grund liefern, um Lücken in den verfügbaren Informationen zu füllen oder die fehlende persönliche Erfahrung zu ersetzen. Dies erklärt, warum MigrantInnen, insbesondere diejenigen, die aus Ländern mit fremden Kulturen stammen, aufgrund ihres Aussehens, ihrer Kleidung oder ihrer Kommunikationsform mit mehr Vorurteilen konfrontiert werden.
Die Entwicklung digitaler Tools, die sich mit Fehlinformationen in sozialen Medien befassen, könnte ein möglicher Ansatz sein, um die Verbreitung von Fehlinformationen anzugehen und ihr entgegenzuwirken. Nach neuen Forschungsergebnissen, die das Internationale Institut für Angewandte Systemanalyse (IIASA) im Rahmen der von der Europäischen Kommission finanzierten Projekte CORE und Co-Inform durchgeführt hat, können digitale Werkzeuge, die in geeigneter Weise entwickelt werden, das kritische Denken anregen und die Aufmerksamkeit auf fehlinformierende Inhalte lenken, ohne das Internet zu zensieren.
Im Rahmen des Projekts wurden digitale Tools wie ein Browser-Plugin, ein Dashboard zur Überprüfung von Fakten und ein Twitter-Kanal getestet, um das kritische Denken und den Wunsch der NutzerInnen sozialer Medien zu fördern, nach weiteren Informationen zu suchen. Diese Tools bieten Möglichkeiten, Fehlinformationen zu entlarven und gleichzeitig die Tatsache hervorzuheben, dass die Informationen von einer Quelle stammen könnten, die bereits den Ruf hat, Fehlinformationen zu verbreiten. Das Ziel der Tools ist es, den Kreislauf der intuitiven Reaktion auf der Grundlage persönlicher Wahrnehmungen oder emotionaler Rückmeldungen zu durchbrechen. Sie ermutigen die InternetnutzerInnen, kritisch zu denken und nach weiteren Informationen zu einem Thema oder einer Nachricht zu suchen, anstatt ihrem unmittelbaren Instinkt zu folgen und den potenziell fehlinformierenden Inhalt weiter zu verbreiten.
Das Internet hat die Informationswelt auf unvorhersehbare Weise beeinflusst und wirft das Dilemma auf, ein Gleichgewicht zwischen dem Recht auf freie Meinungsäußerung und der Notwendigkeit zu finden, Fehlinformationen und deren schädliche Auswirkungen auf Einzelpersonen und Gesellschaften zu verhindern. Es ist besonders wichtig, politische und operative Maßnahmen zu entwickeln, um die Widerstandsfähigkeit der NutzerInnen und VerbraucherInnen gegenüber Fehlinformationen zu erhöhen. Künstliche Intelligenz kann praktikable Werkzeuge bieten, die es wert sind, weiter erforscht zu werden, während gleichzeitig die Offline- und Online-Anstrengungen verdoppelt werden, um die Aufmerksamkeit für Quellen von Texten, Bildern und Videos zu erneuern und zu mobilisieren. Keine leichte Aufgabe in Zeiten von Chat GPT und der Flut von Software zur Erstellung von KI-Inhalten, die in letzter Zeit in den Online-Bereich eingedrungen ist.