Mit Forschung gegen Fake News
Bundesforschungsministerin Bettina Stark-Watzinger (FDP) sieht in gezielten Falschnachrichten eine zunehmende Gefahr für die Demokratie. Deshalb fördert das Ministerium jetzt zehn Forschungsprojekte, um Gegenmaßnahmen zu entwickeln.

Die Zahl bewusst verbreiteter Falschmeldungen im Internet und den Sozialen Medien nimmt seit Jahren zu. Häufig ist das Motiv, Angst und Verunsicherung zu schüren oder das Vertrauen in die Politik und demokratische Institutionen zu erschüttern. In der Corona-Pandemie hat das Tempo, in dem Falschnachrichten verbreitet werden, noch einmal stark zugenommen. Zugleich verschwimmen nach Ansicht vieler Experten in zunehmendem Maße die Grenzen zwischen Fake News, Cybermobbing, Hassbotschaften, Desinformations- und Mobilisierungskampagnen.
Bedrohliche „Nebenwirkungen”
Das Bundesforschungsministerium sieht in Fake News eine zunehmende Gefahr für die Demokratie und den gesellschaftlichen Zusammenhalt. Deshalb fördert das Ministerium im Rahmen des Programms „„Erkennen und Bekämpfung von digitalen Desinformationskampagnen“ zehn neue Projekte, in denen Wissenschaftlerinnen und Wissenschaftler Falschnachrichten und andere Formen der Desinformation erforschen, um Gegenmaßnahmen zu entwickeln. Ministerin Bettina Stark-Watzinger (FDP) sagte am Dienstag auf einer Pressekonferenz zur Vorstellung des Förderprogramms: Das Internet sei zwar Treiber von Innovationen, aber es gebe eben auch bedrohliche „Nebenwirkungen”. Es müsse darum gehen, so Stark-Watzinger: Desinformation erkennen, verstehen, vorbeugen und bekämpfen.” Gezielte Forschung könne helfen, den Wettlauf gegen die Desinformation zu gewinnen. Auf drei Jahre verteilt investiert der Bund 15 Millionen Euro in die zehn neuen, interdisziplinären Forschungsvorhaben. Die Projekte werden im Forschungsrahmenprogramm der Bundesregierung zur IT-Sicherheit („Digital. Sicher. Souverän.”) unterstützt.
Herstellerdatum auf Impfstoffverpackung manipuliert
Fake News werden heute immer professioneller verbreitet. Ihr Inhalt reiche von harmlosen Scherzen bis hin zu Informationen, die Menschenleben gefährden können – etwa im Zusammenhang mit dem Coronavirus. Oft werden auch Fotos gefälscht und dann im Netz und speziell auf Messengerdiensten geteilt. So kursiert beispielsweise das Foto einer Impfstoffverpackung mit einem manipulierten Herstellerdatum auf dem Etikett. Das Datum haben die Fälscher in eine Zeit vor Beginn der Pandemie verlegt - um so den Eindruck zu erwecken, die Pandemie sei eine Verschwörung. Viele Fälschungen sind zwar bei genauem Hinschauen als solche zu entlarven. Doch Fake News funktionieren oft nach dem Prinzip: Irgendetwas bleibt halt immer hängen.
Ausschau halten nach wiederkehrenden Mustern
Eines der zehn vom Bundesbildungsministerium geförderten Projekte heißt „Dynamo”. Es soll „hochdynamische Verbreitungsformen von Desinformation verstehen, erkennen und bekämpfen". Forschende untersuchen hier, wie sich Desinformationen in Messengerdiensten ausbreiten und wie diese in andere soziale Medien „überschwappen“. Zudem analysieren die Wissenschaftler, inwiefern wiederkehrende Muster bestehen, aus denen sich Bekämpfungsstrategien ableiten lassen. Ebenso soll erforscht werden, welche Muster hinter Desinformationskampagnen stecken und welchen Einfluss emotionale Inhalte bei der Verbreitung haben. Ziel ist es, Instrumente zu entwickeln, die der Verbreitung von Desinformation entgegenwirken.
Simulationen helfen Ämtern und Organisationen
Ein anderes Projekt namens „Prevent” will Trainingsansätze bieten zur Prävention digitaler Desinformationskampagnen. Die Forscher wollen Ämter, Behörden und Organisationen befähigen, vorsätzlichen Manipulationen des Meinungsbildes entgegenzuwirken. Dazu entwickeln sie ein Trainingstool, das zum einen die Entstehung und gezielte Verbreitung von Desinformationen simuliert und zum anderen die Wirkung der zu entwickelnden Gegenmaßnahmen erhebt. Die Simulationen erfolgen anhand realistischer Szenarien, wie der Corona-Pandemie.
Ausgangslage für das Prevent-Team ist die Annahme, dass insbesondere in Krisensituationen die Bevölkerung verlässliche Informationen benötigt, um die Lage einzuschätzen und angemessen handeln zu können. Soziale Medien würden dabei häufig als schnelle Informationsquelle genutzt. Durch die koordinierte Verbreitung von irreführenden Informationen – häufig unter Einsatz von sozialen Bots – seien Akteure in der Lage, das Meinungsbild in den sozialen Medien zu verzerren. Dies könne dazu führen, dass die Bevölkerung das Vertrauen in die Kommunikation von Ämtern, Behörden und Organisationen mit Sicherheitsaufgaben sowie in die Medien verliere und empfohlene Schutzmaßnahmen nicht umsetze.
Echtzeiterkennung von Desinformationskampagnen
Ein drittes Projekt-Beispiel heißt „HybriD – Echtzeiterkennung von Desinformationskampagnen in Online-Medien". Entwickelt wird ein software-basiertes Analysewerkzeug, das Experten helfen soll, Desinformationskampagnen besser einzuschätzen. Die Forschenden kombinieren dabei die maschinelle Analyse mit menschlicher Expertise, um Desinformationskampagnen zu erkennen. Das Analysewerkzeug soll es ermöglichen, große Datenmengen aus Onlinemedien und sozialen Netzwerken in Echtzeit auszuwerten und zeitliche Muster zu erfassen. Begleitend wird ein ethisch-rechtlicher Rahmen erarbeitet, der die „verantwortungsvolle und legale Umsetzung aller Maßnahmen” sicherstellen soll.


Stimme.de