Forschung gegen Desinformation im Internet

In der Corona-Pandemie häufen sich Verschwörungstheorien, Falschmeldungen, ungenaue und irreführende Informationen. Das Bundesministerium für Bildung und Forschung (BMBF) treibt die Forschung gegen die Verbreitung von Desinformation voran: An zahlreichen Einrichtungen in Deutschland untersuchen Forschende das Phänomen und entwickeln Gegenstrategien.

Mobiltelefon mit Fake News
Ob Corona-Pandemie, Klimawandel oder Wahlkampf: Digitale Desinformation ist zu einer großen Herausforderung geworden. © georgejmclittle/AdobeStock, metamorworks/AdobeStock

Gerade in der gegenwärtigen Coronakrise kursieren im Internet viele Informationen und Schlagzeilen, die darauf abzielen, Menschen zu beeinflussen. Auch Verschwörungstheorien verbreiten sich zunehmend. Desinformation im Internet betrifft dabei alle Kanäle, die Bürgerinnen und Bürger nutzen, um sich online zu informieren und eine Meinung zu bilden: von Messenger-Diensten über soziale Netzwerke und Videoplattformen bis hin zu Blogs oder Nachrichtenseiten. Die manipulierten Informationen erwecken den Eindruck, dass es sich um echte, belegbare Nachrichten handelt. So werden Lügen und Propaganda gezielt verbreitet und durch Klicks Geld verdient. Durch die einfachen Weiterleitungsmöglichkeiten können Desinformationen zudem sehr schnell eine Vielzahl von Menschen erreichen. In der Folge sind viele Menschen zunehmend verunsichert: Welche Nachricht ist wahr? Was sind vertrauenswürdige Quellen?

Kurz erklärt: Was versteht die Forschung unter Desinformation? 

kreutzer_michael.jpg
© Fraunhofer SIT

Dr. Michael Kreutzer, Koordinator des vom BMBF geförderten Projektes „DORIAN – Desinformation im Internet aufdecken und bekämpfen“:

„Desinformationen sind Meldungen, die in irreführender oder manipulativer Absicht verbreitet werden und die einer Faktenüberprüfung nicht standhalten. Die nachweislich unredliche Absicht unterscheidet sie von Falschinformationen, die meist durch Recherchefehler oder durch Eile entstehen. Der Begriff Fake News wiederum hat ein großes Bedeutungsspektrum in den Medien. So gibt es manche Personen, die bestimmte Nachrichten als Fake News bezeichnen, aus einem einfachen Grund: Ihnen passen die Meldungen nicht. Falls diese Meldungen jedoch auf Fakten beruhen und nach journalistischen Standards dargeboten werden, sind sie keine Desinformation.“

 Wie umgehen mit der Infodemie während der Pandemie?

Die Weltgesundheitsorganisation WHO spricht angesichts der massiven Informationsflut zu Covid-19 von einer „Infodemie“ mit vielen Mythen, fährt dagegen eine „Mythbusting“-Kampagne und arbeitet gemeinsam mit Diensteanbietern wie Facebook an Lösungen.

Große Social-Media-Plattformen ergreifen mittlerweile auch eigene Gegenmaßnahmen: Sie überprüfen und markieren Falschmeldungen, die auf ihren Plattformen verbreitet werden. Facebook arbeitet dabei weltweit mit rund 50 externen Organisationen – sogenannten „Fact Checkern“ – zusammen, die Inhalte in mehr als 25 Sprachen hinsichtlich ihres Wahrheitsgehalts überprüfen. Zu den Teams gehören Nachrichtenagenturen, Medienunternehmen und gemeinnützige Organisationen. Hier zeigt sich: Das Problem der Desinformation im Netz geht weit über die Corona-Pandemie hinaus und ist von großer gesellschaftlicher Tragweite – insbesondere, wenn es um politische Meinungsbildung geht, etwa in Wahlkampfzeiten wie im laufenden Jahr in den USA. Argumente, die gestreut werden, stützen sich dabei nicht immer auf Fakten. Häufig werden zur Propaganda nicht belegte oder sogar widerlegte Dinge behauptet. Auch die Europäische Union geht gegen Online-Desinformation in der Covid19-Krise vor und sucht Unterstützung in der IKT-Branche, um den Kampf gegen sie die Desinformation zu verstärken. So sollen etwa Monatsberichte von den großen sozialen Plattformen wie Google, Facebook und Twitter helfen, mehr Details über falsche und irreführende Informationen  zum Coronavirus auf ihren Plattformen zu erfahren. Dazu gehören der Ursprung des Materials und das Zielpublikum.

Während das Problem im öffentlichen Bewusstsein angekommen ist, lässt sich die Herkunft der Desinformation selten eindeutig nachvollziehen. Über unterschiedliche Wege und Methoden können falsche und irreführende Informationen erzeugt und verbreitet werden: Eine Möglichkeit, Desinformationen automatisiert zu produzieren und massenhaft zu streuen, sind beispielsweise eigens kreierte Computerprogramme, sogenannte Malicious Social Bots.

Forschungszentren für IT-Sicherheit: Fake News und Apps im Fokus der Coronakrise

Die Mechanismen hinter der Erzeugung und Verbreitung von Desinformation zu erforschen, ist ein wichtiger Schwerpunkt der vom BMBF geförderten Forschung. Das Ziel: Lösungen für eine vertrauenswürdigere digitale Welt entwickeln. Das BMBF fördert mit ATHENE in Darmstadt, CISPA in Saarbrücken und KASTEL in Karlsruhe drei Zentren für IT-Sicherheitsforschung. Ein wichtiger Anspruch dieser Forschungszentren ist es, aktuelle, gesellschaftlich relevante Themen aufzugreifen. Am Nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE forscht Professor Christian Reuter mit seinem Team zu „Digitaler Selbstorganisation und Fake News in sozialen Medien“ sowie zu Apps in der Coronakrise. Er untersucht dabei unter anderem die Bedeutung von Social Media bei der Verbreitung von Informationen und wie man Falschnachrichten – auch technisch − erkennt.

 

Prof. Dr. Christian Reuter leitet den Lehrstuhl Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) im Fachbereich Informatik an der TU Darmstadt. Im Rahmen des LOEWE-Zentrums emergenCITY sowie der Mission „Secure Urban Infrastructures“ (SecUrban) des Nationalen Forschungszentrums für angewandte Cybersicherheit ATHENE forscht er zu Fake News in sozialen Medien.

Deepfakes – Eine Schattenseite der Künstlichen Intelligenz

Einhergehend mit der Fortentwicklung moderner Medien wird mit immer neuen Methoden und Werkzeugen versucht, diese zu manipulieren. So ist Künstliche Intelligenz (KI) nicht nur Heilmittel, um Desinformation im Internet zu erkennen und ihr entgegenzuwirken. Mit ihr droht gleichzeitig eine Verschärfung des Problems. Denn durch Techniken der KI können auch Bild-, Audio- und Videomaterial täuschend echt gefälscht werden − etwa durch so genannte Deepfakes. Diese Fälschungen von Videodateien werden mithilfe von Methoden des maschinellen Lernens, genauer künstlichen neuronalen Netzwerken, weitgehend autonom erzeugt. Programme, die auf derartigen Deep-Learning-Technologien basieren, sind im Internet immer leichter verfügbar.

Thilo Hagendorff
Dr. Thilo Hagendorff, Eberhard Karls Universität Tübingen, © Thilo Hagendorff 

Im interdisziplinären Forschungsverbund Forum Privatheit und am Internationalen Zentrum für Ethik in den Wissenschaften Tübingen untersucht Dr. Thilo Hagendorff solche Entwicklungen. Er sagt: „Wir erleben eine Demokratisierung von KI-Tools und Datensätzen, sodass Anwendungen zunehmend von geringer qualifizierten Nutzern eingesetzt werden können.“ Mittlerweile gebe es für die gesamte Bandbreite an Desinformation passende, größtenteils frei verfügbare Tools: Textgeneratoren zur automatisierten Erstellung von Falschnachrichten, Webplattformen zur Erzeugung gefälschter Video- und Audiodateien oder Onlineangebote, die in Sekundenschnelle nahezu fotorealistisch aussehende Gesichtsabbildungen erzeugen – zum Beispiel um Fake-Profile auf Social-Media-Plattformen zu betreiben.

 „Desinformation gefährdet die demokratische Willensbildung“

 Alexander Roßnagel
Prof. Alexander Roßnagel ist Hauptautor des Impulspapiers „Gefährdung demokratischer Willensbildung durch Desinformation“. © Universität Kassel

Auch den Nationalen Cyber-Sicherheitsrat (Cyber-SR) beschäftigt das Thema Desinformation. Der Cyber-SR fungiert als strategischer Ratgeber der Bundesregierung. Seit Oktober 2018 wird das Gremium von einer ständigen Wissenschaftlichen Arbeitsgruppe unterstützt. Die Expertinnen und Experten beraten den Cyber-SR aus Perspektive der Forschung zu Entwicklungen und Herausforderungen im Hinblick auf eine sichere, vertrauenswürdige und nachhaltige Digitalisierung. Ende 2019 hat die Gruppe das Papier „Gefährdung demokratischer Willensbildung durch Desinformation“ veröffentlicht. Die Quintessenz: Gezielte Desinformation gefährdet zunehmend die demokratische Willensbildung und bedarf daher gesteigerter Aufmerksamkeit und gezielter Gegenmaßnahmen. Der Jurist Professor Alexander Roßnagel ist Sprecher des Forschungsverbundes Forum Privatheit, Mitglied der Wissenschaftlichen Arbeitsgruppe des Cyber-SR und Hauptautor des Impulspapiers. Er sagt: „Zu erforschen ist, wie Desinformation, Deepfakes, Malicious Social Bots und ihre Verbreitungswege erkannt, gekennzeichnet, gesperrt und gelöscht werden können. Zu untersuchen sind Charakteristika von Desinformation und ihre Wirkungen auf Einzelne und die Gesellschaft sowie politische und rechtliche Gegenmaßnahmen, die eine wirksame Bekämpfung bewirken, ohne Meinungsfreiheit zu behindern.“ Um für die Zukunft gewappnet zu sein, seien beispielsweise technische und interdisziplinäre Forschungsprojekte besonders wichtig, die die Erkenntnisse verschiedener Disziplinen zusammenbringen, um gesamthaft wirksame und umsetzbare Lösungen zu entwickeln, so die Forschenden in ihrem Papier.

Disziplinübergreifende Forschungsprojekte gegen Desinformation

Ein ebensolches interdisziplinäres Projekt ist aus dem Forschungsverbund Forum Privatheit hervorgegangen: DORIAN – Desinformation im Internet aufdecken und bekämpfen. Um den Mechanismen der Verbreitung digitaler Desinformation auf den Grund zu gehen, haben die Projektpartner aus Informatik, Medienpsychologie, Technik-, Rechts- und Kommunikationswissenschaften das Phänomen in enger Zusammenarbeit analysiert und interdisziplinäre Ansätze gegen Desinformationskampagnen und für Meinungspluralität entwickelt. Um Nutzen für die Praxis zu liefern, haben die Forschenden konkrete Empfehlungen entworfen: für die Weiterentwicklung der Rechtsordnung, der Mediendidaktik und der journalistischen Recherchemöglichkeiten. Zudem haben die Wissenschaftlerinnen und Wissenschaftler Konzepte ausgearbeitet, um es Bürgerinnen und Bürgern zu erleichtern, Falschnachrichten zu erkennen. Zur Betrachtung gehörte auch, dass Desinformation  im Internet oftmals mit falschen, aus einem anderen Kontext stammenden oder manipulierten Bildern versehen werden. Auch technisch hat das Projekt die Desinformationsforschung vorangebracht: Mit maschinellem Lernen konnten die Wissenschaftler von DORIAN zum Beispiel Eigenschaften von Malicious Social Bots erkennen und mit derselben Methode Webinhalte vollautomatisch kategorisieren. Die Forschenden entwickelten auch erste Strategien, um Deepfakes zu entlarven. In der Open-Access-Publikation „Desinformationen aufdecken und bekämpfen“ sind die Forschungsergebnisse erschienen.

PropStop.jpg
Ziel des Projektes PropStop: verdeckte Propagandaangriffe über Online-Medien untersuchen, identifizieren und nachweisen.© Adobe Stock/shintartanya

Forschung für eine vertrauenswürdige Zukunft

Das Forschungsfeld Desinformation ist naturgemäß noch jung und sehr dynamisch. Ansätze, wie sie beispielsweise im Rahmen der BMBF-Förderung an den Zentren für IT-Sicherheitsforschung, dem Forum Privatheit und in den Projekten DORIAN und PropStop entwickelt werden, gewinnen weiter an Relevanz. Angesichts der wachsenden Fülle an Möglichkeiten zur Manipulation digitaler Medieninhalte und der Zunahme von Desinformation im Internet setzt hier das BMBF auch künftig einen wichtigen Schwerpunkt. Besondere Relevanz hat dabei eine agile interdisziplinäre Forschung.