zum Hauptinhalt
Du sollst nicht lügen. Youtube bevorzugt seriöse Videos, Facebook schaltet Warnhinweise auf Whatsapp und Twitter löscht Millionen Nutzerkonten.

© picture alliance / Franz-Peter T

Soziale Netzwerke gegen Fake News: „Ich schaue mit Sorge auf die nächsten Wahlen“

"Das ist alles längst nicht ausreichend": Kommunikationswissenschaftlerin Ulrike Klinger zum Kampf gegen Fake News bei Google, Facebook & Twitter.

Frau Klinger, Youtube will seriöse Videos auf der Seite prominenter platzieren und bei Themen, die oft von Verschwörungstheorien betroffen sind, wie beim Thema Mondlandung, auf Wikipedia-Artikel verlinken. Wie beurteilen Sie das?

Solche Maßnahmen zeigen, dass sich etwas bewegt. Unternehmen wie Google scheinen zunehmend einzusehen, dass ihre Plattformen auch für Manipulationen oder Desinformationskampagnen benutzt werden und sie als Unternehmen auch eine Verantwortung für die Inhalte haben, deren Verbreitung sie ermöglichen.

Sind diese Maßnahmen ausreichend?

Wer über Social Media Lügen, Hass oder schlicht Unsinn verbreiten möchte, wird das auch weiterhin tun können. Allenfalls wird es ein klein wenig schwieriger. Der Glaube, man könne mit Technologie gesellschaftliche Probleme lösen, hilft hier leider nicht weiter. Aber es ist enorm wichtig, dass Google, Facebook, Twitter und andere Unternehmen transparenter werden und Desinformationskampagnen aktiv entgegensteuern.

Was heißt das konkret?

Wichtig wäre es, Kampagnen, die auf eine Manipulation der öffentlichen Meinung zielen, zu erkennen und Gegenmaßnahmen zu entwickeln. Ein Beispiel dafür war die Reaktion von Facebook und Google während des Abtreibungsreferendums in Irland. Um eine massive Kampagne von Abtreibungsgegnern einzugrenzen, wurden keine Anzeigen und gesponserte Post von Geldgebern außerhalb Irlands beziehungsweise überhaupt keine Werbung für die Abstimmung mehr zugelassen. Das Ziel, jede Unwahrheit oder Lüge zu verhindern, ist hingegen unrealistisch. Auf Social Media kann jede und jeder alles Mögliche sagen, und das ist auch gut so.

Facebook macht etwas Ähnliches und stellt Fake-News-Artikel kleiner dar.

Wir alle sollten zunächst dringend aufhören, von „Fake News“ zu sprechen. Das ist ein ideologischer Kampfbegriff zur Diffamierung kritischer Medienberichterstattung, der die Debatte überhaupt nicht weiterbringt. Grundsätzlich geht es nicht um einzelne Unwahrheiten, Fehler oder Halbwahrheiten. Der Wetterbericht stimmt ja auch nicht immer, ohne dass Demokratie oder Gesellschaft dadurch Schaden nehmen. Zeitungen drucken Horoskope und manchmal auch versehentlich Falschmeldungen. Das zentrale Problem ist, dass Social Media eben eine ganz hervorragende Infrastruktur zur Verbreitung von Hass, Lügen und Diffamierungskampagnen bieten.

Vor Kurzem hat Facebook damit begonnen, Anzeigen in deutschen Zeitungen zu schalten, auch einen TV-Werbespot hat das Unternehmen produziert, um das Vertrauen der Nutzer zurückzugewinnen.

Viele Nutzer wissen nicht genug darüber, wie die Plattformen hinter der Benutzeroberfläche funktionieren, technisch, aber auch ökonomisch und kulturell. Es hat sich zwar herumgesprochen, dass wir bei Google, Facebook und Co. nicht mit Geld, sondern mit Daten und Aufmerksamkeit bezahlen. Aber wie personalisierte Werbung, algorithmische Selektion von Inhalten und die spezifische Kultur der Entwickler-Szene unsere Alltagswelt prägen, darüber wissen wir noch zu wenig. Wenn Facebook also mit Anzeigen und Werbespots erklärt, wie man seine Privatsphäre besser schützen kann, warum nicht?

In Indien kam es durch Falschinformationen, die über Whatsapp verbreitet wurden, zu tödlichen Attacken auf Unschuldige. Nun wird dort die Zahl der Empfänger von weitergeleiteten Meldungen auf fünf, weltweit auf 20 beschränkt. Facebook schaltet in der App Warnhinweise, die User auffordern, News kritisch zu prüfen. Hilft das?

In dem konkreten Fall bin ich skeptisch. Die Medienkompetenz der Bürgerinnen und Bürger zu stärken, ist aber ein wichtiger Schritt. Eine Studie der Bertelsmann-Stiftung hat gezeigt, dass nur etwa zehn Prozent der Deutschen glauben zu wissen, wie ein Algorithmus funktioniert. Gleichzeitig sprechen wir hier darüber, Algorithmen entscheiden zu lassen, ob etwas wahr oder unwahr ist – also die Programmierer und Unternehmen, die solche Technologien entwickeln. Aufklärung ist also grundsätzlich gut, aber sicher nicht ausreichend.

Twitter hat 70 Millionen Benutzerkonten gelöscht, um Falschnachrichten und Hassreden zu unterbinden.

Nicht nur auf Twitter treiben Bots und Trolle ihr Unwesen, die voll- oder halb-automatisiert massenweise Spam, aber eben auch manipulative Botschaften verbreiten mit dem Ziel, öffentliche Meinungsbildung zu beeinflussen, in Wahlkämpfen oder vor Abstimmungen wie dem Brexit-Referendum. Das ist keine Zukunftsmusik, sondern das findet ganz real statt. Da haben die Unternehmen klar eine gesellschaftliche Verantwortung, die sie auch annehmen müssen.

Nehmen Soziale Medien also den Kampf gegen Hass und Lügen ernst?

Meine Beobachtung ist, dass die Social-Media-Unternehmen dieses Phänomen seit den Präsidentschaftswahlen in den USA zumindest etwas ernster nehmen. Facebook hat seit Mai ein öffentliches Archiv für Werbeanzeigen mit politischen Inhalten in den USA. Oft finden Desinformationskampagnen ja über bezahlte Werbeanzeigen statt. Es sind gute Schritte in die richtige Richtung erkennbar, aber das ist alles längst nicht ausreichend. Ich schaue mit Sorge auf die anstehenden Wahlen, vor allem auch die Wahlen zum Europäischen Parlament im kommenden Jahr.

Was fordern Sie von den Sozialen Medien?

Social Media müssen für die Gesellschaft transparenter werden. Dazu gehört, dass unabhängige Wissenschaftler Zugang zu Daten bekommen. Es ist für uns Wissenschaftler sehr schwierig, auf der Basis der öffentlich zugänglichen Daten Bots zu identifizieren, also Software, die sich als Twitter-Nutzer ausgibt, und Aussagen darüber machen zu können, ob und in welchem Maße Bots unsere demokratischen Wahlen beeinflussen. Um Strategien gegen Desinformationskampagnen zu entwickeln, sind wir als Wissenschaftler, aber auch als Öffentlichkeit darauf angewiesen, dass die Unternehmen ihre Daten in sinnvoller Weise und mit Rücksicht auf die Privatsphäre der Nutzer für Forschung zugänglich machen.

Ulrike Klinger ist Juniorprofessorin für digitale Kommunikation am Institut für Publizistik und Kommunikationswissenschaft der Freien Universität und forscht am Weizenbaum Institut.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false