Cambridge (dpa) - US-Forscher haben sich genauer mit der Verbreitung unwahrer Inhalte auf Twitter beschäftigt. Hier das Ergebnis:
Mit gezogener Waffe stürmt im Dezember 2016 ein Mann in eine kleine Pizzeria in der US-Hauptstadt Washington. Er will dort einen Kinderpornoring ausheben, in den angeblich
Nun haben US-Forscher die Verbreitung unwahrer Inhalte auf dem Kurznachrichtendienst untersucht. Resultat: Solche Behauptungen und Nachrichten verbreiten sich schneller und erreichen mehr Menschen als richtige Informationen. Das berichtet ein Team um Sinan Aral vom Massachusetts Institute of Technology (MIT) im Fachjournal "Science".
In einem aufwendigen Verfahren untersuchten sie in der bisher größten Langzeitstudie dieser Art die Verbreitung von rund 126 000 englischsprachigen Storys via Twitter zwischen 2006 und 2017. Unabhängige Faktenchecker hatten sie zuvor überprüft und als "wahr" oder "falsch" eingruppiert. Die untersuchten Inhalte hatten drei Millionen Menschen insgesamt mehr als 4,5 Millionen mal getwittert.
Den Forschern zufolge hat eine unwahrer Inhalt - ein Bild, eine Behauptung oder ein Link zu einem Onlineartikel - eine um 70 Prozent höhere Wahrscheinlichkeit, weiterverbreitet zu werden. Ob die untersuchten unwahren Behauptungen und Nachrichten mit Absicht verbreitet wurden, nahm die Studie nicht unter die Lupe.
In allen Sparten verbreiteten sich unwahre Inhalte, am häufigsten jedoch waren politische Themen betroffen. Mit deutlichem Abstand folgten Tweets oder Retweets zu modernen Mythen (urban legends), und dann mit weiterem Abstand solche zu Wirtschaft, Terrorismus, Wissenschaft, Unterhaltung und Naturkatastrophen.
Der Schnellballeffekt für Unwahres nahm mit der Zeit zu und war in den US-Wahlkampfjahren 2012 und 2016 besonders stark.
Ein wichtiger Punkt, der offenbar zum Weiterleiten anregt: Unwahre Inhalte wirken den Forschern zufolge oft spannender, neuartiger auf die Twitter-Nutzer. Ihre Antworten darauf zeigen größere Überraschung, stärkere Angst und mehr Ekel. Wahre Nachrichten hingegen lösten öfter traurige Reaktionen aus, aber auch Vorfreude und Vertrauen.
Software-Roboter, die automatisch Tweets absetzen, treiben die Weiterverbreitung von Unwahrheiten dabei eindeutig an - aber: "Menschliches Verhalten trägt mehr zur unterschiedlichen Ausbreitung von Unrichtigem und Wahrheit bei als automatisierte Roboter", schreiben die Forscher. Das solle man auch bei der Bekämpfung dieses Trends im Blick behalten.
Auch andere US-Experten glauben, dass man Mittel gegen die Ausbreitung von unwahren Behauptungen im Netz finden muss. Ob dies alleine durch Fakten-Checks gelingen kann, bezweifeln der Politikwissenschaftler David Lazer (North Eastern University) und mehr als ein Dutzend Kollegen in einem "Science"-Begleitartikel jedoch. Viele Menschen bevorzugten schlicht Informationen, die ihre vorhandenen Sichtweisen bestätigen.
Die Fachleute sehen deshalb vor allem die Anbieter Sozialer Medien in der Pflicht. "Die Plattformen könnten den Konsumenten Hinweise auf die Qualität der Quellen liefern." Auch könnten sie aus den sogenannten Trending-Themen die Aktivität von Bots herausfiltern. Trotz erster derartiger Ansätze sollten Facebook, Twitter und Co. dabei mit unabhängigen Fachleuten zusammenarbeiten. "Wir müssen unser Informations-Ökosystem für das 21. Jahrhundert neu designen." Das könne aber nur interdisziplinär und in weltweiter Zusammenarbeit gelingen. © dpa
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.