aus spektrum.de, 2. 4. 2021
vonFilippo Menczer und Thomas Hills
Die Corona-Pandemie hat vieles verändert, unter anderem hat sie das Misstrauen der Bürger gegenüber dem Staat geschürt. Nicht ganz unschuldig an diesem Prozess sind die sozialen Medien. Stellen Sie sich dazu eine fiktive Person namens Andreas vor, der besorgt ist, an Covid-19 zu erkranken. Da Andreas nicht alle Artikel zu dem Thema selbst lesen kann, ist er auf Tipps von Freunden angewiesen. Anfangs hält er nicht viel davon, wenn Leute behaupten, die Pandemie-Ängste seien übertrieben. Doch plötzlich verhängt die Regierung einen harten Lockdown, wodurch das Hotel, in dem er arbeitet, schließen muss.
Nun da Andreas' Job in Gefahr ist, fragt er sich, wie ernst die Bedrohung durch das neue Virus wirklich ist. Ein Kollege teilt einen Beitrag über »Corona-Panik«, angeblich geschaffen von Pharmaunternehmen in Absprache mit korrupten Politikern. Nach einer kurzen Websuche findet Andreas schnell Artikel, die behaupten, Covid-19 sei nicht schlimmer als eine Grippe. Daraufhin wird er Teil einer Facebook-Gruppe, deren Mitglieder ebenfalls riskieren, durch die Pandemie arbeitslos zu werden. Mehrere seiner neuen Freunde planen, an einer Demonstration teilzunehmen, die ein Ende der Einschränkungen fordert, und Andreas schließt sich ihnen an. Er ist inzwischen überzeugt, Corona sei ein Schwindel.
Dieser Artikel ist enthalten in Spektrum der Wissenschaft 4/2021
Das Beispiel veranschaulicht, wie verschiedene kognitive Verzerrungen das Urteilsvermögen beeinflussen. So bevorzugen wir Informationen von Menschen, denen wir vertrauen; wir picken uns jene Fakten heraus, die gut zu dem passen, was wir bereits zu wissen meinen; wir messen Risiken, die uns persönlich betreffen, einen großen Stellenwert bei und sprechen vermehrt darüber. Dieses Verhalten stammt aus unserer evolutionären Vergangenheit, es hat sich über Zehntausende von Jahren als nützlich erwiesen: So hielt man sich etwa von einem bewachsenen Seeufer fern, weil jemand gesagt hatte, es gäbe dort Schlangen.
Doch die kognitiven Verzerrungen haben auch ihre Schattenseiten. Inzwischen manipulieren moderne Technologien die subjektive Wahrnehmung der Menschen raffiniert. Im anfangs angeführten Beispiel lenken Suchmaschinen Andreas auf Webseiten mit verschwörungstheoretischem Inhalt, und soziale Medien vernetzen ihn mit Gleichgesinnten, die seine Ängste nähren. Zudem können böswillige Akteure durch automatisierte Social-Media-Konten, die sich als Menschen ausgeben (so genannte Bots), die kognitiven Schwachstellen gezielt für ihre Zwecke ausnutzen.
Die fortschreitende Digitalisierung verstärkt das Problem. Blogs, Videos, Tweets und andere Beiträge lassen sich extrem schnell und einfach produzieren und über die ganze Welt verbreiten. Wegen der dabei entstehenden Informationsflut können wir nicht mehr objektiv entscheiden, welchen Inhalten wir unsere Aufmerksamkeit schenken. Daher ist es inzwischen wichtiger denn je, die kognitiven Verzerrungen sowie die Art und Weise, wie Algorithmen sie nutzen, zu verstehen.
Unsere Forschungsgruppen an der University of Warwick in England und am Observatory on Social Media (OSoMe, ausgesprochen »awesome«) der Indiana University Bloomington in den USA führen deshalb Experimente und Simulationen durch, um das Verhalten von Nutzern sozialer Medien zu verstehen. Dabei verbinden wir die Erkenntnisse psychologischer Studien in Warwick mit Computermodellen aus Indiana. Zudem haben wir verschiedene Hilfsmittel entwickelt, um der Manipulation in sozialen Medien entgegenzuwirken. Einige Journalisten, zivilgesellschaftliche Organisationen und Einzelpersonen nutzen unsere Programme bereits und haben damit Akteure aufgespürt, die bewusst Fehlinformationen verbreiten.Wettbewerb um die Aufmerksamkeit von NutzernDurch die Informationsflut im Internet ist ein regelrechter Wettbewerb um die Aufmerksamkeit der Menschen entstanden. Eine der ersten Folgen davon ist der Verlust qualitativ hochwertiger Informationen. Das OSoMe-Team verdeutlichte das mit mehreren Computersimulationen. Es stellte dabei die Nutzer sozialer Medien, so genannte Agenten, als Knotenpunkte in einem Netzwerk von Online-Bekanntschaften dar. In jedem Zeitschritt kann ein Nutzer entweder einen eigenen Beitrag erstellen oder einen aus seinem Nachrichtenfeed teilen. Um die begrenzte Aufnahmefähigkeit zu berücksichtigen, sehen die Agenten nur eine bestimmte Anzahl von Artikeln im oberen Bereich ihres Feeds.
Die Datenwissenschaftlerin Lilian Weng, inzwischen bei OpenAI, ließ die Simulation viele Zeitschritte durchlaufen und schränkte gleichzeitig die Aufmerksamkeit der Agenten zunehmend ein. Wie sie feststellte, entstand dabei eine ähnliche Verteilung von Beiträgen wie in den sozialen Medien: Die Wahrscheinlichkeit dafür, dass ein Inhalt x-mal geteilt wird, entspricht etwa 1⁄x hoch einer Potenz a.
Das führt zu einem »The-Winner-Takes-It-All«-Muster. Einige wenige Beiträge kennt so gut wie jeder, während die meisten anderen kaum wahrgenommen werden. Das Phänomen hat dabei nichts mit der Qualität der Inhalte zu tun, in der simulierten Welt spielte diese Eigenschaft zum Beispiel keine Rolle. Ob sich etwas verbreitete, ergab sich allein durch das Verhalten der Agenten mit begrenzter Aufmerksamkeit.
Um zu untersuchen, wie sich die Situation verändert, wenn die Agenten zusätzlich die Qualität von Beiträgen berücksichtigen, entwickelte die Informatikerin Xiaoyan Qiu eine weitere Simulation. Darin teilten die simulierten Accounts bevorzugt qualitativ hochwertige Beiträge – doch das verbesserte die Gesamtqualität der am häufigsten verbreiteten Inhalte kaum. Selbst wenn wir gut recherchierte Artikel lesen und teilen möchten, führt unsere begrenzte Aufnahmefähigkeit unweigerlich dazu, dass wir teilweise oder völlig unwahre Informationen weitergeben.
Informationsüberfluss | Unser persönlicher Social-Media-Newsfeed ist häufig so überlaufen, dass wir uns nur die ersten Beiträge ansehen und entscheiden, ob wir sie weiterverbreiten. Forscher vom Observatory on Social Media (OSoMe) an der Indiana University Bloomington haben dieses begrenzte Aufnahmevermögen simuliert. Jeder Knoten in ihrem Netzwerk entspricht einem Nutzer, der durch Linien mit anderen Konten verbunden ist, welche die geteilten Beiträge sehen. Untersuchungen haben ergeben, dass mit steigender Anzahl von Inhalten (nach rechts) die Qualität nachlässt (Kreise werden kleiner). Der Informationsüberfluss allein erklärt also schon, wie Fake News viral gehen.
Neben der eingeschränkten Aufmerksamkeit verstärken kognitive Verzerrungen das Problem erheblich. Das verdeutlichen mehrere Studien, die der Psychologe Frederic Bartlett 1932 durchführte. Dabei erzählte er Versuchspersonen die Legende von einem jungen Indianer, der Kriegsschreie hört, sie verfolgt und so in eine Schlacht zieht, die zu seinem Tod führt. Anschließend forderte Bartlett seine Probanden in Großbritannien auf, sich zu verschiedenen Zeiträumen – von Minuten bis zu Jahren später – an die verwirrende Erzählung zu erinnern. Die Testpersonen neigten mit der Zeit dazu, die kulturell ungewohnten Teile der Geschichte so zu verzerren, dass sie entweder verloren gingen oder sich in vertrautere Dinge verwandelten. Das tut unser Verstand ständig: Er passt neue Informationen an, damit sie mit dem, was wir bereits wissen, übereinstimmen. Wegen dieses so genannten Bestätigungsfehlers erinnern wir uns oft nur an jene Fakten, die unsere vorherrschende Meinung stützen.
Das ist äußerst schwer zu korrigieren. Wie Experimente immer wieder belegen, suchen Menschen selbst in ausgewogenen Berichterstattungen Beweise für das, was sie erwarten. Bei emotional aufgeladenen Themen wie dem Klimawandel können dieselben Informationen bei Personen unterschiedlicher Überzeugungen dazu führen, dass sich ihre jeweiligen Positionen verfestigen.
Wie Experimente immer wieder belegen, suchen Menschen selbst in ausgewogenen Berichterstattungen Beweise für das, was sie erwarten
Deshalb liefern Suchmaschinen und Social-Media-Plattformen personalisierte Empfehlungen auf Grundlage der riesigen Datenmengen, die sie über die Nutzer haben. Sie geben Beiträgen den Vorrang, die am besten zu unserer Meinung passen, und schirmen uns vor Inhalten ab, die diesem widersprechen.
Nir Grinberg und seine Mitarbeiter an der Northeastern University in Boston haben kürzlich eine Studie vorgelegt, der zufolge Konservative in den USA empfänglicher für Fehlinformationen sind. Als wir jedoch den Konsum von Beiträgen niedriger Qualität auf Twitter untersuchten, zeigten sich beide Seiten des politischen Spektrums anfällig, wenn auch nicht völlig symmetrisch: Republikaner halten Bots, die konservative Ideen fördern, eher für Menschen, während Demokraten konservative menschliche Nutzer häufig mit Bots verwechseln.
Menschen kopieren das Verhalten anderer, wie Vögel in einem Schwarm
ls Beispiel für eine weitere kognitive Verzerrung dient eine Situation, die sich im August 2019 in New York City ereignete. Damals hörten einige Menschen einen Knall, der wie ein Schuss klang, und liefen panisch davon. Von Angst erfasst, folgten ihnen schnell andere Personen, manche riefen sogar: »Achtung, Schütze!« Tatsächlich stammten die Geräusche von einem Motorrad mit einer Fehlzündung. Dennoch ist es in einer solchen Situation besser, erst zu rennen und später Fragen zu stellen. Wenn es an klaren Signalen fehlt, kopieren wir das Verhalten anderer, ähnlich wie es bei Vögeln im Schwarm passiert.
Derartige soziale Anpassungen sind allgegenwärtig. Das zeigte der Soziologe Matthew Salganik, damals an der Columbia University, zusammen mit seinen Kollegen 2006 in einer faszinierenden Studie, an der 14 000 Freiwillige teilnahmen. Wie sich dabei herausstellte, hören sich verschiedene Personen ähnliche Musikrichtungen an, wenn sie sehen können, was andere hören. Als Salganik mehrere Gruppen bildete, in denen man die Vorlieben der Menschen innerhalb eines solchen Kreises sehen konnte (aber nicht die anderer Gruppen), unterschied sich die musikalische Auswahl zwischen den einzelnen Gruppen, doch weniger innerhalb. Wenn dagegen niemand über die Wahlmöglichkeiten anderer Bescheid wusste, blieben die Präferenzen divers. Somit können soziale Gruppen einen Anpassungsdruck erzeugen, der sogar individuelle Vorlieben überwindet.
In sozialen Medien lässt sich das besonders gut beobachten. Nutzer verwechseln häufig Popularität mit Qualität und kopieren das Verhalten anderer. Die Twitter-Experimente von Bjarke Mønsted und seinen Kollegen von der Technischen Universität Dänemark und der University of Southern California deuten darauf hin, dass sich Informationen wie eine Krankheit verbreiten: Wird man wiederholt mit einer Idee konfrontiert, die typischerweise aus unterschiedlichen Quellen stammt, wächst die Wahrscheinlichkeit, sie zu übernehmen und weiterzugeben.
Dadurch schenkt man weit verbreiteten Beiträgen zwangsläufig Aufmerksamkeit – wenn alle anderen darüber reden, muss es wichtig sein. Soziale Medien wie Facebook, Twitter, Youtube und Instagram empfehlen deshalb nicht nur Artikel, die mit unseren Ansichten übereinstimmen, sondern platzieren auch beliebte Inhalte am oberen Bildschirmrand. Damit zeigen sie uns, wie viele Menschen etwas gemocht und geteilt haben.
Das könnte Sie auch interessieren: Spektrum Kompakt: Geschichten – Ausflug in fiktive Welten
Die meisten Programmierer, die Algorithmen für das Ranking von Beiträgen entwickeln, setzen eine kollektive Weisheit voraus: Die Menge an Nutzern werde wohl schnell qualitativ hochwertige Elemente identifizieren. Daher verwenden sie Popularität als Qualitätsmerkmal. Als wir 2018 zahlreiche anonyme Daten untersuchten, erkannten wir, dass alle Plattformen – soziale Medien, Suchmaschinen und Nachrichtenseiten – bevorzugt Informationen aus einer eng abgesteckten Untergruppe beliebter Quellen liefern.
Um die Auswahl besser zu verstehen, habe ich mit meinen Kollegen modelliert, wie die verschiedenen Internetanbieter Qualität und Popularität in ihren Rankings kombinieren. Wir simulierten dazu das Verhalten von Agenten mit begrenzter Aufmerksamkeit, also solchen, die nur eine bestimmte Anzahl von Artikeln am Anfang ihrer Nachrichtenfeeds sehen. Hier sind sie geneigt, auf Beiträge zu klicken, welche die Plattform weit oben zeigt. In unserem Modell haben wir jedem Artikel nach dem Zufallsprinzip eine intrinsische Qualität zugewiesen. Wie die Simulationen zeigen, führt allein ein von den Klickzahlen abhängiger Algorithmus zu einer niedrigeren Qualität der Inhalte – sogar ohne menschliche Verzerrung. Selbst wenn wir die besten Informationen teilen möchten, führen uns die Algorithmen in die Irre.
Obwohl die meisten Menschen davon überzeugt sind, kein Mitläufer zu sein, schließen sie sich dennoch häufig Gleichgesinnten an
Eine weitere kognitive Verzerrung ist der bereits genannte Bestätigungsfehler. Obwohl die meisten Menschen davon überzeugt sind, kein Mitläufer zu sein, schließen sie sich dennoch häufig Gleichgesinnten an. Soziale Medien verstärken das Phänomen, indem sie es Nutzern ermöglichen, anderen zu folgen, Gruppen zu bilden und so weiter. Dadurch teilen sie sich in große, dichte und zunehmend falsch informierte Gemeinschaften auf, die man gemeinhin als Echokammern bezeichnet.
Bei OSoMe haben wir deren Entstehung durch eine Computersimulation untersucht. Darin hat jeder Agent eine politische Meinung, die eine Zahl zwischen minus eins (liberal) und plus eins (konservativ) repräsentiert und sich in seinen Beiträgen niederschlägt. Die Nachrichtenfeeds beeinflussen die Agenten, die zudem Accounts mit abweichenden Ansichten gezielt ausblenden können. Wir starteten mit zufälligen Netzwerkkonfigurationen, in denen die Agenten eine politische Ausrichtung und Verbindungen zu anderen erhalten. In einem solchen Modell bildeten sich extrem schnell polarisierte Gruppen aus.Unsere Forschungsgruppe als Opfer von Fake News
Tatsächlich sind die Echokammern auf Twitter so stark ausgeprägt, dass man die politischen Neigungen einzelner Nutzer sehr genau vorhersagen kann: Sie vertreten meist die gleiche Ansicht wie die meisten, mit denen sie verbunden sind. Dadurch verbreitet sich Information effizient innerhalb einer Gemeinschaft, gleichzeitig wird diese von anderen Gruppen isoliert. Unter anderem können sich auf diese Art Fake News verbreiten.
Auch unsere Forschungsgruppe blieb davon nicht verschont: Eine Desinformationskampagne behauptete 2014, wir seien Teil eines politisch motivierten Bestrebens, die freie Meinungsäußerung zu unterdrücken. Das Gerücht verbreitete sich vor allem in konservativen Echokammern, während Enthüllungsartikel, die unser Forschungsvorhaben richtigstellten, hauptsächlich in liberalen Kreisen auftauchten. Bedauerlicherweise kursieren falsche Informationen häufig in anderen Gemeinschaften als ihre Berichtigungen.
Ein weiterer Aspekt unserer kognitiven Verzerrung führt dazu, dass sich negative Inhalte schneller verbreiten. Unser Kollege Robert Jagiello aus Warwick hat untersucht, wie Informationen in einer so genannten sozialen Diffusionskette von Mensch zu Mensch wandern. Dabei las der erste seiner Probanden mehrere Artikel über ein polarisierendes Thema wie Atomkraft oder Lebensmittelzusätze. Die Texte beleuchteten sowohl positive (etwa weniger Kohlenstoffbelastung oder länger haltbare Lebensmittel) als auch negative Aspekte (wie das Risiko einer Kernschmelze oder mögliche Gesundheitsschäden).
Verwundbarkeit durch Fake News
Anschließend erzählte die erste Person der nächsten von den Artikeln, die daraufhin dem dritten Probanden berichtete und so weiter. Entlang der Kette nahm der Anteil der negativen Fakten immer weiter zu – ein Effekt, der als soziale Risikoverstärkung bekannt ist. Darüber hinaus ergab die Arbeit von Danielle J. Navarro und ihren Kollegen an der australischen University of New South Wales, dass die weitergegebenen Informationen in sozialen Diffusionsketten am stärksten von Personen mit extremen Verzerrungen abhängen.
Schlimmer noch: Durch soziale Diffusion werden negative Einstellungen widerstandsfähiger. Als Jagiello nach dem Versuch die Teilnehmer mit den ursprünglichen Artikeln konfrontierte, reduzierte das kaum ihre negative Sichtweise. 2015 haben die OSoMe-Forscher Emilio Ferrara und Zeyao Yang empirische Daten über eine solche »emotionale Ansteckung« auf Twitter analysiert. Dabei neigten Menschen, die negativen Inhalten übermäßig ausgesetzt sind, ebenfalls dazu, negative Beiträge zu teilen. Wenn Personen hingegen vermehrt Positives lasen, veröffentlichten sie eher positive Posts. Da sich Negatives allerdings schneller verbreitet, lassen sich die Emotionen von Nutzern leicht manipulieren: indem man etwa Texte weitergibt, die Reaktionen wie Angst auslösen. So haben Ferrara, der jetzt an der University of Southern California forscht, und seine Kollegen von der Bruno-Kessler-Stiftung in Italien gezeigt, dass Bots während des spanischen Referendums über die katalanische Unabhängigkeit 2017 gewalttätige und aufrührerische Beiträge verbreiteten, wodurch sich die sozialen Konflikte verschärften.
Automatisierte Bots nutzen kognitive Schlupflöcher aus und beeinträchtigen dadurch die Qualität von Inhalten. Sie lassen sich leicht entwickeln: Social-Media-Plattformen haben Schnittstellen, die es einzelnen Akteuren ermöglichen, Tausende von Bots einzurichten. Um solche Accounts zu entlarven, haben wir maschinelle Lernalgorithmen entwickelt. Eines der Programme, das öffentlich zugängliche »Botometer«, extrahiert 1200 Merkmale aus Twitter-Profilen, um deren Verbindungen, soziale Netzwerkstruktur, zeitliche Aktivitätsmuster, Sprache und andere Eigenschaften zu untersuchen. Es vergleicht diese mit denen von Zehntausenden bereits identifizierter Bots. Dadurch weiß man für jeden Account, mit welcher Wahrscheinlichkeit er automatisiert ist.
Botometer
Das Botometer ist ein Algorithmus des maschinellen Lernens, der einschätzt, wie wahrscheinlich ein Social-Media-Account automatisiert ist. Er liefert dafür eine Zahl zwischen null (Mensch) und eins (Bot). Wie verlässlich das Ergebnis ist, hängt dabei – wie bei allen selbstlernenden Programmen – stark von den Datensätzen ab: Weichen die Beispieldaten, mit denen man die KI trainiert hat, zu sehr von den Accounts ab, die man analysieren möchte, kann die Einschätzung danebenliegen. Zudem obliegt es Wissenschaftlern, die erhaltenen Resultate zu interpretieren. Unter anderem müssen sie eine begründete Grenze festlegen, etwa 0,75, ab der sie einen Account als Bot identifizieren.
Wir schätzen, dass 2017 bis zu 15 Prozent der aktiven Twitter-Profile aus Bots bestanden – und dass sie eine Schlüsselrolle bei der Verbreitung von Fehlinformationen während der US-Wahl 2016 spielten. Binnen Sekunden können tausende Programme falsche Nachrichten veröffentlichen, etwa jene, Hillary Clinton sei in okkulte Rituale verwickelt. Angesichts der scheinbaren Popularität teilen dann auch menschliche Nutzer solche Inhalte.
Darüber hinaus können uns Bots beeinflussen, wenn sie vorgeben, Menschen aus unserer Gruppe zu sein. Das Programm muss dafür lediglich Personen aus der gleichen Gemeinschaft folgen, ähnliche Inhalte liken und teilen. Die OSoMe-Forscherin Xiaodan Lou hat dieses Verhalten in einem Modell simuliert. Darin sind einige Agenten Bots, die sich in ein soziales Netzwerk mischen und zahlreiche minderwertige Beiträge austauschen. In den Simulationen können die Bots die Informationsqualität des gesamten Systems wirksam mindern, selbst wenn sie bloß einen kleinen Teil des Netzwerks infiltrieren. Sie beschleunigen darüber hinaus die Bildung von Echokammern, indem sie andere unwahre Berichte vorschlagen, denen man folgen sollte.
Einige Manipulatoren treiben mit Falschnachrichten und Bots die politische Polarisierung oder die Monetarisierung durch Werbung weiter voran. Bei OSoMe haben wir kürzlich ein Netzwerk automatisierter Konten von Twitter aufgedeckt, die alle von derselben Einheit koordiniert wurden. Manche gaben vor, Trump-Unterstützer der Kampagne »Make America Great Again« zu sein, während sich die anderen als Trump-Gegner ausgaben – doch alle baten um politische Spenden.
Wie können wir uns besser vor derartiger Manipulation schützen? Zunächst müssen wir unsere kognitiven Verzerrungen kennen und verstehen, wie Algorithmen und Bots sie ausnutzen. OSoMe hat mehrere Werkzeuge entwickelt, um menschliche Schwachstellen sowie die sozialer Medien zu verdeutlichen. Eines davon ist eine App namens »Fakey«, mit der Benutzer lernen, Fehlinformationen zu erkennen. Die App simuliert einen Social-Media-Newsfeed, der aktuelle Artikel aus Quellen mit geringer beziehungsweise hoher Glaubwürdigkeit zeigt. Die Nutzer müssen entscheiden, welche Inhalte sie teilen oder auf ihren Wahrheitsgehalt überprüfen würden. Als wir die Daten aus »Fakey« analysierten, fiel uns wie erwartet die soziale Herdenbildung auf: Nutzer vertrauen Informationen aus fragwürdigen Quellen eher, wenn sie glauben, viele andere Personen hätten sie geteilt.
Ein weiteres öffentlich zugängliches Programm, »Hoaxy«, visualisiert, wie sich Beiträge über Twitter verbreiten. Die Darstellung besteht aus einem Netzwerk, in dem die Knoten echten Twitter-Accounts entsprechen, während die Verbindungen für das Teilen von Inhalten zwischen den Nutzern stehen. Jeder Punkt hat dabei eine Farbe, die seine Punktzahl aus dem »Botometer« widerspiegelt. Damit lässt sich anschaulich erkennen, wie Bots die Ausbreitung von Fake News verstärken (siehe »Verschmutzung durch Bots«).
Verschmutzung durch Bots | Automatisierte Accounts, die menschliche Nutzer nachahmen (so genannte Bots), mindern die Qualität der geteilten Informationen. In einer Computersimulation haben OSoMe-Forscher Bots in ein soziales Netzwerk eingeführt. Sie modellierten sie als Agenten, die Beiträge minderer Qualität erstellen und nur Inhalte anderer Bots teilen. Wie die Wissenschaftler herausfanden, ist die Qualität der Posts hoch, wenn nur ein Prozent aller Nutzer Bots folgen (links). Sobald der Anteil aber diese Grenze übersteigt, verbreiten sich Informationen mit niedriger Qualität (rechts). In echten sozialen Netzwerken können schon wenige Likes für Bots dazu führen, dass Fake News viral gehen.
Mit unseren Programmen haben investigative Journalisten Fehlinformationskampagnen aufgedeckt, etwa die »Pizzagate-Verschwörung«, wonach in einer Pizzeria in Washington, D. C., ein Kinderpornoring agiere, zu dem auch Hillary Clinton gehöre. Außerdem konnten sie botgetriebene Bemühungen entlarven, die bestimmte Personen während der Zwischenwahlen 2018 vom Wählen abhalten sollten. Weil Algorithmen des maschinellen Lernens menschliches Verhalten immer besser nachahmen können, ist es schwer, derartige Manipulationen zu erkennen.
Abgesehen von der Verbreitung falscher Nachrichten können Fehlinformationskampagnen die Aufmerksamkeit von anderen, teilweise gewichtigen Problemen abziehen. Um dagegen vorzugehen, haben wir kürzlich die Software »BotSlayer« entwickelt. Sie extrahiert Hashtags, Links, Konten und weitere Inhalte, die in Tweets über Themen vorkommen, die einen Benutzer interessieren. Damit kann »BotSlayer« Accounts kennzeichnen, die im Trend liegen und wahrscheinlich durch Bots oder koordinierte Konten verstärkt werden. Ziel ist es, Reportern, zivilgesellschaftlichen Organisationen und politischen Kandidaten zu ermöglichen, gefakte Einflusskampagnen in Echtzeit zu erkennen und zu verfolgen.
Das könnte Sie auch interessieren: Spektrum Kompakt: Verschwörungsmythen – Wenn Fakten geleugnet werden
Diese Instrumente sind zwar nützliche Hilfsmittel, dennoch sind weitere Schritte nötig, um die Verbreitung von Fake News einzudämmen. Ein wichtiger Faktor ist Bildung, auch wenn man in der Schule nicht alle wissenschaftlichen Inhalte angemessen abdecken kann. Einige Regierungen und Social-Media-Plattformen versuchen, gegen Manipulation und gefälschte Nachrichten vorzugehen. Aber wer entscheidet, was manipulativ ist und was nicht? Das Risiko, dass solche Maßnahmen die freie Meinungsäußerung absichtlich oder versehentlich unterdrücken könnten, ist beträchtlich. Manche Anbieter nutzen immerhin bereits Systeme wie Captchas und telefonische Bestätigung, um Accounts zu verifizieren. Twitter hat zudem dem automatisierten Posting Grenzen gesetzt.
Eine weitere Möglichkeit könnte darin bestehen, Hürden gegen das Erstellen und Austauschen qualitativ minderwertiger Inhalte aufzubauen. Zum Beispiel könnte man einen Preis für die Weitergabe oder den Erhalt von Informationen festsetzen. Die Bezahlung muss dabei nicht zwingend monetär sein, sondern könnte in Form von Zeit oder geistiger Arbeit wie Puzzles erfolgen. Denn freie Kommunikation hat ihren Preis – und dadurch, dass wir die Kosten gesenkt haben, hat sich ihr Wert verringert.
Filippo Menczer ist Informatiker und Leiter des Observatory on social Media (OsoMe) an der Indiana University Bloomington. Thomas Hills ist Professor für Psychologie und Leiter des Master-Studiengangs Verhaltens- und Datenwissenschaften an der University of Warwick in England
Keine Kommentare:
Kommentar veröffentlichen