aus spektrum.de, 2. 4. 2021
Wie Algorithmen uns manipulieren
Tagtäglich
beeinflussen uns Algorithmen – sei es, weil man sich Videos auf Youtube
ansieht oder sich mit anderen Nutzern in sozialen Medien austauscht.
Doch wenn man die psychologischen Tricks und ihre Funktionsweise kennt,
kann man ihnen entgehen.
von Filippo Menczer und Thomas Hills
Die
Corona-Pandemie hat vieles verändert, unter anderem hat sie das
Misstrauen der Bürger gegenüber dem Staat geschürt. Nicht ganz
unschuldig an diesem Prozess sind die sozialen Medien. Stellen Sie sich
dazu eine fiktive Person namens Andreas vor, der besorgt ist, an
Covid-19 zu erkranken. Da Andreas nicht alle Artikel zu dem Thema selbst
lesen kann, ist er auf Tipps von Freunden angewiesen. Anfangs hält er
nicht viel davon, wenn Leute behaupten, die Pandemie-Ängste seien
übertrieben. Doch plötzlich verhängt die Regierung einen harten
Lockdown, wodurch das Hotel, in dem er arbeitet, schließen muss.
Nun
da Andreas' Job in Gefahr ist, fragt er sich, wie ernst die Bedrohung
durch das neue Virus wirklich ist. Ein Kollege teilt einen Beitrag über
»Corona-Panik«, angeblich geschaffen von Pharmaunternehmen in Absprache
mit korrupten Politikern. Nach einer kurzen Websuche findet Andreas
schnell Artikel, die behaupten, Covid-19 sei nicht schlimmer als eine
Grippe. Daraufhin wird er Teil einer Facebook-Gruppe, deren Mitglieder
ebenfalls riskieren, durch die Pandemie arbeitslos zu werden. Mehrere
seiner neuen Freunde planen, an einer Demonstration teilzunehmen, die
ein Ende der Einschränkungen fordert, und Andreas schließt sich ihnen
an. Er ist inzwischen überzeugt, Corona sei ein Schwindel.
Dieser Artikel ist enthalten in Spektrum der Wissenschaft 4/2021
Das
Beispiel veranschaulicht, wie verschiedene kognitive Verzerrungen das
Urteilsvermögen beeinflussen. So bevorzugen wir Informationen von
Menschen, denen wir vertrauen; wir picken uns jene Fakten heraus, die
gut zu dem passen, was wir bereits zu wissen meinen; wir messen Risiken,
die uns persönlich betreffen, einen großen Stellenwert bei und sprechen
vermehrt darüber. Dieses Verhalten stammt aus unserer evolutionären
Vergangenheit, es hat sich über Zehntausende von Jahren als nützlich
erwiesen: So hielt man sich etwa von einem bewachsenen Seeufer fern,
weil jemand gesagt hatte, es gäbe dort Schlangen.
Doch die
kognitiven Verzerrungen haben auch ihre Schattenseiten. Inzwischen
manipulieren moderne Technologien die subjektive Wahrnehmung der
Menschen raffiniert. Im anfangs angeführten Beispiel lenken
Suchmaschinen Andreas auf Webseiten mit verschwörungstheoretischem
Inhalt, und soziale Medien vernetzen ihn mit Gleichgesinnten, die seine
Ängste nähren. Zudem können böswillige Akteure durch automatisierte
Social-Media-Konten, die sich als Menschen ausgeben (so genannte Bots),
die kognitiven Schwachstellen gezielt für ihre Zwecke ausnutzen.
Die
fortschreitende Digitalisierung verstärkt das Problem. Blogs, Videos,
Tweets und andere Beiträge lassen sich extrem schnell und einfach
produzieren und über die ganze Welt verbreiten. Wegen der dabei
entstehenden Informationsflut können wir nicht mehr objektiv
entscheiden, welchen Inhalten wir unsere Aufmerksamkeit schenken. Daher
ist es inzwischen wichtiger denn je, die kognitiven Verzerrungen sowie
die Art und Weise, wie Algorithmen sie nutzen, zu verstehen.
Unsere Forschungsgruppen an der University of Warwick in England und am
Observatory on Social Media (OSoMe, ausgesprochen »awesome«) der Indiana
University Bloomington in den USA führen deshalb Experimente und
Simulationen durch, um das Verhalten von Nutzern sozialer Medien zu
verstehen. Dabei verbinden wir die Erkenntnisse psychologischer Studien
in Warwick mit Computermodellen aus Indiana. Zudem haben wir
verschiedene Hilfsmittel entwickelt, um der Manipulation in sozialen
Medien entgegenzuwirken. Einige Journalisten, zivilgesellschaftliche
Organisationen und Einzelpersonen nutzen unsere Programme bereits und
haben damit Akteure aufgespürt, die bewusst Fehlinformationen
verbreiten.Wettbewerb um die Aufmerksamkeit von NutzernDurch
die Informationsflut im Internet ist ein regelrechter Wettbewerb um die
Aufmerksamkeit der Menschen entstanden. Eine der ersten Folgen davon
ist der Verlust qualitativ hochwertiger Informationen. Das OSoMe-Team
verdeutlichte das mit mehreren Computersimulationen. Es stellte dabei
die Nutzer sozialer Medien, so genannte Agenten, als Knotenpunkte in
einem Netzwerk von Online-Bekanntschaften dar. In jedem Zeitschritt kann
ein Nutzer entweder einen eigenen Beitrag erstellen oder einen aus
seinem Nachrichtenfeed teilen. Um die begrenzte Aufnahmefähigkeit zu
berücksichtigen, sehen die Agenten nur eine bestimmte Anzahl von
Artikeln im oberen Bereich ihres Feeds.
Die Datenwissenschaftlerin
Lilian Weng, inzwischen bei OpenAI, ließ die Simulation viele
Zeitschritte durchlaufen und schränkte gleichzeitig die Aufmerksamkeit
der Agenten zunehmend ein. Wie sie feststellte, entstand dabei eine
ähnliche Verteilung von Beiträgen wie in den sozialen Medien: Die
Wahrscheinlichkeit dafür, dass ein Inhalt x-mal geteilt wird, entspricht etwa 1⁄x hoch einer Potenz a.
Das führt zu einem »The-Winner-Takes-It-All«-Muster. Einige wenige
Beiträge kennt so gut wie jeder, während die meisten anderen kaum
wahrgenommen werden. Das Phänomen hat dabei nichts mit der Qualität der
Inhalte zu tun, in der simulierten Welt spielte diese Eigenschaft zum
Beispiel keine Rolle. Ob sich etwas verbreitete, ergab sich allein durch
das Verhalten der Agenten mit begrenzter Aufmerksamkeit.
Um zu
untersuchen, wie sich die Situation verändert, wenn die Agenten
zusätzlich die Qualität von Beiträgen berücksichtigen, entwickelte die
Informatikerin Xiaoyan Qiu eine weitere Simulation. Darin teilten die
simulierten Accounts bevorzugt qualitativ hochwertige Beiträge – doch
das verbesserte die Gesamtqualität der am häufigsten verbreiteten
Inhalte kaum. Selbst wenn wir gut recherchierte Artikel lesen und teilen
möchten, führt unsere begrenzte Aufnahmefähigkeit unweigerlich dazu,
dass wir teilweise oder völlig unwahre Informationen weitergeben.
Informationsüberfluss | Unser persönlicher
Social-Media-Newsfeed ist häufig so überlaufen, dass wir uns nur die
ersten Beiträge ansehen und entscheiden, ob wir sie weiterverbreiten.
Forscher vom Observatory on Social Media (OSoMe) an der Indiana
University Bloomington haben dieses begrenzte Aufnahmevermögen
simuliert. Jeder Knoten in ihrem Netzwerk entspricht einem Nutzer, der
durch Linien mit anderen Konten verbunden ist, welche die geteilten
Beiträge sehen. Untersuchungen haben ergeben, dass mit steigender
Anzahl von Inhalten (nach rechts) die Qualität nachlässt (Kreise
werden kleiner). Der Informationsüberfluss allein erklärt also schon,
wie Fake News viral gehen.
Neben der eingeschränkten Aufmerksamkeit verstärken
kognitive Verzerrungen das Problem erheblich. Das verdeutlichen mehrere
Studien, die der Psychologe Frederic Bartlett 1932 durchführte. Dabei
erzählte er Versuchspersonen die Legende von einem jungen Indianer, der
Kriegsschreie hört, sie verfolgt und so in eine Schlacht zieht, die zu
seinem Tod führt. Anschließend forderte Bartlett seine Probanden in
Großbritannien auf, sich zu verschiedenen Zeiträumen – von Minuten bis
zu Jahren später – an die verwirrende Erzählung zu erinnern. Die
Testpersonen neigten mit der Zeit dazu, die kulturell ungewohnten Teile
der Geschichte so zu verzerren, dass sie entweder verloren gingen oder
sich in vertrautere Dinge verwandelten. Das tut unser Verstand ständig:
Er passt neue Informationen an, damit sie mit dem, was wir bereits
wissen, übereinstimmen. Wegen dieses so genannten Bestätigungsfehlers
erinnern wir uns oft nur an jene Fakten, die unsere vorherrschende
Meinung stützen.
Das
ist äußerst schwer zu korrigieren. Wie Experimente immer wieder
belegen, suchen Menschen selbst in ausgewogenen Berichterstattungen
Beweise für das, was sie erwarten. Bei emotional aufgeladenen Themen wie
dem Klimawandel können dieselben Informationen bei Personen
unterschiedlicher Überzeugungen dazu führen, dass sich ihre jeweiligen
Positionen verfestigen.
Wie Experimente immer wieder
belegen, suchen Menschen selbst in ausgewogenen Berichterstattungen
Beweise für das, was sie erwarten
Deshalb liefern
Suchmaschinen und Social-Media-Plattformen personalisierte Empfehlungen
auf Grundlage der riesigen Datenmengen, die sie über die Nutzer haben.
Sie geben Beiträgen den Vorrang, die am besten zu unserer Meinung
passen, und schirmen uns vor Inhalten ab, die diesem widersprechen.
Nir
Grinberg und seine Mitarbeiter an der Northeastern University in Boston
haben kürzlich eine Studie vorgelegt, der zufolge Konservative in den
USA empfänglicher für Fehlinformationen sind. Als wir jedoch den Konsum
von Beiträgen niedriger Qualität auf Twitter untersuchten, zeigten sich
beide Seiten des politischen Spektrums anfällig, wenn auch nicht völlig
symmetrisch: Republikaner halten Bots, die konservative Ideen fördern,
eher für Menschen, während Demokraten konservative menschliche Nutzer
häufig mit Bots verwechseln.
Menschen kopieren das Verhalten anderer, wie Vögel in einem Schwarm
ls
Beispiel für eine weitere kognitive Verzerrung dient eine Situation,
die sich im August 2019 in New York City ereignete. Damals hörten einige
Menschen einen Knall, der wie ein Schuss klang, und liefen panisch
davon. Von Angst erfasst, folgten ihnen schnell andere Personen, manche
riefen sogar: »Achtung, Schütze!« Tatsächlich stammten die Geräusche von
einem Motorrad mit einer Fehlzündung. Dennoch ist es in einer solchen
Situation besser, erst zu rennen und später Fragen zu stellen. Wenn es
an klaren Signalen fehlt, kopieren wir das Verhalten anderer, ähnlich
wie es bei Vögeln im Schwarm passiert.
Derartige soziale
Anpassungen sind allgegenwärtig. Das zeigte der Soziologe Matthew
Salganik, damals an der Columbia University, zusammen mit seinen
Kollegen 2006 in einer faszinierenden Studie, an der 14 000 Freiwillige
teilnahmen. Wie sich dabei herausstellte, hören sich verschiedene
Personen ähnliche Musikrichtungen an, wenn sie sehen können, was andere
hören. Als Salganik mehrere Gruppen bildete, in denen man die Vorlieben
der Menschen innerhalb eines solchen Kreises sehen konnte (aber nicht
die anderer Gruppen), unterschied sich die musikalische Auswahl zwischen
den einzelnen Gruppen, doch weniger innerhalb. Wenn dagegen niemand
über die Wahlmöglichkeiten anderer Bescheid wusste, blieben die
Präferenzen divers. Somit können soziale Gruppen einen Anpassungsdruck
erzeugen, der sogar individuelle Vorlieben überwindet.
In
sozialen Medien lässt sich das besonders gut beobachten. Nutzer
verwechseln häufig Popularität mit Qualität und kopieren das Verhalten
anderer. Die Twitter-Experimente von Bjarke Mønsted und seinen Kollegen
von der Technischen Universität Dänemark und der University of Southern
California deuten darauf hin, dass sich Informationen wie eine Krankheit
verbreiten: Wird man wiederholt mit einer Idee konfrontiert, die
typischerweise aus unterschiedlichen Quellen stammt, wächst die
Wahrscheinlichkeit, sie zu übernehmen und weiterzugeben.
Dadurch
schenkt man weit verbreiteten Beiträgen zwangsläufig Aufmerksamkeit –
wenn alle anderen darüber reden, muss es wichtig sein. Soziale Medien
wie Facebook, Twitter, Youtube und Instagram empfehlen deshalb nicht nur
Artikel, die mit unseren Ansichten übereinstimmen, sondern platzieren
auch beliebte Inhalte am oberen Bildschirmrand. Damit zeigen sie uns,
wie viele Menschen etwas gemocht und geteilt haben.
Das könnte Sie auch interessieren: Spektrum Kompakt: Geschichten – Ausflug in fiktive Welten
Die meisten Programmierer, die Algorithmen für das Ranking
von Beiträgen entwickeln, setzen eine kollektive Weisheit voraus: Die
Menge an Nutzern werde wohl schnell qualitativ hochwertige Elemente
identifizieren. Daher verwenden sie Popularität als Qualitätsmerkmal.
Als wir 2018 zahlreiche anonyme Daten untersuchten, erkannten wir, dass
alle Plattformen – soziale Medien, Suchmaschinen und Nachrichtenseiten –
bevorzugt Informationen aus einer eng abgesteckten Untergruppe
beliebter Quellen liefern.
Um die Auswahl besser zu verstehen,
habe ich mit meinen Kollegen modelliert, wie die verschiedenen
Internetanbieter Qualität und Popularität in ihren Rankings kombinieren.
Wir simulierten dazu das Verhalten von Agenten mit begrenzter
Aufmerksamkeit, also solchen, die nur eine bestimmte Anzahl von Artikeln
am Anfang ihrer Nachrichtenfeeds sehen. Hier sind sie geneigt, auf
Beiträge zu klicken, welche die Plattform weit oben zeigt. In unserem
Modell haben wir jedem Artikel nach dem Zufallsprinzip eine intrinsische
Qualität zugewiesen. Wie die Simulationen zeigen, führt allein ein von
den Klickzahlen abhängiger Algorithmus zu einer niedrigeren Qualität der
Inhalte – sogar ohne menschliche Verzerrung. Selbst wenn wir die besten
Informationen teilen möchten, führen uns die Algorithmen in die Irre.
Obwohl die meisten Menschen davon überzeugt sind, kein Mitläufer zu sein, schließen sie sich dennoch häufig Gleichgesinnten an
Eine
weitere kognitive Verzerrung ist der bereits genannte
Bestätigungsfehler. Obwohl die meisten Menschen davon überzeugt sind,
kein Mitläufer zu sein, schließen sie sich dennoch häufig
Gleichgesinnten an. Soziale Medien verstärken das Phänomen, indem sie es
Nutzern ermöglichen, anderen zu folgen, Gruppen zu bilden und so
weiter. Dadurch teilen sie sich in große, dichte und zunehmend falsch
informierte Gemeinschaften auf, die man gemeinhin als Echokammern
bezeichnet.
Bei
OSoMe haben wir deren Entstehung durch eine Computersimulation
untersucht. Darin hat jeder Agent eine politische Meinung, die eine Zahl
zwischen minus eins (liberal) und plus eins (konservativ) repräsentiert
und sich in seinen Beiträgen niederschlägt. Die Nachrichtenfeeds
beeinflussen die Agenten, die zudem Accounts mit abweichenden Ansichten
gezielt ausblenden können. Wir starteten mit zufälligen
Netzwerkkonfigurationen, in denen die Agenten eine politische
Ausrichtung und Verbindungen zu anderen erhalten. In einem solchen
Modell bildeten sich extrem schnell polarisierte Gruppen aus.Unsere Forschungsgruppe als Opfer von Fake News
Tatsächlich
sind die Echokammern auf Twitter so stark ausgeprägt, dass man die
politischen Neigungen einzelner Nutzer sehr genau vorhersagen kann: Sie
vertreten meist die gleiche Ansicht wie die meisten, mit denen sie
verbunden sind. Dadurch verbreitet sich Information effizient innerhalb
einer Gemeinschaft, gleichzeitig wird diese von anderen Gruppen
isoliert. Unter anderem können sich auf diese Art Fake News verbreiten.
Auch
unsere Forschungsgruppe blieb davon nicht verschont: Eine
Desinformationskampagne behauptete 2014, wir seien Teil eines politisch
motivierten Bestrebens, die freie Meinungsäußerung zu unterdrücken. Das
Gerücht verbreitete sich vor allem in konservativen Echokammern, während
Enthüllungsartikel, die unser Forschungsvorhaben richtigstellten,
hauptsächlich in liberalen Kreisen auftauchten. Bedauerlicherweise
kursieren falsche Informationen häufig in anderen Gemeinschaften als
ihre Berichtigungen.
Ein weiterer Aspekt unserer kognitiven
Verzerrung führt dazu, dass sich negative Inhalte schneller verbreiten.
Unser Kollege Robert Jagiello aus Warwick hat untersucht, wie
Informationen in einer so genannten sozialen Diffusionskette von Mensch
zu Mensch wandern. Dabei las der erste seiner Probanden mehrere Artikel
über ein polarisierendes Thema wie Atomkraft oder Lebensmittelzusätze.
Die Texte beleuchteten sowohl positive (etwa weniger
Kohlenstoffbelastung oder länger haltbare Lebensmittel) als auch
negative Aspekte (wie das Risiko einer Kernschmelze oder mögliche
Gesundheitsschäden).

Verwundbarkeit durch Fake News
Anschließend erzählte die erste Person der nächsten von den
Artikeln, die daraufhin dem dritten Probanden berichtete und so weiter.
Entlang der Kette nahm der Anteil der negativen Fakten immer weiter zu –
ein Effekt, der als soziale Risikoverstärkung bekannt ist. Darüber
hinaus ergab die Arbeit von Danielle J. Navarro und ihren Kollegen an
der australischen University of New South Wales, dass die
weitergegebenen Informationen in sozialen Diffusionsketten am stärksten
von Personen mit extremen Verzerrungen abhängen.
Schlimmer noch:
Durch soziale Diffusion werden negative Einstellungen
widerstandsfähiger. Als Jagiello nach dem Versuch die Teilnehmer mit den
ursprünglichen Artikeln konfrontierte, reduzierte das kaum ihre
negative Sichtweise. 2015 haben die OSoMe-Forscher Emilio Ferrara und
Zeyao Yang empirische Daten über eine solche »emotionale Ansteckung« auf
Twitter analysiert. Dabei neigten Menschen, die negativen Inhalten
übermäßig ausgesetzt sind, ebenfalls dazu, negative Beiträge zu teilen.
Wenn Personen hingegen vermehrt Positives lasen, veröffentlichten sie
eher positive Posts. Da sich Negatives allerdings schneller verbreitet,
lassen sich die Emotionen von Nutzern leicht manipulieren: indem man
etwa Texte weitergibt, die Reaktionen wie Angst auslösen. So haben
Ferrara, der jetzt an der University of Southern California forscht, und
seine Kollegen von der Bruno-Kessler-Stiftung in Italien gezeigt, dass
Bots während des spanischen Referendums über die katalanische
Unabhängigkeit 2017 gewalttätige und aufrührerische Beiträge
verbreiteten, wodurch sich die sozialen Konflikte verschärften.
Automatisierte
Bots nutzen kognitive Schlupflöcher aus und beeinträchtigen dadurch die
Qualität von Inhalten. Sie lassen sich leicht entwickeln:
Social-Media-Plattformen haben Schnittstellen, die es einzelnen Akteuren
ermöglichen, Tausende von Bots einzurichten. Um solche Accounts zu
entlarven, haben wir maschinelle Lernalgorithmen entwickelt. Eines der
Programme, das öffentlich zugängliche »Botometer«, extrahiert
1200 Merkmale aus Twitter-Profilen, um deren Verbindungen, soziale
Netzwerkstruktur, zeitliche Aktivitätsmuster, Sprache und andere
Eigenschaften zu untersuchen. Es vergleicht diese mit denen von
Zehntausenden bereits identifizierter Bots. Dadurch weiß man für jeden
Account, mit welcher Wahrscheinlichkeit er automatisiert ist.
Botometer
Das
Botometer ist ein Algorithmus des maschinellen Lernens, der einschätzt,
wie wahrscheinlich ein Social-Media-Account automatisiert ist. Er
liefert dafür eine Zahl zwischen null (Mensch) und eins (Bot). Wie
verlässlich das Ergebnis ist, hängt dabei – wie bei allen
selbstlernenden Programmen – stark von den Datensätzen ab: Weichen die
Beispieldaten, mit denen man die KI trainiert hat, zu sehr von den
Accounts ab, die man analysieren möchte, kann die Einschätzung
danebenliegen. Zudem obliegt es Wissenschaftlern, die erhaltenen
Resultate zu interpretieren. Unter anderem müssen sie eine begründete
Grenze festlegen, etwa 0,75, ab der sie einen Account als Bot
identifizieren.
Wir schätzen, dass 2017 bis zu 15 Prozent
der aktiven Twitter-Profile aus Bots bestanden – und dass sie eine
Schlüsselrolle bei der Verbreitung von Fehlinformationen während der
US-Wahl 2016 spielten. Binnen Sekunden können tausende Programme falsche
Nachrichten veröffentlichen, etwa jene, Hillary Clinton sei in okkulte
Rituale verwickelt. Angesichts der scheinbaren Popularität teilen dann
auch menschliche Nutzer solche Inhalte.
Darüber hinaus können uns
Bots beeinflussen, wenn sie vorgeben, Menschen aus unserer Gruppe zu
sein. Das Programm muss dafür lediglich Personen aus der gleichen
Gemeinschaft folgen, ähnliche Inhalte liken und teilen. Die
OSoMe-Forscherin Xiaodan Lou hat dieses Verhalten in einem Modell
simuliert. Darin sind einige Agenten Bots, die sich in ein soziales
Netzwerk mischen und zahlreiche minderwertige Beiträge austauschen. In
den Simulationen können die Bots die Informationsqualität des gesamten
Systems wirksam mindern, selbst wenn sie bloß einen kleinen Teil des
Netzwerks infiltrieren. Sie beschleunigen darüber hinaus die Bildung von
Echokammern, indem sie andere unwahre Berichte vorschlagen, denen man
folgen sollte.
Automatisierte Nutzerkonten enttarnen
Einige
Manipulatoren treiben mit Falschnachrichten und Bots die politische
Polarisierung oder die Monetarisierung durch Werbung weiter voran. Bei
OSoMe haben wir kürzlich ein Netzwerk automatisierter Konten von Twitter
aufgedeckt, die alle von derselben Einheit koordiniert wurden. Manche
gaben vor, Trump-Unterstützer der Kampagne »Make America Great Again« zu
sein, während sich die anderen als Trump-Gegner ausgaben – doch alle
baten um politische Spenden.
Wie können wir uns besser vor
derartiger Manipulation schützen? Zunächst müssen wir unsere kognitiven
Verzerrungen kennen und verstehen, wie Algorithmen und Bots sie
ausnutzen. OSoMe hat mehrere Werkzeuge entwickelt, um menschliche
Schwachstellen sowie die sozialer Medien zu verdeutlichen. Eines davon
ist eine App namens »Fakey«, mit der Benutzer lernen, Fehlinformationen
zu erkennen. Die App simuliert einen Social-Media-Newsfeed, der aktuelle
Artikel aus Quellen mit geringer beziehungsweise hoher Glaubwürdigkeit
zeigt. Die Nutzer müssen entscheiden, welche Inhalte sie teilen oder auf
ihren Wahrheitsgehalt überprüfen würden. Als wir die Daten aus »Fakey«
analysierten, fiel uns wie erwartet die soziale Herdenbildung auf:
Nutzer vertrauen Informationen aus fragwürdigen Quellen eher, wenn sie
glauben, viele andere Personen hätten sie geteilt.
Ein weiteres
öffentlich zugängliches Programm, »Hoaxy«, visualisiert, wie sich
Beiträge über Twitter verbreiten. Die Darstellung besteht aus einem
Netzwerk, in dem die Knoten echten Twitter-Accounts entsprechen, während
die Verbindungen für das Teilen von Inhalten zwischen den Nutzern
stehen. Jeder Punkt hat dabei eine Farbe, die seine Punktzahl aus dem
»Botometer« widerspiegelt. Damit lässt sich anschaulich erkennen, wie
Bots die Ausbreitung von Fake News verstärken (siehe »Verschmutzung
durch Bots«).

Verschmutzung durch Bots | Automatisierte Accounts, die
menschliche Nutzer nachahmen (so genannte Bots), mindern die Qualität
der geteilten Informationen. In einer Computersimulation haben
OSoMe-Forscher Bots in ein soziales Netzwerk eingeführt. Sie
modellierten sie als Agenten, die Beiträge minderer Qualität erstellen
und nur Inhalte anderer Bots teilen. Wie die Wissenschaftler
herausfanden, ist die Qualität der Posts hoch, wenn nur ein Prozent
aller Nutzer Bots folgen (links). Sobald der Anteil aber diese Grenze
übersteigt, verbreiten sich Informationen mit niedriger Qualität
(rechts). In echten sozialen Netzwerken können schon wenige Likes für
Bots dazu führen, dass Fake News viral gehen.
Mit unseren Programmen haben investigative Journalisten
Fehlinformationskampagnen aufgedeckt, etwa die »Pizzagate-Verschwörung«,
wonach in einer Pizzeria in Washington, D. C., ein Kinderpornoring
agiere, zu dem auch Hillary Clinton gehöre. Außerdem konnten sie
botgetriebene Bemühungen entlarven, die bestimmte Personen während der
Zwischenwahlen 2018 vom Wählen abhalten sollten. Weil Algorithmen des
maschinellen Lernens menschliches Verhalten immer besser nachahmen
können, ist es schwer, derartige Manipulationen zu erkennen.
Abgesehen
von der Verbreitung falscher Nachrichten können
Fehlinformationskampagnen die Aufmerksamkeit von anderen, teilweise
gewichtigen Problemen abziehen. Um dagegen vorzugehen, haben wir
kürzlich die Software »BotSlayer« entwickelt. Sie extrahiert Hashtags,
Links, Konten und weitere Inhalte, die in Tweets über Themen vorkommen,
die einen Benutzer interessieren. Damit kann »BotSlayer« Accounts
kennzeichnen, die im Trend liegen und wahrscheinlich durch Bots oder
koordinierte Konten verstärkt werden. Ziel ist es, Reportern,
zivilgesellschaftlichen Organisationen und politischen Kandidaten zu
ermöglichen, gefakte Einflusskampagnen in Echtzeit zu erkennen und zu
verfolgen.
Das könnte Sie auch interessieren: Spektrum Kompakt: Verschwörungsmythen – Wenn Fakten geleugnet werden
Diese Instrumente sind zwar nützliche Hilfsmittel, dennoch
sind weitere Schritte nötig, um die Verbreitung von Fake News
einzudämmen. Ein wichtiger Faktor ist Bildung, auch wenn man in der
Schule nicht alle wissenschaftlichen Inhalte angemessen abdecken kann.
Einige Regierungen und Social-Media-Plattformen versuchen, gegen
Manipulation und gefälschte Nachrichten vorzugehen. Aber wer
entscheidet, was manipulativ ist und was nicht? Das Risiko, dass solche
Maßnahmen die freie Meinungsäußerung absichtlich oder versehentlich
unterdrücken könnten, ist beträchtlich. Manche Anbieter nutzen immerhin
bereits Systeme wie Captchas und telefonische Bestätigung, um Accounts
zu verifizieren. Twitter hat zudem dem automatisierten Posting Grenzen
gesetzt.
Eine weitere Möglichkeit könnte darin bestehen, Hürden
gegen das Erstellen und Austauschen qualitativ minderwertiger Inhalte
aufzubauen. Zum Beispiel könnte man einen Preis für die Weitergabe oder
den Erhalt von Informationen festsetzen. Die Bezahlung muss dabei nicht
zwingend monetär sein, sondern könnte in Form von Zeit oder geistiger
Arbeit wie Puzzles erfolgen. Denn freie Kommunikation hat ihren Preis –
und dadurch, dass wir die Kosten gesenkt haben, hat sich ihr Wert
verringert.
Filippo Menczer ist Informatiker und Leiter des Observatory on social
Media (OsoMe) an der Indiana University Bloomington. Thomas Hills ist
Professor für Psychologie und Leiter des Master-Studiengangs Verhaltens-
und Datenwissenschaften an der University of Warwick in England