Prognose
Wie Algorithmen unsere Vorstellung von der Zukunft verändern
Große
Techkonzerne können mit künstlicher Intelligenz unser Verhalten immer
genauer vorhersagen. Was macht das mit unserer Idee von Zeit und
Zukunft?
von Miguel de la Riva
Amazon weiß, nach welchem Produkt ich schon immer gesucht habe, Youtube lockt mit genau dem Video, das mich interessiert, Spotify empfiehlt den Song, der meiner Musiksammlung noch gefehlt hat: Dass große Tech- konzerne unser Nutzerverhalten mit Algorithmen auswerten und treffsicher unsere Wünsche und Handlungen vorhersagen, ist mittlerweile fester Bestandteil unseres Alltags.
Wenn es somit möglich scheint, unser Verhalten umfassend vorherzusagen – wie verändert der Eintritt ins digi- tale Zeitalter dann unsere Vorstellung der Zukunft? Zu dieser Frage forscht Lotte Warnsholdt als Junior Fellow am Internationalen Forschungszentrum für Kulturwissenschaften (IFK) in Wien. Die Nachwuchswissenschafte- rin promoviert in Lüneburg am Graduiertenkolleg "Kulturen der Kritik" der Deutschen Forschungsgesellschaft.
Alter Menschheitstraum
In der Vorhersage der Zukunft sieht Warnsholdt einen alten Menschheitstraum. Doch mit der Digitalisierung verändere sich unsere Vorstellung der kommenden Zeit grundlegend. Wie sie mit Bezug auf den Historiker Reinhart Koselleck herausarbeitet, hatte sich in der Moderne zunächst das Bild einer gestaltbaren Zukunft durchgesetzt: Waren in der alten Ständegesellschaft, in der die Söhne stets das Handwerk der Väter erlernten, Erfahrungsraum und Erwartungshorizont kongruent, schien die Zukunft mit der Französischen Revolution, dem anbrechenden Kapitalismus und dem an Fahrt aufnehmenden technischen Fortschritt um 1800 so offen wie ungewiss zu werden.
Heute dagegen würden die zusehends perfektionierten Vorhersagetechnologien dem Phantasma einer allgemei- nen Berechenbarkeit der Zukunft Vorschub leisten. An die Stelle von Prognosen großer, allgemeiner Trends, mit denen man sich auf eine ungewisse Zukunft einzustellen versuchte, trete im Zuge der Digitalisierung nun die Vorhersage sehr spezifischer Ereignisse – von der Nachkommastelle der Klimaerwärmung bis zu den Kaufent- scheidungen einzelner Konsumenten, so Warnsholdt, die sich dabei auf die Soziologin Elena Esposito bezieht.
Die Vorhersagetechnologien zeichneten damit das Bild einer Zukunft, die nicht mehr gestaltbar, sondern schon jetzt in ihren Details unumgänglich festzustehen scheint – und beeinflussen damit unser Handeln in der Gegen- wart. Für Warnsholdt als Kulturwissenschafterin steht deshalb nicht im Vordergrund, inwieweit sich die Zukunft mit den Algorithmen tatsächlich zuverlässig vorhersagen lässt. Ihr geht es vielmehr um die Macht dieser Tech- nologien, die uns als zunehmend selbstverständlicher und gewohnter Teil unseres Alltags umgeben.
Datenskandale und die Gegenwart der Zukunft
Als besonders eindrückliches Beispiel für diese Macht nennt sie den Skandal um Cambridge Analytica. Mit einem harmlos wirkenden Fragebogen konnte das obskure britische Unternehmen bei der letzten US-Präsi- dentschaftswahl die Daten zahlloser Facebook-Nutzer abschöpfen, sie algorithmisch auswerten und so zielgenau potenzielle Wähler Donald Trumps ansprechen.
Das zeige deutlich, wie stark die algorithmisch vorhergesagte Zukunft in die Gegenwart zurückwirkt und damit gleichsam den Lauf der Zeit umkehrt: "Vorhersagetechnologien sind keine neutralen und unbeteiligten Beob- achter, sondern mit daran beteiligt, die Zukunft herbeizuführen, die sie berechnen. Sie schaffen schon in der Gegenwart eine neue Ausgangslage – die Zukunft, die die Algorithmen vorhersagen, würde ohne sie gar nicht eintreten."
In ihrer Arbeit legt Warnsholdt auch einen Schwerpunkt auf die Geschichte dieser Technologien. Wie sie mit Rückgriff auf den Wissenschaftshistoriker Peter Galison beleuchtet, gehen sie insbesondere auf den Zweiten Weltkrieg zurück. Was uns heute als App auf dem Smartphone unauffällig begleitet, stammt demnach maßgeblich aus dem militärisch-industriellen Komplex der USA.
Anfang der 1940er-Jahre etwa arbeitete der Mathematiker Norbert Wiener für das US-Militär an einem "anti-aircraft predictor". Während die Nationalsozialisten großflächige Angriffe auf Großbritannien flogen, forschte er an einer Maschine, die die Flugbahn feindlicher Flieger vorausberechnen sollte, um sie automatisiert vom Himmel zu schießen. Die Herausforderung bestand dabei darin, auch die Ausweichmanöver des Piloten nach Abschuss des Projektils vorherzusehen.
Kybernetik und Feedbackschleifen
Obwohl das Gerät letztlich nicht zum Einsatz kam – mit den damaligen technischen Mitteln ließen sich nur zehn statt der erforderlichen 20 Sekunden vorausberechnen –, entstanden während seiner Entwicklung die Grundlagen für die heute allgegenwärtigen Überwachungs- und Vorhersagetechnologien. Weil sich Pilot und Kanone gegenseitig aneinander ausrichten, mussten sie als ein System verstanden werden, in dem sie durch Feedbackschleifen miteinander verbunden sind. Wieners Kriegsforschung wurde so zur Geburtsstunde für die Kybernetik, die aus solchen Feedbackstrukturen eine allgemeine Theorie auch sozialer Systeme machte und über die er nur wenig später Standardwerke vorlegte.
Wiener begann damals, menschliches Verhalten in Analogie zur Reaktion von Maschinen als berechenbare Größe zu verstehen. Dabei erkannte er, dass sich zuverlässige Vorhersagen nur für jeden einzelnen Flieger aufgrund seines früheren Verhaltens treffen ließen. Wie heute bei den großen Techkonzernen wusste man so schon im Krieg um "die Vorzüge großer Mengen personenbezogener Daten – je mehr man davon hatte, desto präziser konnte man die Ausweichmanöver der Piloten vorhersagen", sagt Warnsholdt.
In den Fängen des Überwachungskapitalismus
Heute sind diese Daten in den Händen weniger Unternehmen konzentriert, die daraus unsere Wünsche und unser Verhalten immer exakter vorauszuberechnen wissen. Droht im Überwachungskapitalismus also die Offenheit der Zukunft aus unserer Welt zu verschwinden? Wie kann in einer Welt, deren Verlauf präziser denn je vorhersehbar scheint, noch ein Horizont von Möglichkeiten aufrechterhalten werden?
Warnsholdt sieht in diesen Fragen das Kernproblem ihrer Arbeit. Die Kritik gesellschaftlicher Verhältnisse sieht sie durch die Vorhersagetechnologien vor neuen Herausforderungen: "Kritik beruhte bisher auf der Vorstellung einer offenen, gestaltbaren Zukunft – darauf, dass die Welt auch ganz anders sein könnte. Für sie ist die Erfah- rung entscheidend, dass das, was ist, nicht so sein muss."
In ihrer weiteren Arbeit will sie Bedingungen erforschen, die diese Erfahrung noch zulassen. Sie verweist hier auf Räume des Ungewissen und Uneindeutigen, des Nichtwissens und Nichtmaschinenlesbaren, wie sie etwa im Kontext geteilter Geheimnisse oder der Kunst bestünden. In ihnen sieht sie Sphären, in denen sich Unvorher- gesehenes ereignen und Neues erprobt werden kann – und damit Impulse zur Kritik an einer Welt, in der die Zukunft vermeintlich immer schon feststeht.
Nota. - Ob und wie weit sein Verhalten berechenbar ist, liegt offenbar weitgehend an jedem selbst. Wenn es ein zu lösendes Problem gibt, liegt es hier.
JE
Keine Kommentare:
Kommentar veröffentlichen