Samstag, 10. August 2019

Künstliche Intelligenz schafft neue Arbeit - aber was für welche!

 
aus nzz.ch, 9.8.2019                                        Hinter dem Schachtürken verbarg sich in Wahrheit ein Mensch. Auch die künstliche Intelligenz ist auf unsichtbare Arbeiter angewiesen.

«Künstliche Intelligenz generiert unendlich viel neue Arbeit»
Die Arbeit ist repetitiv und unsicher, die neuen Arbeiter sind unsichtbar. Doch künstliche Intelligenz braucht Menschen, um zu lernen – und das werde nie aufhören, sagt die Microsoft-Research-Forscherin Mary Gray im Interview. 

von Eva Wolfangel

Frau Gray, in Ihrem Buch «Ghost Work: How to stop Silicon Valley from Building a New Global Underclass» beschreiben Sie Menschen, die im Hintergrund für die künstliche Intelligenz arbeiten. Es sind aber nicht die Entwickler oder Programmierer, wie viele Nutzer vielleicht vermuten. Wer dann? 

Es sind Menschen wie Sie und ich, aus allen gesellschaftlichen Schichten, nur sind sie unsichtbar. Die wenigsten wissen, dass künstliche Intelligenz den Menschen braucht, um zu lernen. Sei es, dass ein System Hassrede aufspüren soll wie bei Facebook, oder um zu erkennen, ob ein Bild eine Katze zeigt. Dafür müssen zunächst unzählige Bilder kategorisiert beziehungsweise Hasskommentare identifiziert werden. Das wird meistens von sogenannten Crowdworkern gemacht, auf Plattformen wie Amazon Mechanical Turk. Entwickler stellen ihre Aufgaben auf die Plattform, und die Arbeiter suchen sie sich aus. Dort entstehen diese unendlichen Mengen an Daten, die künstliche Intelligenz benötigt.

Die Anthropologin und Buchautorin Mary Gray ist bei Microsoft Research tätig. (Bild: Adrianne Mathiowetz)Die Anthropologin und Buchautorin Mary Gray ist bei Microsoft Research tätig. 

Sie nennen diese Crowdworker «Geisterarbeiter», weil sie für die meisten Menschen unsichtbar sind. Wie kam es dazu?

Das ist mir klar geworden, als ich bei Microsoft Research anfing. Ich habe die Informatiker dort gefragt: Wer sind denn diese Menschen? Es ist so typisch für Entwickler, mit gesenktem Kopf über einer Aufgabe zu sitzen. Viele denken nicht darüber nach, woher die etikettierten Daten kommen. Wenn sie ihre Jobs auf Mechanical Turk stellen und zurückbekommen, sehen sie ja nicht, wie ein Mensch daran arbeitet. Sie beschreiben die Aufgabe und bekommen die Daten sauber und bearbeitet wieder zurück.

Nicht einmal den Entwicklern selbst ist bewusst, dass menschliche Arbeit in ihre Systeme einfliesst?

Zumindest nicht genauer: Niemand konnte mir meine Frage beantworten, was das für Menschen sind. Manchen war es gar nicht so recht bewusst – andere hatten sogar Angst, genauer nachzuforschen, denn sie ahnten schon, dass sie möglicherweise auf ungute Arbeitsbedingungen stossen würden. Eine typische Antwort war: «Ich weiss es nicht, und ich muss es nicht wissen.» Deshalb habe ich angefangen selbst nachzuforschen.

Auf was für Arbeitsbedingungen sind Sie denn gestossen?

Es sind unsichere Arbeitsbedingungen, abhängig von Projekten, die Entwickler auf den Plattformen in Auftrag geben. Diese Jobs erledigen oft Menschen, die keinen regulären Vollzeitjob finden. Bei vielen verhindern das verschiedene Beschränkungen, zum Beispiel, wenn sie zeitlich eingeschränkt sind, weil sie ein Familienmitglied pflegen oder Kinder erziehen und flexibel arbeiten wollen. Wir konnten mit Menschen sprechen, die diese Jobs wieder aufgegeben haben: Die Hauptgründe waren, dass sie zu wenig Unterstützung bekamen und dass die Aufgaben zu kognitiver Erschöpfung führten.

Gerade wurde bekannt, dass bei Google Menschen Gespräche anhören, die Nutzer mit ihrem Smartphone geführt hatten – selbst dann, wenn sie nicht zuvor «Ok Google» sagten, das Startsignal für die Anwendung, um zuzuhören. Und vor einigen Wochen wurde bekannt, dass bei Amazon ebenfalls Menschen Alexa-Gespräche anhören. Es gab einen grossen Aufschrei in der Bevölkerung, weil Sorgen darüber aufkamen, dass private Informationen von Menschen anstatt von Maschinen gehört werden. 

Aber darum geht es nicht, oder?

Auch hier war der Hintergrund, dass die künstliche Intelligenz trainiert werden muss – es ist ein ganz üblicher Vorgang. Doch in der Öffentlichkeit ist das ebenfalls kaum bekannt. Viele hängen dem Mythos an, dass künstliche Intelligenz bedeutet, dass alles automatisch abläuft. Aber es läuft viel weniger automatisch, als die meisten denken. Natürlich müssen Mitarbeiter bei Google und Amazon immer wieder mal zuhören und prüfen, ob der Algorithmus alles richtig versteht, und ihn dann weiter trainieren.

Wird es einen Punkt geben, an dem die künstliche Intelligenz (KI) «alles» weiss? An dem die Crowdworker einfach genug Daten klassifiziert haben, so dass wirklich alles automatisch abläuft und keine Menschen mehr benötigt werden?

Nein, diesen Punkt wird es aus meiner Sicht nie geben, auch wenn das viele glauben, sogar viele Entwickler. Aber die Annahme ist doch absurd: Sprache verändert sich, Kultur verändert sich. Wie soll die künstliche Intelligenz aus unseren Daten schlau werden, wenn sich deren Bedeutung verändert? Es wird immer Menschen brauchen, die Daten etikettieren, klassifizieren und säubern, damit KI Sinn aus ihnen schöpfen kann. Sprache ist ein gutes Beispiel: Systeme wie Alexa verstehen schon sehr viel, und meistens funktionieren sie gut. Für die meisten Fälle gibt es genug Daten, so dass die Maschinen keine Regeln brauchen, sondern allein aus der Statistik lernen können: aus den Beispielen also, die Menschen klassifiziert haben. Aber oft geht es bei menschlicher Kommunikation um Nuancen. Genug Beispiele für alle Feinheiten wird es nie geben.

Müssen wir also gar keine Angst davor haben, dass die KI uns die Arbeit wegnimmt?

Das ist das grösste Paradox der künstlichen Intelligenz: Sie hat den Ruf, uns Arbeit abzunehmen. Dabei generiert sie unendlich viel neue Arbeit. Allerdings eben auch repetitive Arbeit, die nicht besonders abwechslungsreich ist. Und die Crowdworker sind vereinzelt, niemand investiert in ihre Fortbildung. Das ist wenig nachhaltig. Dieser Fehler ist seit der Industrialisierung immer wieder in der Geschichte geschehen: Menschen, von denen wir denken, dass wir sie bald nicht mehr brauchen, behandeln wir nicht gut. Wir werden sie aber immer brauchen. Und wir müssen auf die Bedürfnisse dieser Arbeiter jetzt eingehen. Sie müssen endlich wahrgenommen werden: In der Textilindustrie hat es für die Arbeiter in Bangladesh auch viel bewegt, als die Unternehmen gezwungen wurden, uns zu sagen, wessen Arbeit in unseren T-Shirts steckt. Die Nutzer von KI-Systemen – und das sind wir alle – müssen endlich zurückverfolgen können, wer alles Arbeit in die Dienstleistungen gesteckt hat, die sie nutzen.

Im vergangenen Jahr ging durch die Presse, wie Menschen bei Facebook Hassrede eliminieren und dabei den ganzen Tag die schrecklichsten Posts lesen mussten – eine harte Arbeit, die bei vielen zu psychischen Problemen geführt hat. Zuckerberg sagte damals: Deshalb muss das automatisiert werden. Wenn ich Sie richtig verstehe, wird es aber immer Menschen brauchen, die Hassrede auf diese Weise identifizieren?

Ja, um die künstliche Intelligenz zu trainieren. Dieser Prozess wird nie abgeschlossen sein. Hassrede verändert sich ja ebenfalls. Da KI aus Beispielen lernt, erkennt sie nur die Hassrede, die schon oft vorgekommen ist. Ich weiss, dass viele denken, das sei komplett automatisierbar. Aber das ist eine Illusion. KI wird Menschen nicht nur vorübergehend brauchen, sondern immer.

Sollten wir vielleicht einen Schritt zurücktreten und manche Entscheidungen eben nicht mittels künstlicher Intelligenz automatisieren? Sondern mit einem Computerprogramm, dessen Entscheidungen fest einprogrammiert sind?

Genau. Das ist ein Ziel des Buchs: den Menschen bewusst zu machen, dass es Fälle gibt, in denen womöglich besser ein regelbasiertes System für einen Menschen eintritt. Soll eine KI meinen Kalender organisieren, muss sie exakt den Grad meiner sozialen Beziehungen verstehen. Das ist hoch komplex. Entwickler übersehen oft, wie schwierig es ist, menschliche Bedürfnisse zu verstehen. Es fängt schon bei scheinbar einfachen Problemen an. Immer wieder üben Ärzte Kritik an Systemen, die per KI zum Beispiel medizinische Bilder interpretieren: Die Ärzte sind enttäuscht, weil es nicht so perfekt ist, wie es ihnen angepriesen wurde. Perfekt wird diese Automatisierung nie sein. Das merken ja auch die ersten Unternehmen: Immer wieder übernimmt eine Person eine Aufgabe, die angeblich eine KI macht.

So wie bei Google Duplex, wo künstliche Intelligenz angeblich Restaurantreservierungen für den Nutzer übernimmt – doch als die «New York Times» das kürzlich testete, riefen meist Menschen an und eben keine Maschine. Versuchen grosse Unternehmen den Mythos der magischen KI aufrechtzuerhalten?

Ich glaube nicht, dass diese Unternehmen bewusst verheimlichen, dass Menschen involviert sind. Es dürfte eher so sein, dass die Marketingabteilungen selbst nicht wissen, wie viele Menschen hinter so einem Prozess stecken, und dass diese Menschen Daten klassifizieren. Wir müssen das als eine Wertschöpfungskette betrachten: Je grösser ein Unternehmen ist, desto weniger wahrscheinlich ist es, dass jeder weiss, was alles in das Endprodukt einfliesst.


Nota. - Die Hoffnunug war, die digitale Revolution werde auf die Dauer die Menschheit von körperlich anstrengender und mental verödender Tätigkeit entlasten - und nun das! 

Das Problem ist, dass, wo Qualitätsurteile erforderlich werden, auf einen Urteilenden nicht verzichtet werden kann. Die Maschine kann einen Algorithmus herausfinden, der Millionen von vorab gespeicherte  Qualitätsur- teilen, die früher schon einmal gefällt wurden, verrechnet und mit einer gewissen Passgenauigkeit auf neu anfallende Fragen überträgt. Da darf man annehmen, das auftretende Missgriffe in der Masse untergehen. Und irgendwann wird Big Data weltweit so angewachsen sein, dass die Maschinen sich die neuen Fragen, die noch auf sie zukommen werden, vorab selber extrapolieren können. Da könnte man auf Crowdworker am Ende vielleicht verzichten.

Nämlich überall da, wo sich bei genauem Hinsehn eine neue Qualität als bloße komplexe Anhäufung von (faktisch) maßlosen Quantitäten entziffern lässt. Wo nicht, kann man nur hoffen, dass die Maschine streikt. Wahrscheinlicher ist aber, dass sie neue Qualitäten gar nicht erkennt, weil sie - nicht wissen kann, was das ist. Das ist viel bedrohlicher: dass sich HAL 9000 einbildet, er könne das selber entscheiden.
JE


Keine Kommentare:

Kommentar veröffentlichen