Auch Bots entwickeln Vorurteile
Künstliche Intelligenzen lernen voreingenommenes Verhalten auch ohne den Menschen
Computersysteme, die menschliche Intelligenz nachahmen, beherrschen inzwischen erstaunliche Fähigkeiten: Die Maschinengehirne werten selbständig Sprache, Bilder und Texte aus oder schreiben sie sogar. Zudem haben sie gelernt, sich gegenseitig etwas beizubringen und kommen auch mit komplexen Herausforderungen mühelos zurecht. In Zukunft könnten Künstliche Intelligenzen (KI) daher vermehrt Aufgaben in unserem Alltag übernehmen.
Dabei zeichnet sich allerdings ein Problem ab: Weil solche Systeme ihre Fähigkeiten häufig durch von Menschen zur Verfügung gestellte Daten erlernen, übernehmen sie dadurch mitunter auch menschliche Vorurteile. Das Ergebnis sind beispielsweise rassistische oder sexistische Computergehirne. Doch als wäre dies nicht bedenklich genug, haben Wissenschaftler nun Hinweise darauf gefunden, dass künstliche Intelligenzen womöglich sogar ohne vorbelasteten Input von uns Menschen Vorurteile entwickeln können.
Wie entstehen Vorurteile?
Für ihre Studie untersuchten Roger Withaker von der Cardiff University
und seine Kollegen mithilfe von Computersimulationen, wie Vorurteile
entstehen und befeuert werden. In ihrem Modell interagierten 100 smarte
Bots in einem Geben-und-Nehmen-Spiel miteinander, bei dem sie entweder
jemandem aus dem eigenen Team etwas spenden sollten oder einem
Spielteilnehmer von außerhalb.
Wen sie bedachten, entschieden diese virtuellen Akteure aufgrund der eigenen Spielstrategie sowie der Reputation anderer Individuen. Wer würde mit wem kooperieren – und wer würde wen von den Spenden ausschließen? "Indem wir diese Simulationen tausende Male durchspielten, konnten wir erkennen, wie sich Vorbehalte gegenüber anderen entwickeln und unter welchen Bedingungen sie gefördert werden", erklärt Whitaker.
Wen sie bedachten, entschieden diese virtuellen Akteure aufgrund der eigenen Spielstrategie sowie der Reputation anderer Individuen. Wer würde mit wem kooperieren – und wer würde wen von den Spenden ausschließen? "Indem wir diese Simulationen tausende Male durchspielten, konnten wir erkennen, wie sich Vorbehalte gegenüber anderen entwickeln und unter welchen Bedingungen sie gefördert werden", erklärt Whitaker.
Immer voreingenommener
Die Auswertung zeigte: Je häufiger die Wissenschaftler die Simulationen
durchspielten, desto voreingenommener wurden die Bots. Sie tendierten im
Laufe der Zeit immer stärker dazu, Akteure aus fremden Gruppen von
ihren Spenden auszuschließen und exklusiv innerhalb ihres eigenen Teams
zu handeln. Kurzum: Sie entwickelten immer stärkere Vorurteile gegenüber
"den anderen".
Dabei beobachteten Whitaker und seine Kollegen, dass die smarten Bots ihre Spielstrategie anpassten, indem sie andere Teilnehmer kopierten – und zwar jene, die kurzfristig am meisten Geld einsammelten und demnach am erfolgreichsten waren. Auf diese Weise entstanden Gruppen von Akteuren, die sich ähnlich verhielten und konsequent nicht zugehörige Spielteilnehmer ausschlossen. Besonders hoch war das Vorurteilslevel dann, wenn es eher wenige anstatt viele unterschiedliche Gruppen innerhalb der virtuellen Population gab.
Schlichtes Kopierverhalten
Die Bots erlernten ihre Voreingenommenheit demnach durch das schlichte Kopieren anderer Computergehirne. "Dies legt nahe, dass für die Entwicklung von Vorurteilen keine höheren kognitiven Fähigkeiten notwendig sind", schreiben die Forscher. Ihnen zufolge scheint klar: Künstliche Intelligenzen benötigen keine von Menschen gemachten Daten, um voreingenommen zu werden – es reicht, wenn sie andere Maschinen um sich haben.
"Viele KI-Entwicklungen beruhen auf Autonomie und Selbstkontrolle. Das bedeutet: Das Verhalten solcher Maschinen wird auch von anderen Maschinen um sie herum beeinflusst. Unsere Studie zeigt, was theoretisch bei Akteuren passieren kann, die regelmäßig auf Ressourcen von anderen angewiesen sind", konstatiert Whitaker.
"Damit belegen wir, dass die kollektive Intelligenz solcher Maschinen potenziell anfällig für ein Phänomen ist, das wir auch aus menschlichen Gesellschaften kennen", schließt das Team. (Scientific Reports, 2018; doi: 10.1038/s41598-018-31363-z)
(Cardiff University, 10.09.2018 - DAL)
Nota. - Künstlich ist sie ja, aber keine Intelligenz. Der Algorithmus durchschaut nichts und versteht nichts, sondern errechnet aus einer Datenmenge Wahrscheinlichkeiten. Ist die Menge große genug, ist es auch die Wahrscheinlichkeit. Vorausgesetzt ist allerdings, dass die Daten 'stimmen'. Das aber weiß der Computer nicht, es ist ihm auch ganz egal, weil er nicht versteht, was das bedeutet.
JE
Keine Kommentare:
Kommentar veröffentlichen