aus Die Presse, Wien, 15. 1. 2017
Roboter-Forscher befürwortet bedingungsloses Grundeinkommen
"Roboterbesitzer
werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu
ernähren, die keine existenziell notwendigen Jobs mehr ausüben", sagt
Roboter-Forscher Jürgen Schmidhuber.
Jürgen Schmidhuber, wissenschaftlicher Direktor des
Schweizerischen Labors für Künstliche Intelligenz (IDSIA) in Lugano,
programmiert Roboter mit Lernalgorithmen auf bestimmte Tätigkeiten. Er
befürwortet ein bedingungsloses Grundeinkommen.
"Irgendwann werden Roboter viele Dinge erledigen, die heute Menschen
tun. Sie werden Smartphones zusammenbauen und Brombeeren pflücken",
erklärte der Forscher gegenüber dem "SonntagsBlick". Menschen würden
schon heute vor allem "Luxusberufe", wie Reporter oder Wissenschaftler
ausüben, die nicht überlebensnotwendig seien.
Diese Veränderung der Arbeitswelt würden zu einem neuen
Besteuerungsmodell führen. "Roboterbesitzer werden Steuern zahlen
müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine
existenziell notwendigen Jobs mehr ausüben", so Schmidhuber. Wer dies
nicht bis zu einem gewissen Grad unterstütze, beschwöre geradezu die
Revolution Mensch gegen Maschine herauf.
Er vermute daher, dass
die Idee ds bedingungslosen Grundeinkommens – mit der er sympathisiere –
immer emehr Anhänger finden werde. Denn Roboter würden künftig immer
komplexere Arbeiten übernehmen. Der 53-jährige Schmidhuber gilt als
einer der weltweit führenden Forscher zu künstlicher Intelligenz (KI)
und Lernalgorithmen. (APA/sda)
aus Der Standard, Wien, 5. Jänner 2017, 10:18
Wenn Maschinen wie kleine Kinder lernen
Robotersysteme können streng definierte Aufgaben lösen – effizienter als Menschen. Für Forscher ein Grund zur Sorge
von Peter
Illetschko
Wien
– Mittlerweile gibt es ja eine große Zahl von Studien, die alle das
gleiche pessimistische Zukunftsbild zeichnen: Die Digitalisierung der
Arbeit, der verstärkte Einsatz von Robotern wird zahlreiche
Arbeitsplätze gefährden, weil Maschinen billiger, effizienter und weit
weniger fehleranfällig wie Menschen sind: 2013 schon stellten
Wissenschafter der University of Oxford fest, dass etwa 47 Prozent aller
Arbeiten, die heute vom Menschen verrichtet werden, digitalisiert
werden könnten.
Ein Report des US-amerikanischen President's Council of Economic
Advisers des Weißen Hauses prognostizierte ähnliche Zahlen. Das Magazin
"Wired" berichtete im Dezember des vergangenen Jahres darüber und
schrieb von "millions of jobs", die damit verschwinden könnten. Das
Magazin "Newsweek" titelte im gleichen Monat provokant "The Robot
Economy: Forget Immigrants. Is this your replacement?" Müssen wir also
wirklich alle Angst um unsere Jobs haben?
Wissenschafter, die sich mit dem Thema beschäftigen, sehen wenig
Grund zur Panik. Diese Studienergebnisse allein würden nicht das
Potenzial der Automatisierung erkennen lassen, lautet der Tenor. Andreas
Kugi zum Beispiel, Vorstand des Instituts für Automatisierungs- und
Regelungstechnik an der TU Wien, meint: "Ich wehre mich gegen die
Vorstellung, derartige Technologien würden Jobs wegautomatisieren."
Maschinen könnten nur Tätigkeiten automatisieren, sagt Kugi, der sich
mit komplexen dynamischen Systemen auch am Austrian Institute of
Technology (AIT) beschäftigt.
Um
menschenähnlich zu sein, fehlt der Maschine auch Bewusstsein,
Kreativität und die Fähigkeit, Emotionen zu haben. Gefühle seien ein
"wichtiger Informationskanal, um sich in neuen Situationen
zurechtzufinden", sagt etwa der Kognitionswissenschafter Claus Lamm von
der Universität Wien.
Da Maschinen nie ohne Mensch arbeiten sollten, würden sich aber neue
Jobprofile ergeben. Die Produktivität könnte gesteigert werden. Um
diesen Wandel ohne Schaden erleben zu können, bräuchte es allerdings
einige bildungs- und arbeitsmarktpolitische Maßnahmen, die vermutlich
schon sehr bald umgesetzt werden sollten.
Claus Lamm, Kognitionswissenschafter an der Uni Wien, sagt, dass
"Maschinen uns schon jetzt übertreffen, wenn es um wohldefinierte
Bereiche geht". Das heißt: Der "Lösungsraum" muss eingegrenzt sein. Das
wäre aus seiner Sicht auch autonomes Fahren. Lamm: "Die Maschine wird
nicht müde und lässt sich bei der vorprogrammierten Aufgabe nicht
ablenken."
Deep Learning
Doch wie lernt sie, eine bestimmte Aufgabe zu lösen? Vielfach erprobt
ist derzeit die Methode des Deep Learning, vereinfacht gesagt, handelt
es sich dabei um die Optimierung neuronaler Netze. Soll ein System zum
Beispiel Handschriften oder auch nur Katzen im Internet erkennen, dann
führt "überwachtes Lernen" dabei zum Ziel. Der Mensch stellt, wie es in
der Fachsprache heißt, "den korrekten Funktionswert bereit". Er zeigt
der Maschine, ähnlich wie er es bei Kleinkindern macht, was richtig und
was falsch ist.
Große Datenmengen und enorme Rechenleistungen machen aber auch
"unüberwachtes Lernen" möglich: Systeme können dann etwa erkennen, dass
User, die eine bestimmte Seite im Netz ansurfen auch nach konkreten
anderen Inhalten suchen – und dies im besten Fall anonymisiert
auswerten. Selbstverständlich handelt es sich dabei auch um ein ideales
Marketingtool: "User, die sich für diese Jeans interessieren, kauften
auch dieses Hemd."
Ein von Lamm beschriebener derart eingegrenzter Bereich wäre zum
Beispiel "autonomes Fahren". Für Wissenschafter ist das mittlerweile
weniger eine technische denn eine moralisch-ethische Frage. Die
entsprechenden Algorithmen können so programmiert werden, dass Fahrzeuge
ohne menschliches Zutun von A nach B kommen. Doch wer wird im Falle
eines Unfalls zur Verantwortung gezogen?
Frage der Akzeptanz
Wie bei der Einführung aller neuen Technologien wird die
entscheidende Frage aber jene der Akzeptanz sein. Dabei scheint es eine
Hürde zu geben: Menschen geben die Kontrolle nicht gerne aus der Hand.
Kugi: "Deswegen hat man auch eher Angst vor einem Flugzeugabsturz als
vor einem Autounfall, obwohl er viel seltener vorkommt." Lamm ergänzt:
"Die Akzeptanz wird natürlich größer, wenn die Gesellschaft bei der
Umsetzung involviert wird", wenn man also das Gefühl hat, die
Entwicklung autonomer Fahrzeuge zumindest auch kontrollieren zu können.
Nur so lasse sich Vertrauen schaffen.
Das heißt natürlich auch, dass Tests mit selbstfahrenden Autos im
normalen Straßenverkehr nur in einem kontrollierten Rahmen stattfinden
können. Experten erwarten, dass in absehbarer Zeit Lkws auf den
Autobahnen mit autonomen Systemen gesteuert werden – mit einem
Beifahrer, der im Notfall eingreift und entgegenkommenden Fahrern auch
das Gefühl von Sicherheit vermittelt. Ein Fahrer, der das Fahrzeug nur
mehr überwacht, sich auf langen Strecken ohne Gegenverkehr vielleicht
auch ausruhen kann?
Die Maschine kann also in einem definierten Rahmen effizienter und
vermutlich sicherer als Menschen arbeiten. Sie ist aber deshalb noch
nicht menschenähnlich, sagt Christoph Lampert, Professor für
Computer-Vision and Machine-Learning am IST Austria in Klosterneuburg.
"Von einer intelligenten Maschine, die uns in allen Belangen überlegen
ist, sind wir meilenweit entfernt." Der Grund: Menschen bauen auf
erlerntem Wissen auf und sichern so ihr Überleben. Ein Kleinkind lernt,
dass die Herdplatte heiß ist, dass man nicht aus dem Fenster springen
sollte und auf der Straße wegen herankommender Fahrzeuge vorsichtig sein
sollte.
Für jedes Problem ein neuer Algorithmus
Die Maschine kann mittels Algorithmus ein Problem lösen, braucht aber
für ein weiteres Problem auch einen weiteren Algorithmus. Lampert sagt
dazu: "Das System kann also Katzen erkennen, aber keine Hunde. Und das,
obwohl man schon sagen könnte, dass Hunde Katzen sind, die bellen und
weniger spitze Ohren haben." Ob Maschinen jemals so natürlich wie
Menschen lernen können, sei völlig offen, sagt der Experte. Vielleicht
bräuchte ein Computer, um "menschenähnlich" zu sein,
Bewusstsein oder
Kreativität – und die Fähigkeit, eine unbekannte Situation emotional
einzuordnen. Lamm: "Emotionen sind ein wichtiger Informationskanal, um
sich zurechtzufinden." Ob das Maschinen jemals schaffen können? "Ich
kann natürlich nicht sagen, was in den Schreibstuben der
Softwareprogrammierer passiert, aber ausschließen kann man es wohl
nicht."
Schon seit einigen Jahren dominieren "hervorragende
Ingenieursleistungen", wie es Lampert nennt, die Diskussion über
lernfähige Maschinen, sei es ein Computerprogramm wie Watson von IBM,
das in der Lage ist, Menschen im Quiz "Jeopardy!" zu schlagen, oder
eine neue Übersetzungssoftware des Technologiekonzerns Google, die
deutliche Verbesserungen gegenüber früheren Versionen bringt.
Smartes Telefonsystem
Daneben gibt es zahlreiche Anwendungen maschineller Intelligenz, die
man womöglich gar nicht als solche identifiziert. Telefonsysteme zum
Beispiel, die Gefühle erkennen und wissen, ob der Anrufer ruhig oder
aufgebracht ist, und ihn im letzten Fall vielleicht nicht zu lange in
der Warteschleife warten lassen. Lampert mit einem Augenzwinkern:
"Emotionen zu erkennen ist eine Fähigkeit, die viele hochintelligente
Menschen nicht haben." Alles ist relativ – auch die Intelligenz.
Nota. - Wenn ich es recht verstehe, kann der Computer den benötigten Algorithmus in Big Data einfach suchen, er muss dazu nicht denken können und nicht einmal rechnen. Zeit zum Suchen hat er reichlich, denn Zeit braucht er kaum; Millisekunden reichen. Nur ob ein Problem ein Problem ist, wird er bloß erkennen können, wenn er vorab auf ein höheres Problem programmiert war; sonst steht er wie der Ochs vorm Tor.
Oder kann der Computer sich um programmieren? Das müsste er wollen. Ob der Computer je wird wollen können, ist das eigentliche Problem, und es lässt einem das Blut in den Adern gefrieren. Die Transzendental- philosophie wird sagen: nie und nimmer. Aber wenn die Techniker schlauer sind als sie?
JE
Keine Kommentare:
Kommentar veröffentlichen