Freitag, 20. Januar 2017

Aber wenn die Maschinen dazulernen können?

Roboter übernehmen immer mehr Arbeiten
 aus Die Presse, Wien, 15. 1. 2017

Roboter-Forscher befürwortet bedingungsloses Grundeinkommen 
"Roboterbesitzer werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben", sagt Roboter-Forscher Jürgen Schmidhuber. 

Jürgen Schmidhuber, wissenschaftlicher Direktor des Schweizerischen Labors für Künstliche Intelligenz (IDSIA) in Lugano, programmiert Roboter mit Lernalgorithmen auf bestimmte Tätigkeiten. Er befürwortet ein bedingungsloses Grundeinkommen.

"Irgendwann werden Roboter viele Dinge erledigen, die heute Menschen tun. Sie werden Smartphones zusammenbauen und Brombeeren pflücken", erklärte der Forscher gegenüber dem "SonntagsBlick". Menschen würden schon heute vor allem "Luxusberufe", wie Reporter oder Wissenschaftler ausüben, die nicht überlebensnotwendig seien.

Diese Veränderung der Arbeitswelt würden zu einem neuen Besteuerungsmodell führen. "Roboterbesitzer werden Steuern zahlen müssen, um die Mitglieder unserer Gesellschaft zu ernähren, die keine existenziell notwendigen Jobs mehr ausüben", so Schmidhuber. Wer dies nicht bis zu einem gewissen Grad unterstütze, beschwöre geradezu die Revolution Mensch gegen Maschine herauf.

Er vermute daher, dass die Idee ds bedingungslosen Grundeinkommens – mit der er sympathisiere – immer emehr Anhänger finden werde. Denn Roboter würden künftig immer komplexere Arbeiten übernehmen. Der 53-jährige Schmidhuber gilt als einer der weltweit führenden Forscher zu künstlicher Intelligenz (KI) und Lernalgorithmen. (APA/sda)


 
aus Der Standard, Wien, 5. Jänner 2017, 10:18

Wenn Maschinen wie kleine Kinder lernen
Robotersysteme können streng definierte Aufgaben lösen – effizienter als Menschen. Für Forscher ein Grund zur Sorge

von Peter Illetschko

Wien – Mittlerweile gibt es ja eine große Zahl von Studien, die alle das gleiche pessimistische Zukunftsbild zeichnen: Die Digitalisierung der Arbeit, der verstärkte Einsatz von Robotern wird zahlreiche Arbeitsplätze gefährden, weil Maschinen billiger, effizienter und weit weniger fehleranfällig wie Menschen sind: 2013 schon stellten Wissenschafter der University of Oxford fest, dass etwa 47 Prozent aller Arbeiten, die heute vom Menschen verrichtet werden, digitalisiert werden könnten.

Ein Report des US-amerikanischen President's Council of Economic Advisers des Weißen Hauses prognostizierte ähnliche Zahlen. Das Magazin "Wired" berichtete im Dezember des vergangenen Jahres darüber und schrieb von "millions of jobs", die damit verschwinden könnten. Das Magazin "Newsweek" titelte im gleichen Monat provokant "The Robot Economy: Forget Immigrants. Is this your replacement?" Müssen wir also wirklich alle Angst um unsere Jobs haben?

Wissenschafter, die sich mit dem Thema beschäftigen, sehen wenig Grund zur Panik. Diese Studienergebnisse allein würden nicht das Potenzial der Automatisierung erkennen lassen, lautet der Tenor. Andreas Kugi zum Beispiel, Vorstand des Instituts für Automatisierungs- und Regelungstechnik an der TU Wien, meint: "Ich wehre mich gegen die Vorstellung, derartige Technologien würden Jobs wegautomatisieren." Maschinen könnten nur Tätigkeiten automatisieren, sagt Kugi, der sich mit komplexen dynamischen Systemen auch am Austrian Institute of Technology (AIT) beschäftigt.

Um menschenähnlich zu sein, fehlt der Maschine auch Bewusstsein, Kreativität und die Fähigkeit, Emotionen zu haben. Gefühle seien ein "wichtiger Informationskanal, um sich in neuen Situationen zurechtzufinden", sagt etwa der Kognitionswissenschafter Claus Lamm von der Universität Wien. Da Maschinen nie ohne Mensch arbeiten sollten, würden sich aber neue Jobprofile ergeben. Die Produktivität könnte gesteigert werden. Um diesen Wandel ohne Schaden erleben zu können, bräuchte es allerdings einige bildungs- und arbeitsmarktpolitische Maßnahmen, die vermutlich schon sehr bald umgesetzt werden sollten.

Claus Lamm, Kognitionswissenschafter an der Uni Wien, sagt, dass "Maschinen uns schon jetzt übertreffen, wenn es um wohldefinierte Bereiche geht". Das heißt: Der "Lösungsraum" muss eingegrenzt sein. Das wäre aus seiner Sicht auch autonomes Fahren. Lamm: "Die Maschine wird nicht müde und lässt sich bei der vorprogrammierten Aufgabe nicht ablenken." 

Deep Learning 

Doch wie lernt sie, eine bestimmte Aufgabe zu lösen? Vielfach erprobt ist derzeit die Methode des Deep Learning, vereinfacht gesagt, handelt es sich dabei um die Optimierung neuronaler Netze. Soll ein System zum Beispiel Handschriften oder auch nur Katzen im Internet erkennen, dann führt "überwachtes Lernen" dabei zum Ziel. Der Mensch stellt, wie es in der Fachsprache heißt, "den korrekten Funktionswert bereit". Er zeigt der Maschine, ähnlich wie er es bei Kleinkindern macht, was richtig und was falsch ist.

Große Datenmengen und enorme Rechenleistungen machen aber auch "unüberwachtes Lernen" möglich: Systeme können dann etwa erkennen, dass User, die eine bestimmte Seite im Netz ansurfen auch nach konkreten anderen Inhalten suchen – und dies im besten Fall anonymisiert auswerten. Selbstverständlich handelt es sich dabei auch um ein ideales Marketingtool: "User, die sich für diese Jeans interessieren, kauften auch dieses Hemd."

Ein von Lamm beschriebener derart eingegrenzter Bereich wäre zum Beispiel "autonomes Fahren". Für Wissenschafter ist das mittlerweile weniger eine technische denn eine moralisch-ethische Frage. Die entsprechenden Algorithmen können so programmiert werden, dass Fahrzeuge ohne menschliches Zutun von A nach B kommen. Doch wer wird im Falle eines Unfalls zur Verantwortung gezogen? 

Frage der Akzeptanz 

Wie bei der Einführung aller neuen Technologien wird die entscheidende Frage aber jene der Akzeptanz sein. Dabei scheint es eine Hürde zu geben: Menschen geben die Kontrolle nicht gerne aus der Hand. Kugi: "Deswegen hat man auch eher Angst vor einem Flugzeugabsturz als vor einem Autounfall, obwohl er viel seltener vorkommt." Lamm ergänzt: "Die Akzeptanz wird natürlich größer, wenn die Gesellschaft bei der Umsetzung involviert wird", wenn man also das Gefühl hat, die Entwicklung autonomer Fahrzeuge zumindest auch kontrollieren zu können. Nur so lasse sich Vertrauen schaffen.

Das heißt natürlich auch, dass Tests mit selbstfahrenden Autos im normalen Straßenverkehr nur in einem kontrollierten Rahmen stattfinden können. Experten erwarten, dass in absehbarer Zeit Lkws auf den Autobahnen mit autonomen Systemen gesteuert werden – mit einem Beifahrer, der im Notfall eingreift und entgegenkommenden Fahrern auch das Gefühl von Sicherheit vermittelt. Ein Fahrer, der das Fahrzeug nur mehr überwacht, sich auf langen Strecken ohne Gegenverkehr vielleicht auch ausruhen kann?

Die Maschine kann also in einem definierten Rahmen effizienter und vermutlich sicherer als Menschen arbeiten. Sie ist aber deshalb noch nicht menschenähnlich, sagt Christoph Lampert, Professor für Computer-Vision and Machine-Learning am IST Austria in Klosterneuburg. "Von einer intelligenten Maschine, die uns in allen Belangen überlegen ist, sind wir meilenweit entfernt." Der Grund: Menschen bauen auf erlerntem Wissen auf und sichern so ihr Überleben. Ein Kleinkind lernt, dass die Herdplatte heiß ist, dass man nicht aus dem Fenster springen sollte und auf der Straße wegen herankommender Fahrzeuge vorsichtig sein sollte. 

Für jedes Problem ein neuer Algorithmus 

Die Maschine kann mittels Algorithmus ein Problem lösen, braucht aber für ein weiteres Problem auch einen weiteren Algorithmus. Lampert sagt dazu: "Das System kann also Katzen erkennen, aber keine Hunde. Und das, obwohl man schon sagen könnte, dass Hunde Katzen sind, die bellen und weniger spitze Ohren haben." Ob Maschinen jemals so natürlich wie Menschen lernen können, sei völlig offen, sagt der Experte. Vielleicht bräuchte ein Computer, um "menschenähnlich" zu sein, 

Bewusstsein oder Kreativität – und die Fähigkeit, eine unbekannte Situation emotional einzuordnen. Lamm: "Emotionen sind ein wichtiger Informationskanal, um sich zurechtzufinden." Ob das Maschinen jemals schaffen können? "Ich kann natürlich nicht sagen, was in den Schreibstuben der Softwareprogrammierer passiert, aber ausschließen kann man es wohl nicht."

Schon seit einigen Jahren dominieren "hervorragende Ingenieursleistungen", wie es Lampert nennt, die Diskussion über lernfähige Maschinen, sei es ein Computerprogramm wie Watson von IBM, das in der Lage ist, Menschen im Quiz "Jeopardy!" zu schlagen, oder eine neue Übersetzungssoftware des Technologiekonzerns Google, die deutliche Verbesserungen gegenüber früheren Versionen bringt.

Smartes Telefonsystem 

Daneben gibt es zahlreiche Anwendungen maschineller Intelligenz, die man womöglich gar nicht als solche identifiziert. Telefonsysteme zum Beispiel, die Gefühle erkennen und wissen, ob der Anrufer ruhig oder aufgebracht ist, und ihn im letzten Fall vielleicht nicht zu lange in der Warteschleife warten lassen. Lampert mit einem Augenzwinkern: "Emotionen zu erkennen ist eine Fähigkeit, die viele hochintelligente Menschen nicht haben." Alles ist relativ – auch die Intelligenz. 


Nota. - Wenn ich es recht verstehe, kann der Computer den benötigten Algorithmus in Big Data  einfach suchen, er muss dazu nicht denken können und nicht einmal rechnen. Zeit zum Suchen hat er reichlich, denn Zeit braucht er kaum; Millisekunden reichen. Nur ob ein Problem ein Problem ist, wird er bloß erkennen können, wenn er vorab auf ein höheres Problem programmiert war; sonst steht er wie der Ochs vorm Tor. 

Oder kann der Computer sich um programmieren? Das müsste er wollen. Ob der Computer je wird wollen können, ist das eigentliche Problem, und es lässt einem das Blut in den Adern gefrieren. Die Transzendental- philosophie wird sagen: nie und nimmer. Aber wenn die Techniker schlauer sind als sie?
JE

Keine Kommentare:

Kommentar veröffentlichen