Reinhard Karger M.A.
DFKI Saarbrücken27.04.2016 16:27
Eine neue Generation autonomer Systeme wird vom Menschen vorgegebene Aufgaben selbstständig lösen können. Abhängig vom aktuellen Kontext generieren diese Systeme eigenständig einen Handlungsplan, der ein vorgegebenes Gesamtziel ohne Fernsteuerung und ohne Hilfe menschlicher Operateure erreicht. Eine besondere Herausforderung besteht darin, dass sie auch in ungewöhnlichen, bislang nicht bekannten Situationen sicher ihre Ziele mit den ihnen verfügbaren Ressourcen erreichen müssen.Zusammen mit den Leitern der sechs Arbeitsgruppen überreichte Prof. Henning Kagermann, Präsident von acatech – Deutsche Akademie der Technikwissenschaften, auf der HANNOVER MESSE den Zwischenbericht des Fachforums "Autonome Systeme – Chancen und Risiken für Wirtschaft, Wissenschaft und Gesellschaft " an Bundesforschungsministerin Prof. Johanna Wanka.
Prof. Dr. Wolfgang Wahlster, Leiter der Arbeitsgruppe (AG) 5 „Technologische Wegbereiter“ des Fachforums stellt dazu fest: „Technologien der Künstlichen Intelligenz wie Maschinelles Lernen, automatische Handlungsplanung und intuitive Mensch-Technik-Interaktion sind die wesentlichen Schlüsseltechnologien für die nächste Generation autonomer Systeme.“
Ein mittelfristiges Ziel ist es, autonome Systeme kontinuierlich laufen zu lassen, so dass diese Erfahrungswissen über einen langen Zeitraum ohne Unterbrechung aufbauen können. Ein solches semantisches Gedächtnis speichert alle Beobachtungen und Aktionen des Systems und kann zum maschinellen Lernen und zur Selbstoptimierung bis hin zu einer eingeschränkten Selbstreflexion genutzt werden. Besonders bei der Operation in toxischen Umgebungen oder Missionen ohne Rückkehrmöglichkeit für das autonome System ist die sichere Zugriffsmöglichkeit auf dieses als eine Art Black Box realisierte Langzeitgedächtnis für den Systembetreiber von größter Bedeutung. Autonome Systeme können nicht mit vollständigen und absolut sicheren Repräsentationen ihrer Umgebung operieren, denn sie müssen in bisher nicht explorierten, unzugänglichen, menschenfeindlichen oder durch Katastrophen dramatisch geänderten Umgebungen handlungsfähig bleiben.
Autonome Systeme müssen auch Information in Situationen nutzen können, die geprägt sind von Unsicherheit, Vagheit, Unvollständigkeit oder Ressourcenbeschränktheit. Hierbei hat die Grundlagenforschung der Künstlichen Intelligenz in der letzten Dekade unter anderem in den Technologiebereichen Bayessche Netze und Deep Learning enorme Fortschritte gemacht. Am DFKI wurde jetzt das Know-how im Bereich des Maschinellen Lernens über alle Standorte hinweg in einem neuen Kompetenzzentrum Deep Learning zusammengefasst (http://dl.dfki.de).
Über 60 Expertinnen und Experten aus Wissenschaft, Wirtschaft und Zivilgesellschaft stellten im Fachforum Autonome Systeme Anwendungsbeispiele zur Technologieentwicklung vor und leiten daraus Vorschläge ab für gesellschaftliche und rechtliche Rahmenbedingungen. Mit Prof. Dr. Frank Kirchner, Direktor des DFKI-Robotics Innovation Center ist das DFKI außer an der AG 5 auch an der Arbeitsgruppe 4 „Autonome Systeme in menschenfeindlichen Umgebungen“ beteiligt.
Im Zwischenbericht des Fachforums zur Hannover Messe 2016 wurden elf Demonstratoren aus Deutschland genauer vorgestellt. Darunter das vom Bundesministerium für Bildung und Forschung geförderte Projekt D-Rock, in dem das DFKI Werkzeuge und Verfahren zur anwenderfreundlichen, modellbasierten Entwicklung komplexer Roboter entwickelt. Der Design-Ansatz soll bei den hoch komplexen Robotersystemen der nächsten Generation zur Anwendung kommen, die als autonome Systeme in unbekannten und unstrukturierten Umgebungen eingesetzt werden, und die Fähigkeiten heutiger Systeme weit übertreffen. D-Rock wird noch bis zum 29. April auf der HANNOVER MESSE 2016 am Stand des Fachforums Autonome Systeme des Bundesministeriums für Bildung und Forschung (BMBF) – Halle 2, Stand B01 – vorgestellt und durch den vom Vorbild einer Gottesanbeterin inspirierten Roboter MANTIS demonstriert.
Kontakt:
Reinhard Karger, M.A.
DFKI Unternehmenssprecher
E-Mail: uk-sb@dfki.de
Tel.: +49 681 85775 5253
Weitere Informationen:
http://www.dfki.dehttp://www.acatech.de/autonome-systeme
http://dl.dfki.de
Nota. - Es bleibt dabei; Die Zwecke - 'Werte', Absichten, Urteilsgründe - müssen der Maschine immer vom lebendigen Menschen vorgegeben werden, weil sie nur herleiten kann, aber nicht einbilden. In einem strikt theoretischen Sinn ist das beruhigend: Das Privileg des freien Willens wird uns nicht streitig gemacht.
In technisch-praktischer Hinsicht spitzt es das Problem eher zu: Wenn die Maschine selber nie zwischen gut und schlecht, sondern immer nur zwischen passend und unpassend unterscheiden kann, wird sie blindlings jedem Zweck gehorchen, der ihr - wie in Kubricks Odyssee im Weltraum - durch einen Systemfehler vorgesetzt wird. Das ist nicht beruhigend.
Beides zusammen heißt aber: Zu Fatalismus besteht kein Grund. Beruhigend ist auch das nicht, sondern herausfordernd; mehr kann man aber nicht wünschen.
JE
Keine Kommentare:
Kommentar veröffentlichen