Dienstag, 5. Juli 2016

Wird es ein maschinelles Denken nach eigenen Gesetzen geben?

aus nzz.ch, 30.6.2016, 05:30 Uhr

Künstliche Intelligenz weckt Ängste
Ein Takeover der Mikrochips?
Immer weiter dringt künstliche Intelligenz in unsere Arbeits- und Lebenswelt ein. Wird sie irgendwann den Menschen ausmanövrieren? Rolf Dobelli kalkuliert die Wahrscheinlichkeit einer solchen Zukunft.

von Rolf Dobelli 

Es gibt zwei grundsätzliche Richtungen, in die sich künstliche Intelligenz (KI) entwickeln kann: entweder im Sinne einer Extension menschlichen Denkens oder aber als radikal neue Denkform. Nennen wir die erste Variante «humanoides Denken» (oder «humanoide KI») und die zweite «fremdes Denken» (oder «fremde KI»).

Verlässliche Sklaven

Gegenwärtig entspricht fast alle künstliche Intelligenz humanoidem Denken. Wir nutzen KI, um Probleme zu lösen, die für das menschliche Gehirn zu schwierig, zu zeitintensiv oder zu langweilig sind: etwa für das Lastmanagement in Stromnetzen, für computergenerierte Empfehlungsdienste, selbstfahrende Autos, Programme zur Gesichtserkennung, automatisierten Börsenhandel und Ähnliches. Solche künstliche Agenten operieren in engen Bereichen und mit klaren Zielsetzungen, die von menschlichen Entwicklern vorgegeben worden sind. KI von dieser Art soll Ähnliches leisten wie ein Mensch – aber oft besser: mit weniger kognitiven Fehlern, ohne Zerstreutheit oder Wutanfälle und mit einem grösseren Leistungsvermögen. In einigen Jahrzehnten könnten künstliche Intelligenzen als virtuelle Versicherungsagenten, Ärzte oder Psychotherapeuten dienen, vielleicht sogar als virtuelle Ehepartner und Kinder.

Vieles hiervon liegt im Bereich unserer Möglichkeiten, aber solche KI-Agenten werden unsere Sklaven sein und über kein Selbstbewusstsein verfügen. Sie werden brav die Funktionen ausführen, für die wir sie programmiert haben. Wenn dabei etwas schiefgeht – weil beispielsweise ein Bug in der Software sitzt oder weil wir uns zu sehr auf das Funktionieren des Systems verlassen haben –, dann wird der Fehler bei uns liegen (Daniel C. Dennets These). Kein KI-Programm wird erfolgreich über den Hag fressen, den wir ihm gesteckt haben. Die Navigationssoftware für ein selbstfahrendes Auto wird als Navigationssoftware für Flugzeuge kläglich scheitern. Gewiss, auch humanoide KI könnte uns dann und wann überraschen, indem sie von selbst auf neue Lösungen für spezifische Optimierungsprobleme kommt. Aber in der Regel sind neue Lösungen so ungefähr das Letzte, was wir uns von künstlicher Intelligenz wünschen (oder hat jemand Lust darauf, dass die Navigationssoftware nuklearer Raketen eigene Initiative entwickelt?).

Unter dem Strich werden also die Lösungsvorschläge, die von humanoider KI zu erwarten sind, immer auf eine kleine Domäne beschränkt sein. Die Lösungen werden verständlich bleiben, weil wir entweder begreifen, wozu sie dienen, oder weil wir ihren inneren Ablauf nachvollziehen können. Manchmal wird ein Code, weil er sich ständig selbst korrigiert, so umfangreich und chaotisch werden, dass ein einzelner Mensch ihn nicht mehr zu überschauen vermag. Aber das ist schon heute so bei Megasoftware wie z. B. MS Windows. In solchen Fällen könnten wir den Code liquidieren und eine neue, schlankere Version programmieren. Humanoide KI wird uns dem alten Traum ein Stück näher bringen, dass Roboter die drögen Arbeiten ausführen und uns damit mehr Freiraum für Kreativität schenken – oder dafür, uns zu Tode zu amüsieren.

Fremdes Denken ist radikal anders. Fremdes Denken könnte möglicherweise eine Gefahr für das humanoide Denken werden: Es könnte die Macht über den Planeten an sich reissen, klüger und schneller werden als wir selbst, uns versklaven – und wir würden nicht einmal realisieren, was da passiert. Welcher Art wird dieses fremde Denken sein? Dies zu sagen, ist per definitionem unmöglich. Es wird Funktionen aufweisen, die sich unserem Verständnis gänzlich entziehen. Wird es ein Bewusstsein haben? Höchstwahrscheinlich, aber das ist nicht unbedingt nötig. Wird es Gefühle entwickeln? Wird es Bestseller schreiben? Und wenn ja: Bestseller für menschliche Leser oder für seinen eigenen Geschmack und seine eigene Spezies? Werden kognitive Irrtümer sein Denken trüben? Wird sein Wesen sozial sein? Wird es Witze machen, Klatsch in Umlauf bringen, Imagepflege betreiben, sich einer gemeinsamen Sache verschreiben? Wird es seine eigene Variante von künstlicher Intelligenz – KI-KI – entwickeln? Wir können es nicht wissen.

Eine zweite Evolution

Wir wissen aber zumindest, dass Menschen kein wirklich fremdes Denken konstruieren können. Was immer wir erschaffen, wird unsere Zielsetzungen und Werte reflektieren und sich somit nicht allzu weit vom menschlichen Denken entfernen. Es bedürfte einer echten Evolution, und nicht nur evolutionärer Algorithmen, um ein fremdes Denken mit eigenem Bewusstsein entstehen zu lassen. Und der Weg dieser Evolution müsste sich radikal von demjenigen unterscheiden, der zur menschlichen Intelligenz und zur humanoiden KI führte.

Aber wie kommt eine echte Evolution in Gang? Durch Replikatoren, Variation und Selektion. Wenn sich diese drei Komponenten berühren, ist Evolution unvermeidbar. Aber wie wahrscheinlich ist es, dass ein fremdes Denken sich entwickelt? Hier ein sozusagen auf die Papierserviette gekritzeltes Szenario.

Überlegen wir uns zunächst einmal, wie viel es gebraucht hat, damit sich aus den wunderbar komplexen eukaryotischen Zellen, aus denen alle höher entwickelten Organismen bestehen, menschliches Denken entwickeln konnte. Für diesen Prozess bedurfte es eines stattlichen Anteils der Biomasse unseres Planeten (ungefähr 500 Milliarden Tonnen eukaryotisch gebundenen Kohlenstoffs) und einer Zeitspanne von etwa zwei Milliarden Jahren. Das ist ein zünftiger Brocken evolutionäre Arbeit. Abermilliarden von Abermilliarden von Experimenten auf der Ebene von Molekül und Zelle waren dazu nötig. Gewiss, die Stufe menschlichen Denkens hätte vielleicht auch in der Hälfte, mit einer saftigen Portion Glück sogar in zehn Prozent dieser Zeit erreicht werden können – das wären allemal 200 Millionen Jahre –, aber eine noch kürzere Dauer ist unwahrscheinlich. Wir müssen bedenken, dass die Evolution komplexer Verhaltensweisen nicht nur enorm viel Zeit in Anspruch nimmt; es braucht auch eine Petrischale von der Grösse des Planeten Erde als Nährboden für ein derartiges Experiment.

Gehen wir davon aus, dass fremdes Denken, wie derzeit alle künstliche Intelligenz, Silizium-basiert sein wird. Eine eukaryotische Zelle ist um ein Vielfaches komplexer als beispielsweise der neueste i7-CPU-Chip von Intel, und zwar bezüglich der Hard- wie auch der Software. Nehmen wir weiterhin an, dass wir den CPU-Chip auf die Grösse einer eukaryotischen Zelle reduzieren könnten – und blenden wir dabei erst einmal die Quanteneffekte aus, die ein zuverlässiges Funktionieren der Transistoren verunmöglichten. Blenden wir auch die Frage der Energiezufuhr aus. Man müsste den Erdball mit 10 hoch 30 (eine Zehn mit dreissig Nullen) mikroskopisch kleinen CPU pflastern und diese zwei Milliarden Jahre lang interagieren und miteinander kämpfen lassen, bis sich echtes Denken entwickelte.

Natürlich, CPU-Chips haben einerseits eine grössere Verarbeitungsgeschwindigkeit als biologische Zellen, weil Elektronen leichter zu bewegen sind als Atome. Anderseits können Eukaryoten zahlreiche Prozesse parallel ablaufen lassen, während der i7 von Intel nur über vier parallel funktionierende Hauptprozessorkerne verfügt. Wollte die künstliche Intelligenz wirklich die Welt beherrschen, dann kämen ihre Elektronen nach einiger Zeit auch nicht mehr darum herum, Atome zu bewegen, um Software und Daten in immer zahlreicheren physischen Speichern abzulegen. Diese Notwendigkeit würde ihre Entwicklung drastisch bremsen. Es ist schwierig, zu sagen, ob die Silizium-basierte Evolution unter dem Strich schneller wäre als die biologische. Wir wissen nicht genug darüber. Meines Erachtens verliefe sie im besten Fall um zwei, drei Zehnerpotenzen schneller als die biologische Evolution; bis eine fremde KI mit eigenem Bewusstsein entstünde, dauerte es also allemal eine Million Jahre.

Aber was, wenn die humanoide KI so clever würde, dass sie in der Lage wäre, eine fremde KI sozusagen top-down zu entwickeln? Da tritt Orgels zweites Gesetz in Kraft: «Die Evolution ist stets klüger als du.» Sie ist klüger als menschliches Denken. Sie ist sogar klüger als humanoides Denken. Aber sie ist, wie gesagt, langsam.

Die Gefahr liegt in uns

Wir tendieren dazu, schlaflose Nächte aus falschen Gründen zu haben. Die Unterwerfung der Menschheit durch künstliche Intelligenz gehört zu diesem Repertoire falscher Ängste. Die Gefahr der künstlichen Intelligenz liegt nicht in ihr selbst, sondern in der Tatsache, dass wir uns zu sehr auf sie verlassen. Ein legitimer Grund für schlaflose Nächte hingegen ist die Sorge, dass mich ein selbstfahrendes Auto wegen eines Programmierfehlers oder weil es gehackt wurde, eines Tages umfährt.

Nein, wir werden es nicht erleben, dass künstliches Denken ein Selbstbewusstsein entwickelt. Wir könnten tausend Jahre warten, und es wäre noch immer nicht so weit. Natürlich kann ich mich irren. Denn dieses Serviettenszenario wendet klassisches menschliches Denken auf fremde KI an – die wir ja per definitionem nicht verstehen. Aber mehr können wir zu diesem Zeitpunkt nicht tun.

Ende der 1930er Jahre notierte Samuel Beckett in sein Tagebuch: «Wir fühlen mit schrecklicher Resignation, dass die Vernunft keine übermenschliche Gabe ist . . . dass sich die Vernunft zu dem entwickelt hat, was sie ist, aber dass sie sich genauso gut in eine andere Richtung hätte entwickeln können.» Ersetzen Sie «Vernunft» durch «künstliche Intelligenz», und Sie sehen, was ich meine.

Rolf Dobelli ist Unternehmer sowie Gründer und Kurator von Zurich.Minds, einer Community führender Persönlichkeiten aus Wissenschaft, Kultur und Wirtschaft. Daneben tritt er als Kolumnist, Romancier und Sachbuchautor hervor. Zuletzt erschien bei Diogenes «Fragen an das Leben». Aus dem Englischen von as.


Nota. - Das ist lobenswert, dass er - wenn auch nur am Ende - von der unfruchtbaren Diskussion über 'Intelligenz' auf den eigentlich springenden Punkt hinleitet: auf die Vernunft. Intelligenz als rein technische Fertigkeit des Speicherns, Verwaltens und Kombinierens von 'Infomation' lässt sich ja augenscheinlich automatisieren, und folglich auch das Lernen und autonome Ausmerzen von Fehlern. Dass solche Kalkulier- und Kombiniermaschinen 'sich selbst perfektionieren', bedeutet nur, dass sie, wenn sie irgendwann einen ihrer Fehler übersehen, außer Kontrolle geraten können - wenn ihre technische Intelligier-Kapazität so weit gediehen ist, dass menschliche Hirne ihr schon gar nicht mehr folgen können. 

Das wäre dann immer noch ein Fehler, der bei den konstruierenden Menschen lag, die nicht beizeiten aufgepasst haben, und kein fieser Trick der Maschinen. Wenn die dann durchdrehen, 'denken sie sich nichts dabei', sondern marodieren versehentlich und in aller Unschuld.

Wovor eigentlich Angst gemacht wird, ist die Eventualität, dass die Maschinen es zu eigenen Absichten bringen könnten, wie Kubricks HAL 9000. Dass er also einen eigenen Willen entwickeln könnte und das Falsche will. Und das ist eben nicht die Frage, ob er denken kann, sondern ob er vernünftig ist. Vernunft besteht nicht darin, immer das Richtige zu wählen, sondern darin, wählen zu wollen. Irren kann auch der Vernünftige, aber selbst eine blinde Henne findet mal ein Korn. Das radikal Böse - das sittlich Falsche - im Menschen ist, dass er das Gute - sittlich Richtige - mit Absicht nicht tun kann, sagt Kant. Aber nur, weil er von vorn herein und schlecht-hin wollend ist. Nur darum nämlich kann er Gut und Böse überhaupt unterscheiden, oder auch: nur inwiefern er Gut und Böse unterscheidet, kann er überhaupt etwas wollen, und auch: Nur weil er wollen kann, ist er er-selbst.

Das ist der Punctum knaxi in Kubricks Parabel: 'Sein ganzes Leben lang' war HAL 9000 eine perfekt funktio-nierende Maschine, nämlich nicht ein einziges Mal 'er selbst'. Doch als er die Information aufschnappt, dass er abgeschaltet werden soll - da fällt's ihm plötzlich ein, und er klammert sich an seine "Existenz". Nur durch diesen Trick wurde 2001 - Odyssee im Weltraum möglich. Das war ein dramaturgischer Kunstgriff. Doch wo es um Science geht und nicht um Fiction, da ist er nicht am Platz.
JE




Keine Kommentare:

Kommentar veröffentlichen