Samstag, 31. Januar 2015

Varoufakis wünscht sich ein hegemoniales Deutschland.

aus Yanis Varoufakis thoughts for the post-2008 world,  February 22, 2013  by yanisv

Europe needs a hegemonic Germany

For six decades Germany was being pampered by a hegemonic America that oversaw the write-off of its wartime debts, the reversal of Allied designs to de-industrialise it and, above all else, the constant generation of the global demand which allowed German manufacturers to concentrate on efficiently producing quality, desirable wares.

Having taken all this for granted for too long, Germany’s elites are now finding it conceptually difficult to come to terms with the new ‘normal’:
  • A world in which sufficient aggregate demand is no longer maintainable by the United States, or any other single bloc, and in which Germany can no longer take for granted the demand for its goods.
  • A world in which there is no room for a Eurozone that operates like an augmented Germany.
Germany’s disciplinarian imposition of the greatest austerity upon the weakest of Europeans, lacking any plan for countering the resulting asymmetrical recession, is a sorry and dangerous leftover of a long-gone world order built by America. It is the result of a mental atrophy caused by a United States acting for too long as the over-protective parent. It will backfire with mathematical precision, causing higher debt-to-income ratios and lower economic dynamism throughout Europe. The time is, therefore, ripe for a Gestalt Shift from an authoritarian to a hegemonic Germany. Europe needs a Germany ready and willing to make this shift and, indeed, so does Germany.
But what would a hegemonic Germany do? It will be worried about something beyond fiscal rectitude and market reforms. It will know that a supply of high quality products does not automatically create its own demand. It will enthusiastically strive to engineer, as America did in the 1950s, a Pan-European Recovery Program that restores demand for the goods that Europe needs.
Should Germany then try to emulate America? Germany does not have the capacity to do what the United States accomplished from 1980 to 2008; that is, to operate as a gigantic vacuum cleaner sucking into its territory other nations’ net exports, at the cost of ever expanding deficits. Nor should German taxpayers be expected to reflate the bubbles that burst in 2008 (in their own banks, in and around the Greek state, in Irish and Spanish real estate markets etc.). Burst bubbles should be allowed to remain… burst. But meanwhile a hegemonic Germany would find ways to channel the huge pools of stagnant savings into productive investments in the Periphery where they shall produce the incomes that must pay down debts and maintain the level of intra-European demand German companies need to remain competitive both within and without Europe.
In a sense, a hegemonic Germany will be playing the role that Washington did in the 1950s, adopting an activist policy to re-balance Europe’s economy through efficient surplus recycling. But how can this be achieved, when Germany cannot afford to unleash a Marshall Plan? What institutions will this recycling require?
Two things are clear: Germany should not rely on the failed nexus between national governments and Brussels, which has been responsible for inefficient and corrupt uses of the EU’s structural funds. Also, it is futile to attempt moving in a federal direction, a move that Europe’s peoples are not ready for and whose glacial pace is certain to be outpaced by the galloping crisis. Is there a third way? Yes, there is.
Germany should take another leaf out of the New Dealers who put it on the road to recovery all those years ago: Europe needs its own New Deal, funded by a new class of public finance instruments. Germany can realise such a Recovery Program centred around the European Investment Bank. The EIB already has a proven track record of creating a liquid market for debt instruments that fund successful projects. In collaboration with, and supported by, the European Central Bank, an EIB-ECB partnership has the capacity to energise mountains of hitherto idle savings on pure banking principles, with minimal involvement of member-states and no need for Treaty changes.
All it will take is a German resolve to shift from panicky authoritarianism to a hegemonic, to an enlightened self-interestedness.





Donnerstag, 29. Januar 2015

Aber doch nicht bei uns.

M. Liebermann, Badende Knaben

Da kommt eine ganz neue Variante in Betracht: Die wollten den kaltmachen. Der eine, weil er sich durch seine Leitung des Untersuchungsausschusses zu seinem persönlichen Feind gemacht hatte. Der andere, weil er partei- intern sein Rivale war und sich (als Leiter des Untersuchungsausschusses) einen Vorsprung erarbeitet hatte. Der eine hat von berufswegen erfahren, dass jener sich (legale) Filme bei einem Vertrieb bestellt hatte, der wegen (illegaler) Filme ins Visier internationaler Fahnder geraten war. Dem andern hat er es gesteckt, um jenen aus der Fassung zu bringen; und das hat ja geklappt. Und man ahnt auch, wer der Presse den Tipp gegeben hat.

Und auf einmal bekommt die Bemerkung von jenem, auf seinen Bundestagsserver hätte jeder Beliebige Zugriff gehabt, einen intelligiblen Sinn.

Ach was, das ist eine Räuberpistole, bei uns gibts sowas nicht. Das kann die richtige Lesart nicht sein.


Nachtrag

aus tagesschau.de, 03.02.2015 14:47 Uhr:
... Aus Sicht der Opposition steht der Vorwurf im Raum, Fraktionschef Thomas Oppermann habe ihn [Hartmann] vorgeschickt, um Edathy zum Ausscheiden aus der Politik zu bewegen. Hartmann soll am Donnerstag erneut im Auschuss aussagen. 


Nota. - Also nicht Ziercke, sondern Oppermann. Das wäre noch schlimmer, denn der amtiert noch und ist ein politisch Mächtiger, kein weisungsgebundener Beamter. Vielleicht hat Edathy wirklich kein strafbares Zeug bestellt, sondern die Parteifreunde haben es ihm untergejubelt, um ihn kaltzustellen, "bevor ein Skandal entsteht". Womöglich hat er nicht einmal gewusst, dass der kanadische Vertrieb, bei dem er Kunde war, auch strafbare Pornographie verkaufte, und nicht damit gerechnet, dass die Polizei zu denen kommt - hätte er sich dort sonst unter eigenem Namen und seiner Wohnadresse gemeldet? So blöd wirkt er wirklich nicht.
JE

Mittwoch, 28. Januar 2015

Gab es gar keine Epoche der Weltrevolution?

Gerardo Dottori Il duce, 1933 
aus nzz.ch, 28.1.2015, 05:30 Uhr

«Die zerrissenen Jahre» – ein Epochenpanorama der Zwischenkriegszeit
Maligne Moderne

von Oliver Pfohlmann

«Die Flucht vor dem Frieden»: So beschrieb einmal Robert Musil die fatale Begeisterung, mit der im August 1914 unzählige junge Männer in den Krieg zogen. Mit Philipp Blom könnte man sagen: Sie war vielleicht noch mehr eine «Flucht vor der Moderne». Hofften doch viele der Kriegsfreiwilligen, an der Front endlich ihre Männlichkeit wiederzufinden, die ihnen in der anbrechenden Moderne problematisch geworden war: angesichts emanzipierter Frauen, immer mächtigerer Maschinen und der tristen Aussicht auf einen neuartigen Bürojob. Anstelle heldenhafter Kämpfe Mann gegen Mann erlebten die meisten Soldaten aber die Folgen einer entfes- selten Technologie, konstatiert Blom, und statt persönlicher Bewährung erwartete sie ein gesichtsloser Tod. Worin sie sich im Krieg wiedergefunden hätten, das sei just das «überwältigende Zerrbild einer malignen Moderne» gewesen. Letztlich habe es «keine modernere, keine stärker rationalisierte (und gleichzeitig augen- scheinlich keine wahnsinnigere) Umgebung auf der Welt als die Westfront» gegeben. So sei am Ende der Kriegszitterer, der von Trommelfeuer und Stellungskrieg traumatisierte Soldat, der mit angstgeweiteten Augen in die Zukunft starre, zum Signum einer Epoche geworden.

Keine offene Zukunft

Mit einem eindrucksvollen Kapitel über den «Shell Shock», das europaweite Phänomen des Kriegszitterns (heute würde man von «posttraumatischer Belastungsstörung» sprechen), beginnt Philipp Bloms grosses Epochenpanorama «Die zerrissenen Jahre» über die Zwischenkriegszeit. Es ist die Fortsetzung von «Der taumelnde Kontinent» (2008), einem Porträt über das Europa von der Jahrhundertwende bis zum Kriegs- ausbruch. Mit Letzterem zeigte der in Wien lebende Historiker eindrucksvoll, wie schwindelerregend modern bereits die Vorkriegsära war, und avancierte zum gefragten Jahrhundertwende-Experten.



Dass die Belle Epoque später zur guten, alten Zeit verklärt wurde, wie etwa in Stefan Zweigs «Die Welt von gestern», lag, folgt man Bloms neuem Buch, nicht nur an den Erfahrungen des Ersten Weltkriegs, sondern auch an dessen besonderem Ausgang. Denn das Kriegsende war die Folge allgemeiner, völliger Erschöpfung und nicht einer letzten entscheidenden Schlacht. Das «moralische Vakuum», das überall auf einem «zutiefst desillusionierten Kontinent» herrschte, führte dazu, dass der Krieg eine Art Fortsetzung fand. Und zwar im Innern der europäischen Gesellschaften: «Der Krieg hatte sich vom Schlachtfeld in die Köpfe zurückgezogen», weshalb die Zwischenkriegszeit zu einer «Zeit der inneren Konflikte» wurde, so Bloms überzeugende These.

Während der Erste Weltkrieg alles andere als zwangsläufig gewesen sei, habe die Zwischenkriegszeit von Anfang an keine offene Zukunft besessen. Das Leiden an der Moderne, das es schon vor 1914 gegeben habe, sei in der Zwischenkriegszeit dominant geworden, in Europa ebenso wie in den USA – weshalb die Propheten von links wie rechts immer mehr Zulauf erhalten hätten: «Überall zeigte sich das Dilemma, dass die Moderne vehement in das Leben der Menschen eingriff und sie dabei veränderte, diese Veränderung aber mit Angst und Misstrauen beäugt wurde.»

Eine bisher wenig beachtete Schlüsselrolle bei den Konflikten um die Moderne spielte der Gegensatz von Stadt und Land, der in Bloms Darstellung immer wieder begegnet: im Konflikt zwischen dem Roten Wien und der austrofaschistischen Heimwehr nach 1927 ebenso wie bei dem von der Moskauer Zentralregierung verursachten Holodomor, dem Hungermord an der ukrainischen Landbevölkerung 1932. Und in der Prohibitionszeit nach 1920 standen sich das protestantische Amerika der Kleinstädte und Farmen und das der grossen Metropolen gegenüber. Ironischerweise, so Blom, führte aber gerade das Alkoholverbot, dieser Triumph der konservativen Landbevölkerung über die «sittenlosen» Grossstädter, just zu einem neuen Modernisierungsschub: nicht, weil für Millionen von Amerikanern der Gesetzesbruch zur täglichen Gewohnheit wurde, sondern weil sie in den aus dem Boden schiessenden  speakeasies, den Flüsterkneipen, die Kultur der Farbigen kennenlernten wie den Jazz. Und weil nicht zuletzt junge Frauen in diesen verborgenen Räumen neue Geschlechterrollen ausprobieren konnten.

Vom Vorgängerband übernimmt Blom das Prinzip, sich in jedem Kapitel ein Jahr weiter Richtung Zukunft zu hangeln und sich dabei jeweils auf ein Thema zu konzentrieren. Um die mentalen und kulturellen Folgen des Krieges plastisch werden zu lassen, bedient er sich fast durchweg scheinbarer Nebenschauplätze, -episoden oder -figuren und zeigt deren symptomatische Bedeutung auf. Das Kapitel zu 1919 zum Beispiel widmet sich nicht dem Versailler Vertrag, sondern der kurzzeitigen Besetzung der Hafenstadt Fiume durch Gabriele D'Annunzio. Hat Italiens damals bedeutendster Dichter in seinem Möchtegern-Freistaat doch gleichsam nebenbei den italienischen Faschismus erfunden – für Blom ein passender Einstieg in eine Zusammenschau der faschistoiden Strömungen, die sich gleich nach Kriegsende überall auf der Welt formierten, nicht nur in Deutschland, bis hin zum Ku-Klux-Klan in den USA.

Die Aufhänger

Allerdings wirkt Bloms Vorgehen diesmal weniger überzeugend als in «Der taumelnde Kontinent». Das Kapitel über das Jahr 1935 zum Beispiel ist der weltweiten Flüchtlingsproblematik gewidmet, darunter nicht zuletzt den aus Nazideutschland emigrierten Juden und Intellektuellen. Warum aber wird dieses Thema dem Jahr 1935 zugeordnet – und nicht 1934, 1936 oder 1937? Weil Blom für dieses Jahr einen originellen Aufhänger gefunden hat, die Staubstürme, die 1935 den Corn Belt Amerikas verwüsteten und Millionen Menschen über die Route 66 nach Kalifornien flüchten liessen. 

So entscheidet in Bloms Darstellung letztlich das Einstiegsbeispiel über die zeitliche Zuordnung eines Themas: ob es um die Konsequenzen der modernen Physik für das Menschenbild geht (1923, wegen Hubbles Entdeckung zahlloser Galaxien im Universum) oder um die Faszination für schöne, unversehrte Körper in der Zwischenkriegszeit (1936, wegen der Olympischen Spiele in Berlin). Sich gleich an Themen zu orientieren statt an einer Scheinchronologie, wäre womöglich die überzeugendere Lösung gewesen.

Philipp Blom: Die zerrissenen Jahre. 1918–1938. Hanser, München 2014. 576 S., Fr. 35.90


Nota. - Man möcht' es nicht für möglich halten: Da rezensiert einer das Buch eines Historikers über die Zeit zwischen dem Ersten und dem Zweiten Weltkrieg - und das Wort Revolution kommt nicht einmal vor! Denn dass auch der Buchautor es nicht gebraucht haben soll, vielleicht weil er meinte, sie habe sich am Ende ja doch "in die Köpfe zurückgezogen", das halte ich denn doch für ausgeschlossen.

Es kann doch nicht sein, dass er den großen Exodus aus dem amerikanischen Mittelwesten nach Kalifornien zu Beginn der Großen Depression lediglich für das Thema Migration verwertet und den Aufstieg der CIO und insbesondere Roosevelts New Deal nicht erwähnt - nein, das ist nicht möglich. Es ist nicht möglich, dass er keinen Zusammenhang herstellt zwischen amerikanischem New Deal, deutschem Nationalsozialismus und Stalins Konterrevolution in Russland; und der begonnenen, aber verratenen Welt revolution. Nein, das kann nicht sein.
JE

Montag, 26. Januar 2015

Die Revolution der künstlichen Intelligenz steht uns noch bevor.

aus WirtschaftsWoche, 26. 1.2015                                                                                                  digitaltrends

Genies vom Fließband
Mensch und Computer wachsen zusammen, intelligente Maschinen übernehmen Arbeit und Alltag. Aber was bleibt von uns, wenn Maschinen klüger sind als wir? Der Auftakt zur neuen Serie „Wirtschaftswelten 2025“.

An das Idol ihrer Jugend in den Achtzigerjahren kann sich Cynthia Breazeal noch lebhaft erinnern. Nicht etwa John Travolta begeisterte sie – sondern R2D2, der Roboter aus Star Wars. „Er sorgte sich um die Menschen“, sagt sie, wenn sie über ihre Faszination für schlaue Maschinen spricht, „er entwickelte enge persönliche Beziehungen.“

Heute, mit 47 Jahren, hat sich Breazeal einen Namen als Roboter-Expertin gemacht. Die Professorin am Massachusetts Institute of Technology (MIT) sieht die Zeit gekommen: R2D2, der mitfühlende Kino-Droide, soll Wirklichkeit werden.

Ihre Schöpfung sieht zwar noch aus wie ein Schreibtischcomputer des Designers Luigi Colani: Ein kreisrunder Bildschirm auf einem zylindrischen Fuß. Doch Jibo, wie die Forscherin ihre schlaue Schöpfung nennt, kann weit mehr als übliche Rechner.

Er erkennt Menschen am Gesicht und dreht sich zu ihnen hin. Er hört zu und antwortet. Er erledigt Jobs, die sein Besitzer ihm zuruft: Pizza beim Italiener bestellen etwa oder Termine im Kalender notieren.

Die Entwicklungsstufen Künstlicher Intelligenz

1950 - Alan Turing

1956 - Dartmouth-Konferenz

1974 - Erster KI-Winter

1997 - Deep Blue

2005 - Ray Kurzweil

2014 - KI-Boom

2045 - Roboter-Revolution

Für die rund 5000 Kunden, die Jibo zum Preis von 500 Dollar vorbestellt haben, mag er vor allem ein Spielzeug sein. Für Forscher wie Breazeal, die sich mit künstlicher Intelligenz (KI) beschäftigen, aber ist er viel mehr: Er ist Wegbereiter einer nicht mehr fernen Ära, in der Jibo sein Abitur besteht, Medizin studiert und seine Mitmenschen mit neunmalklugen Sprüchen nervt. In der uns keine Lehrer mehr unterrichten, sondern virtuelle Tutoren, die so schlau sind wie die besten Experten ihres Gebiets – sozusagen Genies vom Fließband. In der uns Roboter so gut kennen wie sonst nur unsere Partner. „Es wird nichts Größeres geben in diesem Jahrhundert als den Aufstieg künstlicher Intelligenz“, sagt auch Jürgen Schmidhuber, wissenschaftlicher Direktor des Schweizer Forschungsinstituts für KI, IDSIA.

Das Ende einer Epoche

Seine Töchter sind um das Jahr 2000 geboren, laut Statistik werden sie 100 Jahre alt. „Sie verbringen vielleicht den größten Teil des Lebens in einer Welt“, sagt Schmidhuber, „in der die Klügsten keine Menschen mehr sind.“ Sondern Maschinen.

Es wäre das Ende einer Millionen Jahre währenden Epoche, in der Homo sapiens und seine Vorfahren die größten Schlauberger auf diesem Planeten waren.

Futuristische Neubauten, Autobahnen in schwindelerregender Höhe, Fassaden aus Algen: So stellen sich Visionäre die Stadt der Zukunft vor – doch sie irren. Ein Multimedia-Spezial über die Stadt der Zukunft.

Für Fortschritts-Enthusiasten wie den Zukunftsforscher Ray Kurzweil oder den Publizisten Kevin Kelly kann diese Zeitenwende gar nicht bald genug kommen. Schlaue Maschinen, glauben sie, schaffen ein ungeheures Plus an Produktivität, eine Welle neuen Wohlstands.

Schon in 15 Jahren, hofft Kurzweil, werden fast nur noch Roboter in unseren Fabriken schuften, unsere Felder beackern, unsere Autos chauffieren. Dann werden Roboter Roboter bauen, Software wird Software programmieren, Maschinen werden Maschinen überwachen. Niemand müsste mehr arbeiten.

Mehr noch: Noch vor 2050, glaubt Kurzweil, könnten künstliche Superwissenschaftler unsere Gene umprogrammieren und so die großen Plagen der Menschheit besiegen: Krebs, Alzheimer, ja gar den Tod.

Andere fürchten sich vor einer Zukunft voller künstlicher Gehirne.

Der Physiker Stephen Hawking, mit einem IQ von 160 einer der intelligentesten Menschen der Welt, warnte jüngst vor einem Zeitalter, in dem superclevere Maschinen die Macht über die Menschheit übernehmen.

Skeptisch ist auch Elon Musk, Gründer der Elektroautoschmiede Tesla und des Raumfahrtunternehmens SpaceX, ebenso wie Nick Bostrom, Philosoph an der Oxford University.

Künstliche Intelligenz ist längst unter uns

Das Entstehen einer technischen Superintelligenz, schreibt Bostrom, sei vermutlich „die wichtigste und zugleich einschüchterndste Herausforderung, der sich die Menschheit jemals stellen musste“.

Werden wir zu possierlichen Haustieren für Roboter, die wir selbst erschaffen haben? Wird KI gar unsere letzte Erfindung sein? Niemand kann es vorhersagen. Aber wir müssen jetzt darüber nachdenken. Denn anders, als viele noch immer glauben, ist künstliche Intelligenz keine Science-Fiction mehr – sie ist längst unter uns.

In den Roboter-Staubsaugern, die wie krümelfressende Ameisen durch unsere Wohnung patrouillieren. In Googles selbstfahrenden Autos, die mehr als eineinhalb Millionen Kilometer unfallfrei unterwegs waren. Oder auf den Servern vo >Facebook, die heute schon erkennen, wenn wir Fotos von unserer Zechtour posten wollen, und uns demnächst davon abraten, es zu tun.

Laut dem Datenanalyse-Unternehmen Quid sind seit 2009 mehr als 17 Milliarden Dollar Kapital in Unternehmen geflossen, die an cleveren Computerprogrammen arbeiten. Google, Facebook, die chinesische Suchmaschine Baidu: Alle Internet-Konzerne haben KI-Labore eröffnet, Start-ups gekauft und Top-Wissenschaftler von den besten Universitäten der Welt abgeworben.

Denken wird zur Dienstleistung

IBM startete im Januar gar eine eigene Konzerneinheit für seinen Supercomputer Watson, ausgestattet mit einer Milliarde Dollar Investitionsmitteln. „Watson versteht natürliche Sprache“, sagte Stephen Gold, Marketingchef der Konzerneinheit, vor Kurzem in Las Vegas. „Er erkennt Muster in Massen an Daten. Und er lernt dazu.“

IBM will andere Firmen dazu bringen, das Superhirn für Apps und Dienste zu nutzen. KI zum Einbauen, gewissermaßen. Denken wird zur Dienstleistung, die Computer übernehmen.

„Künftig wird es Tausende, ja Millionen von KI-Systemen geben, an die wir verschiedenste Aufgaben delegieren“, so Neil Jacobstein, der seit Jahren zur KI forscht und das Fach an der kalifornischen Singularity University unterrichtet.

Zugleich warnt er: „Es ist kein weiterer technischer Durchbruch mehr nötig, um eine große Zahl qualifizierter Jobs zu zerstören.“ Eine Studie von Forschern der Oxford-Universität kam jüngst zu einem erschütternden Ergebnis: Binnen zwei Jahrzehnten könnten schlaue Computer fast die Hälfte der Arbeitsplätze in den USA ersetzen.

Ob sich die Prognosen erfüllen, hängt davon ab, ob sich die zugrunde liegenden Annahmen erfüllen: Etwa, dass Computer immer schneller werden (siehe Grafik). In 18 bis 24 Monaten, so sagt es das Mooresche Gesetz voraus, werden sie doppelt so viel Rechenaufgaben pro Zeiteinheit lösen wie heute. Im Jahr 2018 schon viermal so viele, 2020 achtmal so viele.

Schon heute haben Supercomputer, gemessen an den Rechenoperationen pro Sekunde, etwa die Rechenleistung des menschlichen Gehirns. 2023, glaubt Kurzweil, wird es derart starke Rechner für 1000 Dollar geben. Dazu müssten sich neue Prozessor-Techniken etablieren, die HP, IBM und Co. derzeit in ihren Laboren erproben.

Unsere Daten füttern künstliche neuronale Netze

Was den KI-Boom zusätzlich antreibt, sind die riesigen Datenbestände, die Computer heute nutzen können: Schon 2015 werden laut dem NetzwerkausrüsterCisco alle zwei Tage fünf Exabytes an Informationen durch das Internet fließen. Das entspricht fünf Milliarden Gigabyte oder – nach einer Schätzung der Universität Berkeley in Kalifornien – sämtlichen Wörtern, die Menschen je gesprochen haben.

Diese Infoflut wird in den kommenden Jahren zum Daten-Tsunami: Vom Haustürschloss über das Auto bis zum Körperimplantat werden jedes Jahr Milliarden von Objekten ans Internet angeschlossen. Und Forscher entwickeln immer bessere Rechenformeln, Algorithmen genannt, um aus den Datenschätzen schlau zu werden.

- Sie lernen Sehen: 2012 brachte sich ein KI-System von Google selbst bei, Katzen in Millionen Einzelbildern aus YouTube-Videos zu erkennen – ohne zuvor zu wissen, dass es so etwas wie Katzen überhaupt gibt. Mitte November verblüffte der Internet-Riese die Welt mit einem System, das sehr zuverlässig Fotos in ganzen Sätzen beschreiben kann: „Zwei Hunde spielen im Gras“, steht da unter einem Foto, oder „eine Gruppe junger Leute spielt Frisbee“.

- Sie lernen Hören: Die App Captioning on Glass blendet in Googles Datenbrille Glass als Text ein, was das Gegenüber sagt – und hilft so Hörgeschädigten. Demnächst erhält der Microsoft-Dienst Skype, über den jeden Monat rund 300 Millionen Menschen Videotelefonate führen, sogar einen Übersetzungsdienst: Die Worte der Tante aus Bolivien, die nur Spanisch spricht, kann der Neffe hierzulande als deutschen Untertitel auf dem Bildschirm lesen.

- Sie lernen Denken: Ein Rechner am Allen Institute for Artificial Intelligence in Seattle – dem KI-Institut von Microsoft-Gründer Paul Allen – bestand im September gar den naturwissenschaftlichen Standardtest für zehnjährige Schüler im US-Bundeststaat New York. Die Prüfung umfasst zwar viele Schaubilder, die der Computer noch nicht entschlüsseln kann. Bei den Textaufgaben ist die Maschine aber schon so gut, dass sie insgesamt ein Ausreichend erhielt.

Wie erstaunlich die Lernfortschritte der Rechenknechte sind, wird erst so richtig bei einem Vergleich mit dem menschlichen Gehirn klar. Das wiegt im Schnitt 1300 bis 1400 Gramm, ist von außen betrachtet nur eine faltige Glibbermasse aus Fetten, Eiweißen und Zuckern. Und doch ist dieses kleine Organ – durch Millionen Jahre der Evolution verfeinert – noch immer der mächtigste Computer, den die Welt gesehen hat. Forscher sprechen gar vom kompliziertesten Gebilde des Planeten.

Studien zufolge besteht das Gehirn aus 100 Milliarden Nervenzellen. Sie sind über Nervenfasern miteinander verbunden. Die zusammen schätzungsweise 5,8 Millionen Kilometer lang sind – rund 15-mal die Entfernung zwischen Erde und Mond.

Und sie sind auf irrwitzig komplizierte Weise miteinander verschaltet: Jede Nervenzelle hat im Schnitt zu 10.000 anderen Nervenzellen Kontakt; ein Labyrinth von ungefähr einer Billiarde Verbindungen.

Algorithmen bestimmen unser Leben

Über diese Schnittstellen tauschen die Zellen Signale miteinander aus. In diesem sich stetig verändernden Zusammenspiel zahlreicher Nervenzellen, auch neuronale Netze genannt, entstehen auf wunderbare, noch immer kaum verstandene Weise Empfindungen und Gedanken,

Wichtigster Trick der KI-Forscher seit Jahrzehnten ist es, diese neuronalen Netze am Computer nachzubauen – in sehr abstrakter Form. Sie teilen dazu die künstlichen Nervenzellen in verschiedene Ebenen ein.

Wenn der Rechner etwa ein Bild erkennen soll, dann erfasst die erste Ebene nur die Helligkeitswerte der Bildpixel. Eine nächste Ebene erfasst, wo die Pixel Kanten und Flächen bilden. Einige Ebenen weiter sind künstliche Nervenzellen darauf abgerichtet, Augen, Nasen und Münder und schließlich Gesichter zu identifizieren.

Die künstlichen neuronalen Netze lassen sich trainieren. Sie lernen gar selbstständig, neue Muster zu erkennen. Forscher sprechen von maschinellem Lernen.

Die Technik der Algorithmen greift um sich

Es ist eine Technik, die in den nächsten fünf Jahren in nahezu alle Bereiche unseres Alltags vordringt. Im Büro werden virtuelle Assistenten, etwa als Apps auf unseren Handys, lästige Alltagsarbeiten erledigen: Sie organisieren Termine für Besprechungen (wie etwa der Dienst X.ai), lehnen E-Mail-Anfragen höflich ab (Less.Mail, noch im Teststadium) oder blenden bei Konferenzen passend zum Gesagten ein Dossier aus Wikipedia-Einträgen, Landkarten, Personenprofilen ein (MindMeld).

Beim Einkaufen greifen uns Shopping-Assistenten unter die Arme. Im Supermarkt erklären uns Apps, ob uns ein bestimmter Wein schmecken wird (Next Glass), Mikrofone im Wohnzimmer nehmen Online-Bestellungen an (etwa Amazons neuer Hausbutler Echo), und clevere Online-Assistenten planen anhand unserer Vorlieben komplette Urlaubsreisen (Wayblazer).

Zugleich drängen KI-Systeme in professionelle Bereiche. In Hospitälern wie dem Memorial Sloan-Kettering Cancer Center in New York empfiehlt IBMs Watson bereits Krebstherapien – auf Basis von Millionen Seiten Fachtexten und Befunden, die ein Arzt gar nicht gelesen haben kann. Und in Röntgenaufnahmen spüren KI-Systeme Tumore schon zuverlässiger auf als Mediziner.

Denkende Maschinen, totale Vernetzung, smarte Dienste

Die Algorithmen können künftig sogar Herzinfarkte vorhersagen. Das ergab eine Studie der Carnegie Mellon University in Pittsburgh. Die Forscher hatten Daten wie Blutdruck oder Puls von 133.000 Patienten ausgewertet, die im Krankenhaus eine Herzattacke erlitten hatten. Ein elektronisches Pflaster auf der Brust oder am Handgelenk, das kontinuierlich verschiedene Körperwerte misst, könnte so eines Tages Infarkte vorhersagen – und Leben retten.

Im Mai berief der Wagniskapitalgeber Deep Knowledge Ventures sogar einen Algorithmus namens Vital in den Vorstand. Der soll mitentscheiden, wo das Unternehmen investiert. Kollege Computer ist im Top-Management angekommen.

Spätestens 2020, glauben Experten, wird sich unser Umgang mit Computern radikal verändert haben. Schlaue Sprachassistenten auf dem Handy wie Siri (Apple), Google Now oder Cortana (Microsoft) werden uns sehr viel besser verstehen als heute. Wir werden uns in natürlicher Sprache mit ihnen unterhalten. Googles Produktchef Sundar Pichai träumt von Handys, die alle Gespräche verfolgen und ihrem Besitzer im Nachhinein, vielleicht Jahre später, erzählen, worum es ging.

Bald ist Ihr neuer Kollege eine Maschine - denn die Arbeitswelt steht vor der nächsten Welle der Automatisierung. Nun sind sogar die Jobs der Wissensarbeiter bedroht.

Handy-Apps wie Shazam sind schon heute in der Lage, Musik aus dem Radio anhand von ein paar Takten korrekt zu erkennen. An einem solchen Shazam für Mode arbeiten nun auch Start-ups wie Code is the new black und Asap54. Oder wir filmen ein Tier im Zoo, und der digitale Tutor beginnt seinen Biologievortrag.

Die Jahre bis zur Mitte des nächsten Jahrzehnts könnten noch eine viel schnellere Entwicklung bringen. Denn Computer für den Schreibtisch nähern sich dann mit großen Schritten der Rechenleistung des menschlichen Gehirns, die Experten auf zehn Billiarden (eine Eins mit 16 Nullen) Rechenoperationen pro Sekunde taxieren.

Umfassende Umbrüche durch Künstliche Intelligenz

Bis 2023 will das Human Brain Project, ein Milliarden-Euro-Vorhaben der EU unter Leitung des Hirnforschers Henry Markram von der Eidgenössischen Technischen Hochschule Lausanne, unser Denkorgan auf Superrechnern simulieren. Dazu entwickeln die Forscher hirnähnliche Computerchips, virtuelle Körperteile und komplexe, künstliche neuronale Netzwerke.

Sollte das gelingen, wäre der Schritt zu einer Maschinenintelligenz getan, die es halbwegs mit Menschen aufnehmen kann. Manche, wie der Neuroinformatiker Peter Dayan vom University College London, glauben zwar, das Human Brain Project müsse scheitern, weil das Hirn noch kaum verstanden sei.

Doch auch Flugzeuge fliegen, obwohl sie keine Federn haben. Vielleicht reichen schon dem Gehirn nur entfernt ähnelnde Computer, um ihnen heute unvorstellbare Geisteskraft zu verleihen.

Extrem schlaue Roboter etwa. Gehen, Greifen, Gucken – das fällt Androiden heute noch so schwer wie Babys. Doch in zehn Jahren könnten die Digital-Diener schon zu Halbstarken herangewachsen sein. Drohnen wiederum könnten dann Hindernisse erkennen, sich an markanten Bäumen oder Häusern orientieren und uns eilige Bestellungen in ein Netz am Balkon werfen.

Smartphones, Tablets und Elektroautos: Im Jahr 2030 dürften die technischen Errungenschaften unserer Zeit so altbacken anmuten, wie heute ein Bakelit-Telefon. Unserer Gesellschaftsform könnte es ähnlich ergehen.

Armeen von Androiden schrauben in Fabriken Seite an Seite mit Menschen Handys, Autos und Möbel zusammen – und arbeiten vielerorts ganz allein. Wenn die Entwicklung sehr schnell voranschreitet, wird Jibo gar daheim aufräumen, die Spülmaschine bestücken und schmutzige Wäsche in die Waschmaschine bringen.

All diese Dinge tun Roboter in Laboren heute schon; wenn auch im Schildkrötentempo und mit allerlei Missgeschicken. Bessere mechanische Hände, Gelenke und künstliche Haut mit Tausenden Sensoren könnten sie geschickter machen.

Wie er nach Tellern greift oder Flaschen öffnet – kurz: allerlei Wissen über die Welt –, kann sich Jibo bald aus dem Internet laden. Denn all diese Informationen speichern Forscher nun auf zentralen Plattformen namens Robo Brain und Robo Earth – Wikipedia für Androiden. Start-ups wie Affectiva und Beyond Verbal bringen Maschinen derweil bei, Gefühle in Gesichtsausdrücken und Stimmlagen zu erkennen.

Damit läuft alles in zügigem Tempo auf eine Welt hinaus, wie sie der Kinofilm „Her“ beschreibt. Dessen Held hat eine virtuelle Assistentin, mit der er über einen Knopf im Ohr spricht. Bis die Dinge kompliziert werden – weil er sich in sie verliebt.

Die Fiktion lässt erahnen, wie sehr die KI-Revolution die Gesellschaft in der Wirklichkeit umwälzen kann. 2025 schon könnten schlaue Maschinen die Arbeit von 140 Millionen Wissensarbeitern leisten, erwartet die Beratung McKinsey. Etwa Vertriebler, Juristen, Softwareentwickler.

Schon als die Dampfmaschine erfunden wurde, fürchteten die Menschen Massenarbeitslosigkeit – letztlich entstanden genug neue Jobs. Aber da heute geistige Arbeit automatisiert wird, droht das erheblich schwieriger zu werden.


Sollte Arbeit immer weniger das Vehikel sein, um am Wohlstand der Gesellschaft teilzuhaben, muss er anders verteilt werden. Etwa per Grundeinkommen für jeden. Die Frage ist, ob erst Aufstände gegen die Maschinen ausbrechen müssen, eh sich solche Modelle durchsetzen.

Und die Umbrüche, die KI auslösen wird, reichen noch weiter. Menschen vergessen Dinge, Roboter nicht. Menschen werden krank, Roboter nicht. Menschen sterben, Roboter nicht. Sie kopieren ihr Wissen auf baugleiche Modelle.

Wir werden versuchen mitzuhalten – vielleicht mit Chips im Gehirn, die uns mit dem Wissen des Internets verbinden, wie Kurzweil vermutet. Die Frage bleibt: Wenn Maschinen so schlau werden wie der Mensch – was bleibt dann als der Kern des Menschlichen? Intensive soziale Interaktion, Kreativität – das, sagen Experten wie Michael Osbourne, werde sich nicht so rasch auf Maschinen übertragen lassen.

Ob das stimmt? Kürzlich hat IBM ein Kochbuch verfasst, mit Rezepten von Computer Watson. Seine Schöpfungen sind sicher ungewöhnlich, auf jeden Fall aber kreativ: „Indische Kurkuma Paella“ etwa, oder „Schweizerisch-Taiwanische Spargel-Quiche“. Den Testköchen, heißt es, hätten die Computer-Kreationen geschmeckt.




Samstag, 24. Januar 2015

Die Arbeitsgesellschaft wird prekär.

aus Der Standard, Wien, 22. Jänner 2015, 10:00

"Es fragt sich, was heute noch ein normaler Job ist"
Die Erwartung, dass eine gute Ausbildung die Existenz sichert, ist weniger denn je berechtigt, sagt der Soziologe Nikolaus Dimmel

INTERVIEW  MARIA STERKL

Arbeit schützt vor Armut nicht, das Phänomen der "Working Poor" nimmt zu. Welche Folgen das hat und warum Jugendliche den Glauben an die "Heilsversprechen" zu Recht verloren hat, sagt der Soziologe Nikolaus Dimmel.
derStandard.at: Gilt die Aussage "Wer sich anstrengt, dem wird es gutgehen" auf dem heutigen Arbeitsmarkt?
Dimmel: Die Sicherheit, dass man mit einer guten Ausbildung auch einen Job finden wird, der die Existenz sichert, ist verschwunden. Das Problem ist, dass unsere gesamte Arbeitswelt und ihre Narrative – "life long learning", "making work pay" – implodiert ist. Wir haben heute Akademiker, die sechs oder sieben Jahre in ein Studium investieren und dafür Einkommensverzicht in Kauf nehmen und Familienplanung aufschieben – und die dann mit 1.200 Euro netto anfangen. Das ist eine zerrüttende Erfahrung. Es gibt eine Untersuchung, wonach in Österreich Soziologen erst mit Ende Dreißig ihren ersten regulär sozialversicherungspflichtigen Job haben. Bis dahin ist es nur ein Hüpfen von einem Projekterl zum nächsten.
derStandard.at: Wie viele Menschen sind in Österreich "Working Poor"?
Dimmel: Rund neun Prozent der unselbstständig Erwerbstätigen, also rund 300.000 Menschen. Sie kommen mit dem, was sie in der Arbeit verdienen, und dem, was es sonst im Haushalt an Erträgen gibt, nicht über die Armutsschwelle.
derStandard.at: Heißt das im Umkehrschluss, dass alle, die keine Working Poor sind, einen Job haben, der ihnen den Lebensunterhalt sichert?
Dimmel: Nein. Die meisten Haushalte haben neben dem Erwerbsarbeitseinkommen auch noch Transferein- kommen – also Kindergeld, Familienbeihilfe –, andere haben Renditeneinkommen, weil sie Wohnungen vermieten oder Ähnliches. Das heißt: Jemand kann in der Arbeit 300 Euro monatlich verdienen, aber 30.000 Euro aus dem Erträgnis eines Zinshauses – er gilt dann nicht als Working Poor. Die Definition ist eine völlig künstliche: Sie sagt bloß, wer in dem Haushalt arbeitet und trotz Unterhaltszahlungen, Familienbeihilfe oder sonstiger Erträge arm ist.
derStandard.at: Das heißt: Es gäbe nach dieser Definition auch Menschen, die, würden sie alleine leben, nicht erwerbsarm sind – zusammen mit anderen hingegen schon. Und umgekehrt.
Dimmel: Ja. Hätte ich für mich selber 1.100 Euro netto, wäre ich oberhalb der Armutsschwelle. Habe ich aber zwei kleine Kinder und keinen Partner, der auch verdient, komme ich mit meinem Drei-Personen-Haushalt auch inklusive Familienbeihilfe ziemlich sicher nicht über die Schwelle. Und umgekehrt: Leute, die selbst Working Poor sind, sind es nicht, weil sie mit einem Partner liiert sind, der genug verdient.
derStandard.at: Heißt das, dass es bei Frauen eine hohe Dunkelziffer an Working Poor gibt?
Dimmel: Davon ist auszugehen, ja. Wobei auch der Staat die Armutslücke verringert. Ohne staatliche Transfer- leistungen wären 44 Prozent armutsgefährdet, mit Transferleistungen sind es zwölf Prozent.
derStandard.at: Wird die Zahl an Menschen, die von ihrer Arbeit nicht leben können, zunehmen?
Dimmel: Nirgends sonst in Europa sind die Reallöhne in den letzten 15 Jahren so stark gesunken wie in Österreich. Wir haben zwar immer mehr Jobs, aber auf die einzelne Arbeitskraft entfallen immer weniger Stunden, die dann immer schlechter bezahlt werden. Daher ist zu erwarten, dass die Zahl der Working Poor in Zukunft steigen wird. Die EU-Kommission verfolgt ja das Ziel, Niedriglohnbereiche auszuweiten um auf diese Weise Beschäftigung zu schaffen. Gleichzeitig gibt es immer mehr atypische Beschäftigungsverhältnisse – im Jahr 2013 waren in Salzburg erstmals mehr als die Hälfte der unselbstständig Beschäftigten als atypisch einzu- stufen. Da muss man sich fragen, was heute eigentlich noch ein "normales" Arbeitsverhältnis ist – und ob man mit einem einzigen Job überhaupt auskommt.
derStandard.at: Wem nützt das, wenn es immer mehr Menschen gibt, die von der Arbeit nicht leben können und folglich kaum Steuern zahlen und wenig konsumieren?
Dimmel: Diese "Jobs, Jobs, Jobs"-Perspektive ist eine Art quasireligiöse Fixierung auf Lohnarbeit. Die Indus- triestunden-Produktivität hat in den letzten 25 Jahren derartig zugenommen, dass wir, um das Lebenshaltungs- niveau von Anfang der Neunzigerjahre zu halten, pro Tag nicht mehr als drei Stunden arbeiten müssten. Diese Gewinne wurden nicht weitergegeben, es wurden de facto immer mehr Jobs wegrationalisiert. Die Leute werden heute in einen Kreislauf geschickt, wo sie sich um Jobs bewerben, die nicht mehr existieren. Das ist das Kern- problem. Die Arbeit wird immer stärker automatisiert, die menschliche Arbeitskraft wird nur noch einge- schränkt nachgefragt. Viele Unternehmen reinvestieren ihre Gewinne ja nicht in den Betrieb, sondern in Immobilien, in Finanzkapital. Dort werden Renditen versprochen, die beim Sechs- bis Achtfachen von dem liegen, was man mit Realwirtschaft verdienen kann.
derStandard.at: Warum schneidet Österreich bei der Reallohnentwicklung so schlecht ab?
Dimmel: Die Gewerkschaften sind seit 1993 gegenüber den Arbeitgebern in einer strukturellen Defensive, weil die ständige Abwanderungsdrohung seither ihre Wirkung zeigt. Die Abschlüsse haben mit der Stundenprodukti- vität, mit dem Reichtum der Gesellschaft nicht Schritt gehalten.
derStandard.at: Wie wird man Working Poor?
Dimmel: Das sind oft Menschen in eher einfachen angelernten Tätigkeiten. Oft sind es vererbte niedrige Bildungsbeteiligungen. Diese haben oft wenig in Bildung investiert – vorrangig war, in den Arbeitsmarkt zu gehen, um Geld zu verdienen. Dazu kommt, dass Working Poor oft aus klassischen Familienverbünden herausfallen – also Alleinerziehende, Leute, die in ihrer bürgerlichen Ehe ein Desaster hinter sich haben. Oft haben sie im Lebensarbeitsverlauf auch viele Unterbrechungen, sie switchen immer wieder in die Arbeitslosig- keit und wieder heraus. Dieses ständige Rein und Raus bewirkt eine Art Entmutigung – sie glauben an nichts mehr. Auf einem Arbeitsmarkt, wo Selbstvermarktung der Arbeitnehmer so wichtig geworden ist, wo sich jeder verkaufen muss, sind solche Leute noch einmal schlechter dran.
derStandard.at: Wie wirkt sich das gesellschaftlich aus, wenn die Zahl dieser Entmutigten steigt?
Dimmel: Diese Demoralisierung ist schon auch eine Triebfeder dafür, sich fundamentalistischen Strömungen, sei es im Islam, sei es Pegida, anzuschließen. Dort spielt sich eine Art Selbstvergewisserung ab: "Ich zähle auch noch." Wenn ich junge Menschen mit T-Shirts mit der Aufschrift "Ich bleib Ghetto" sehe, denke ich: Das ist im Grunde die einzig vernünftige Reaktion jener, denen man über Jahre einen meritokratischen Aufstieg verweigert hat. Dieses Problem haben ja nicht nur die Working Poor, sondern alle, die geglaubt haben, dass es wie in den 70er-Jahren sei, dass Leistung mit sozialem Aufstieg belohnt würde.
derStandard.at: Inwiefern unterscheidet sich die berufliche Perspektive der heute 20-Jährigen von der ihrer Großeltern?
Dimmel: Das hat sich massiv verändert. Am Arbeitsmarkt gibt es heute das Anforderungsprofil einer ständigen Verfügbarkeit. Man muss ein flexibler Arbeitskraftunternehmer sein, der lebenslang lernt, der sich ununter- brochen umorientiert. Diese hohen Anforderungen sind völlig kontrastiert von den Einkommens- versprechen, die da gegeben werden. Die logische Schlussfolgerung ist: Wenn einer im Börsengeschäft in fünf Minuten zwei Millionen Euro verdient – was ist dann mein Anreiz, 60 Stunden für 1.300 Euro zu arbeiten? Von daher ist es sehr vernünftig, wenn junge Leute sich zunehmend säkularisieren und an gar keine Heilsversprechen des Arbeitsmarktes mehr glauben. Sie sagen: Der Arbeitsmarkt ist Lotto. Wenn du Mathematik oder Physik studierst, weil es heißt, damit kriegst du einen Job, dann kann keiner sagen, wie es in fünf, sieben Jahren ausschaut – möglicherweise ist die Qualifikation, die du jetzt erwirbst, in zehn Jahren völlig obsolet. Wenn man sich anschaut, wie junge Wissenschafter in Projektverträgen gehalten werden, ist das eine Art feudaler Abhängigkeit. Letztlich ist es nur vernünftig zu sagen: Macht das ohne mich, ich mache etwas völlig anderes.
derStandard.at: Was kann dieses "andere" sein?
Dimmel: Bei den oberen Mittelschichten ist es die Perspektive des Aussteigens, die werden Bergbauern in Osttirol. Bei den unteren Mittelschichten sind es eher Formen der Autoaggression oder Fremdaggression. Vor allem die von dramatischen Verwerfungen betroffenen Modernisierungsverlierer wenden sich eher gewaltbere- iten Widerstandshandlungen zu. Die Jungen steigen aus der Schule aus, und das Leben erscheint wie eine völlig unlösbare Aufgabe – nur die Reaktionen sind schicht- und milieuspezifisch unterschiedlich. Für manche ist der Weg der dramatischen Selbst- und Fremdauslöschung schon attraktiver als das Nachdenken darüber, wie ich in einer bürgerlichen Gesellschaft mit legalen oder herkömmlichen Mitteln, also Bildung, Anstrengung, sozialen Aufstieg erreichen kann.
derStandard.at: Was können Gegenstrategien sein? Wie kann angesichts solcher Vorzeichen Arbeitsmarktpolitik funktionieren?
Dimmel: Raus aus der Privatisierung, Schaffen eines dritten Arbeitsmarktes für die explodierende Masse an – um es neoliberal auszudrücken – unverwertbarem Humankapital. Krankenhäuser, Straßen, Züge, Abwasserentsorgung: All diese Formen der Auslagerung sind gescheitert. Viel notwendige Arbeit wird in Österreich nicht getan, etwa die Gebäudesanierung, umfassende Altenpflege. Da ist es Aufgabe des Staates, Beschäftigung zu generieren. Und: 460.000 Arbeitslose, das ist eine Zahl, die man nicht mehr als Betriebsunfall bezeichnen kann. 
Nikolaus Dimmel ist Soziologe und Jurist. Er lehrt und forscht an der rechtswissenschaftlichen Fakultät der Universität Salzburg und ist geschäftsführender Gesellschafter des Instituts für Social-Profit-Management.


Nota. - Dieser Beitrag schließt an den vorangegangenen an. Der Tauschwert verfällt, die Arbeitskraft hört auf, die allgemeinst nachgefragte Ware zu sein, die Arbeitsgesellschaft löst sich auf. Der Gedanke an Palliative und Hausmittelchen, wie etwa den weiteres Ausbau der öffentlichen Dienste, liegt nahe, ist aber dem sich anbahnenden historischen Wandel überhaupt nicht ange- messen.
JE 

Donnerstag, 22. Januar 2015

Industrie 4.0?

Roboter schweissen die Karosserie eines Volkswagen.
aus nzz.ch, 22.1.2015, 05:30 Uhr

Potenzial von Industrie 4.0
Das Internet kommt in die Fabrik
Noch sind es meist kühne Visionen und die hohen Erwartungen, die das Bild einer digitalisierten Fertigung prägen. Eine Verschmelzung der industriellen Prozesse mit Informationstechnologie ist nicht ohne Tücken.

von Giorgio V. Müller

Das Schlagwort Industrie 4.0 ist in aller Munde. Über kaum ein anderes Konzept ist in den vergangenen Jahren in der Industriebranche so viel diskutiert worden wie über die (angeblich) vierte industrielle Revolution. Trotzdem ist das entsprechende Wissen darüber, was alles damit zusammenhängt und welche Massnahmen zu treffen sind, um als Gewinner aus dieser Transformation hervorzugehen, offenbar nach wie vor recht bescheiden (vgl. untenstehenden Text). Gleichzeitig werde medial und in der Politik «viel Schaum geschlagen und schön geredet», erklärt der Wissenschafter Rainer Drath, der Experte im deutschen ABB-Forschungszentrum Ladenburg für dieses breite Thema ist. Es gebe in der Öffentlichkeit noch viel Unverständnis darüber, was Industrie 4.0 bedeute und wie diese Vision umgesetzt werde, sagt er. Doch Industrie 4.0 werde kommen und kein Gebiet des Technologiekonzerns unberührt lassen, sagt er überzeugt.

Immer kürzere Revolutionen

Die wichtigsten vier Phasen der industriellen Fertigung haben gemeinsam, dass sie sich in immer schnellerer Folge abspielen. Ende des 18. Jahrhunderts machte der erstmalige Einsatz der Wasserkraft und der Dampfmaschine eine mechanisierte Fertigung möglich. Die zweite Phase begründete die mit dem Fliessband verbundene Massenproduktion. Mitte der 1970er Jahre begann die Automatisierung, als Computer und Roboter in der Fabrik Einzug hielten. Die ersten Merkmale der vierten industriellen Revolution waren kurz nach der Jahrtausendwende spürbar, als der Durchbruch des Internets ganz neue Möglichkeiten eröffnete. Damit war auch die Einführung von Internetfunktionen in der Produktion möglich, mit der physische und virtuelle Systeme miteinander verbunden werden.



Das internationale Beratungsunternehmen Deloitte, das schon vor einiger Zeit eine Studie über die digitale Zukunft des Standorts Schweiz verfasst hat («Werkplatz 4.0»), versteht darunter sowohl die vertikale Vernetzung intelligenter Produktionssysteme (Smart Factories) als auch die horizontale Integration globaler Wertschöpfungsketten, die auch Kunden und Lieferanten mit einbezieht. Das erlaubt eine Beschleunigung sowie durchgängige Anpassung der industriellen Prozesse, weil sie nicht nur zentral gesteuert und überwacht, sondern auch modifiziert werden.

Empfehlungen für die KMU

In Deutschland, wo sich wegen der gesamtwirtschaftlichen Bedeutung der Industrie schon seit einigen Jahren verschiedene Gremien mit dem Thema befassen, hat z. B. das Information Management Institut (IMI) der Hochschule Aschaffenburg bereits konkrete Handlungsempfehlungen erarbeitet, die vor allem den mittelständischen Unternehmen die Transformation zu Industrie 4.0 erleichtern sollen. Das passt gut ins Bild der im Vergleich mit der Schweiz stärker angewandten Industriepolitik in Deutschland, wo das Thema seit 2012 ein strategisches Projekt der Bundesregierung ist. Und die Aktivitäten der verschiedenen Verbände werden in einem gemeinsamen Lenkungskreis (Plattform Industrie 4.0) koordiniert und verbunden.



Höchste Priorität müsse der Flexibilisierung der Produktion eingeräumt werden, schreibt das IMI. Während die Hardware zunehmend standardisiert wird, sind für die Kunden dank dem Einsatz von Software immer kleinere Stückzahlen möglich bis hin zur Losgrösse 1, der absoluten Individuallösung. Gemäss Jan-Henning Fabian, dem Leiter des ABB-Forschungszentrums Ladenburg, ist vor allem die Automobilindustrie daran sehr interessiert. Bei der Herstellung von Luxuswagen sei eine individualisierte Fertigung, die auf alle Wünsche des Kunden Rücksicht nehme, schon heute der Fall. Das übergelagerte Ziel davon bleibe jedoch immer, die Produktivität für die Kunden zu erhöhen.

Die Verbindung von Industrie und Informatik verläuft jedoch nicht ohne Reibereien, denn kulturell sind die beiden Bereiche doch recht verschieden. Die Vertreter der Industrie würden sich eher konservativ verhalten, während sich die Informatiker gerne innovativ und progressiv gäben, aber mit den extrem hohen Anforderungen an die Sicherheit und Verfügbarkeit moderner Automatisierung weniger vertraut seien, sagt Drath. Für die Industrie hätten die Stabilität und die Verfügbarkeit der Technik absoluten Vorrang, weshalb sie sich stets eher vorsichtig und abwartend gegenüber neuen Technologien verhalte. Die Realisierung von Industrie 4.0 werde deshalb meist von der Technologieseite angetrieben, die bei diesem Thema der Industrie um Jahre voraus sei. Laut Drath versteht ABB ihre Aufgabe darin, das Machbare in den Dienst des Sinnvollen zu stellen. Deshalb erarbeite das Unternehmen eine Referenzarchitektur, die Altinvestitionen schütze. Für ihre Kunden sei der Investitionsschutz von grosser Bedeutung, sagt auch Jan-Henning Fabian. Das erfordert geradezu ein schrittweises, evolutionäres Vorgehen, damit die Revolution gelingt. Selbst der US-Technologiekonzern IBM empfiehlt einen dualen, evolutionären Ansatz, bei dem bestehende Maschinen und Teile erst nachträglich mit vernetzter Intelligenz ausgerüstet werden.

Mit der zunehmenden Einbindung ins globale Netz – oder im ersten Schritt in ein firmenspezifisches Netzwerk (private cloud) – werden Sicherheitsaspekte akut, denn die bisherige organisatorische Trennung zwischen Büro und Fabrik wird aufgehoben, und der Datenfluss stoppt nicht mehr vor dem Fabriktor. Nur wenn die IT-Sicherheit gewährleistet ist, wird sich Industrie 4.0 in der Fabrikautomation durchsetzen. Angesichts der immer mehr offenen Schnittstellen für die Kommunikation in der industriellen Umgebung ist das nicht einfach.

Europa als Gewinner?

Doch welche Firmen sind für diesen globalen Trend am besten gerüstet? Laut Drath orientieren sich die Asiaten daran, was bei europäischen Unternehmen geschieht, deren Stärken in einer Standardisierung und einer die Hersteller übergreifenden Vernetzung lägen. Dieses Querschnittdenken sieht auch Ralf Schulze vom Beratungsunternehmen CSC als den Trumpf der Europäer. Im Wettbewerb um Fachleute müsse die Fertigung «stadtkonform» werden, also dort sein, wo die Mitarbeiter seien. Die Chancen für eine Reindustrialisierung Europas sind also vorhanden, wenn ein grösserer Teil der Wertschöpfung wieder hierhergebracht werden kann.

Die USA hingegen sind technologisch führend. Sie seien «die Macher, die damit beginnen, bevor Standards fixiert sind», sagt Drath. In der Tat herrscht heute noch ein Sammelsurium von unterschiedlichen und zum Teil proprietären technischen Standards in der Automation. Das Thema Industrie 4.0 sei erst lanciert worden, sagt Fabian, sei aber nicht aufzuhalten. «Wir sind uns aber bewusst, dass alles langsam gehen wird», fügt sein Kollege Drath bei.





Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.