Lernende Fertigung

Wie Bilderkennung & Co. die Industrie verändern: fünf Beispiele
Alexa, Siri & Co.: Künstliche Intelligenz hält Einzug in unseren Alltag – und in die Industriefertigung. Was heute schon möglich ist und künftig möglich sein wird: fünf ausgesuchte Beispiele aus Deutschland, Japan und den USA.
TEXT: Boris Karkowski und Eva Rossner

Der Roboterchef ist in Hong Kong schon seit drei Jahren Realität. Der Venture- Capital-Fund Deep Knowledge hat seiner KI-Maschine „Vital“ eine Stimme in der Geschäftsführung eingeräumt. Vital soll Anlageoptionen recherchieren, auf die ein Mensch wohl nicht gekommen wäre – und darf dafür bei den Investmententscheidungen mit abstimmen. Tatsächlich scheint kaum ein Bereich sicher vor den intelligenten Algorithmen zu sein. Das regt zu Grundsatzdebatten an. Doch zugleich sollte der Blick auf die Realität für Ernüchterung sorgen. Allein der Versuch, Amazons KI-Anwendung Alexa dazu zu bringen, das Lied „Hated“ von Beartooth zu spielen, legt das zumindest nahe. Denn „schwache“ KI-Anwendungen haben selbst die Sprachdekodierung noch lange nicht perfektioniert.

Obgleich Künstliche Intelligenz (KI) und ihre Anwendungsfelder wie die Bild- oder die Spracherkennung noch am Anfang stehen, lohnt es dennoch, die Chancen der Entwicklung für das eigene Geschäft zu analysieren. In der industriellen Praxis stehen vor allem drei KI-Anwendungsfelder kurz vor dem Durchbruch: die Qualitätssicherung (vor allem durch Bilderkennung) von Produkten, die Vermeidung von Ausfallzeiten (Predictive Maintenance) und die Produktivitätssteigerung. Wir zeigen an ausgewählten Beispielen, wer die Anwendung bereits erprobt.

PRAXISBEISPIEL 1: TOSHIBA, JAPAN

BIG DATA MEETS KI: NIE WIEDER FEHLER MACHEN

Rund 2 Milliarden Datenpunkte werden täglich in Realzeit an rund 5.000 unterschiedlichen Maschinen und Prüfgeräten im Toshiba- Werk in Yokkaichi erhoben. In der japanischen Industrie- und Hafenstadt produziert der Technologiekonzern Flash-Speicher. Diese gigantische Datenmenge kann mit Hilfe von Machine-Learning und Deep Learning (siehe Kasten Seite 8) rasch analysiert werden – und zwar sehr viel schneller, als es Menschen jemals könnten.

So lassen sich nicht nur Fehler in der Zukunft (Predictive Maintenance) bereits heute verhindern; es werden auch bislang nicht bekannte Problemszenarien simuliert. Für diese können dann prophylaktisch Lösungen erarbeitet werden. In der Flash-Memory-Herstellung fallen unter anderem 300.000 Rasterelektronenmikroskop-Bilder an, die kategorisiert werden müssen. So lassen sich bis zu 100 mögliche unterschiedliche Fehler identifizieren und damit leichter mögliche Fehlerquellen aufspüren.

Dank Deep-Learning- Algorithmen konnte die korrekte Kategorisierung von 49 Prozent auf 83 Prozent gesteigert werden. Außerdem wurde die Zeit zur Identifikation von Fehlerquellen in der Wafer-Produktion von rund sechs auf nur zwei Stunden reduziert.

PRAXISBEISPIEL 2: SIEMENS, USA

SIMULATION DER ZUKUNFT DURCH NEURONALE NETZE

In Kalifornien hat der Industriekonzern Siemens einen „Umgebungsgenerator“ entwickelt. Fabrikationsumgebungen können so von einem Computer virtuell abgebildet werden. Anschließend lassen sich unzählige Szenarien in dieser Umgebung simulieren. Dies ist umso wichtiger, je autonomer die Fertigung abläuft: Während ein Mensch beispielsweise eine von einer Lampe ausgelöste Reflexion leicht als solche – und damit als unbedenklich – identifizieren könnte, würde dies in einer computergesteuerten Fabrikation zum Produktionsstopp führen. Das System könnte die veränderte Situation nicht eindeutig zuordnen. Mit dem Umgebungsgenerator indes können in kurzer Zeit auch für den Menschen noch nicht vorstellbare Situationen und Verkettungen von Umständen simuliert werden. So können vorab Lösungen für mögliche Fehler programmiert werden. Gleichzeitig können solche manuellen Antworten dem System helfen, ähnliche Problemszenarien selbst zu lösen.

Hierzu baut Siemens auf Verfahren des maschinellen Lernens, wie beispielsweise künstliche neuronale Netze. Sie liefern Vorhersagen, die zu automatisierten Entscheidungen führen können. Auf Basis neuronaler Netze sorgt die von Siemens entwickelte Software Senn (Simulation Environment for Neural Networks) für präzise Prognosen. Siemens nutzt Senn zur Vorhersage verschiedener Rohstoffpreise und kann beispielsweise den Strompreis für die nächsten 20 Tage in zwei von drei Fällen richtig vorhersagen. Seit 2005 bedient sich das Unternehmen dieser Methode, um zum günstigsten Zeitpunkt Strom einzukaufen.

PRAXISBEISPIEL 3: RWE, DEUTSCHLAND

DEZENTRALE STEUERUNGEN

RWE verbaut mit dem „Smart Operator“ einen Minicomputer dezentral in der Nähe eines Ortsnetzes. Er kann direkt in der Trafostation das lokale Niederspannungsnetz optimieren. Der Smart Operator sammelt als Verbindung zwischen unterschiedlichen Verbrauchern wie Privathaushalten und gewerblichen Kunden auf der einen Seite sowie dem Verteilnetz auf der anderen Seite kontinuierlich Daten zu Stromverbrauch, Einspeisung und Speicherung. Diese Daten bezieht der Smart Operator von unterschiedlichen Messstellen wie Smart Metern und analysiert sie in Echtzeit. Auf der Basis der aktuellen Netzinformationen sowie von Vergangenheits- und Wetterdaten steuert er dann das Netz autonom über einen selbstlernenden Algorithmus, der wiederum die innovativen intelligenten Netzkomponenten kontrolliert. Das hilft nicht nur, einen Ausgleich zwischen Stromerzeugung und -verbrauch zu schaffen, sondern garantiert nach Angaben von RWE auch die Spannungsqualität und Versorgungssicherheit sowie eine effiziente Stromnutzung.

PRAXISBEISPIEL 4: AFFECTIVA, USA

AFFECTIVE COMPUTING: DAS MENSCHLICHE BEWUSSTSEIN MODELLIEREN

Affectiva ist ein US-amerikanisches Start-up und ein Spin-off des M.I.T. Media Lab. Affectiva verspricht, mit Hilfe eines Computerprogramms die Stimmung von Menschen an ihren Gesichtern ablesen zu können. Gegründet 2009, zählte das junge Neuro-Tech-Unternehmen 2014 bereits zu den am schnellsten wachsenden Unternehmen der USA.

Die Affective-Anwendung Affdex beispielsweise hat drei Millionen Menschen Online-Clips vorgespielt und dabei ihre emotionalen Gesichtsausdrücke erfasst. Auf Grundlage dieser Daten kann Affdex bei einem Werbeclip oder Film sekundengenau angeben, an welchen Stellen dieser langweilig, überraschend oder spannend ist. Coca-Cola und Unilever gehören bereits zu Affectivas Kunden.

"Affectiva verspricht, mit Hilfe eines Computerprogramms die Stimmung von Menschen an ihren Gesichtern ablesen zu können."

Im B2B-Kontext könnten solche Anwendungen künftig ebenfalls mehr zum Einsatz kommen. Kaufempfehlungen könnten in Zukunft auf Basis emotionaler Profile erstellt werden. Das Unternehmen Realeyes scannt per Webcam, wo ein Onlinekunde hinschaut und wie sehr er von dem Gesehenen angesprochen wird. Dabei können auch ohne anliegende Sensoren Herz- und Atemrhythmus gemessen werden, allein durch minimale Farbveränderungen im Gesicht, wenn das Blut durch die Venen gepumpt wird, und durch die Bewegung des Brustkorbs. Solche Affective-Computing-Ansätze sind beispielsweise für E-Commerce- Lösungen und Preismodelle interessant, da so Kundenbedürfnisse sehr viel gezielter identifiziert und bespielt werden können.

WAS SIND MACHINE LEARNING, NLP UND DEEP LEARNING?

AI/KI – ARTIFICIAL INTELLIGENCE/KÜNSTLICHE INTELLIGENZ

Sammelbegriff für alle im Zusammenhang mit der Erbringung von Intelligenzleistungen verwendeten Technologien; Unterschied zwischen starker und schwacher KI: starke KI sind Systeme, deren Lernkompetenz der des Menschen in nichts nachsteht (bislang noch nicht entwickelt); schwache KI umfasst die Adaption einzelner menschlicher Fähigkeiten auf Maschinen, so beispielsweise das Erkennen von Texten, Bildinhalten, Spielen, Spracherkennung (aktuell in der Entwicklung)

MACHINE LEARNING/MASCHINELLES LERNEN

Teilgebiet der AI; mathematische Technik; ermöglicht einem System, selbständig Wissen aus Erfahrungen zu generieren

NLP

Natural Language Processing/Verarbeitung natürlicher Sprache; nicht zu verwechseln mit Neurolinguistischem Programmieren; altes Forschungsgebiet, das die Mensch-Maschine-Schnittstelle erforscht; kann mittlerweile unter dem Oberbegriff „maschinelles Lernen“ subsumiert werden; Methoden des maschinellen Lernens beschleunigten die Entwicklung des NLP; zu den wichtigsten Aufgaben zählen die optische Zeichenerkennung (OCR), Übersetzungen zwischen unterschiedlichen Sprachen, die automatische Beantwortung natürlicher Fragen, die Spracherkennung; für Teilbereiche des NLP, vor allem für die Spracherkennung, werden die Methoden des Deep Learning verwendet

DEEP LEARNING

Teilbereich des maschinellen Lernens; Methode, die mit künstlichen neuronalen Netzen arbeitet (siehe Seite 24), um möglichst effiziente Lernergebnisse zu erzielen; kann als Lernmethode des maschinellen Lernens bezeichnet werden; derzeit sind meist Methoden des Deep Learning mit neuronalen Netzen gemeint, wenn es um Künstliche Intelligenz geht

PRAXISBEISPIEL 5: NEURALINK, USA

STARKE KÜNSTLICHE INTELLIGENZ: GEHIRN UND COMPUTER ENTWICKELN SICH GEMEINSAM WEITER

Elon Musk hat sich kürzlich an Neuralink beteiligt. Das Unternehmen arbeitet daran, das menschliche Gehirn mit Künstlicher Intelligenz zu verbinden. Bereits im vergangenen Jahr machte der Tesla-Chef mit Diskussionsbeiträgen auf sich aufmerksam, in denen er die Idee einer „neuralen Litze“ diskutierte. Diese Schnittstelle kann chirurgisch mit dem menschlichen Gehirn verbunden werden und mit einem Computer kommunizieren. Neuralink soll vorerst nicht die Leistungsfähigkeit des menschlichen Geistes durch KI steigern. Es geht wohl eher um die Erforschung, wie eine Schnittstelle ins Gehirn dabei helfen könnte, die Symptome von Krankheiten wie Epilepsie oder Depression abzumildern. Doch das dürfte nur ein Teilaspekt sein. Musk hat schon oft angedeutet, dass er darüber nachdenkt, wie ein Interface zwischen Gehirn und Computer aussehen könnte, damit der Mensch mit den rapiden Entwicklungen der Künstlichen Intelligenz Schritt halten kann. Und er ließ Taten folgen: Im März 2014 beteiligte er sich beispielsweise am Start-up Vicarious FPC. Das Unternehmen versucht, den Teil des Gehirns nachzubilden, der fürs Sehen, die Motorik, Sprache und beispielsweise Rechnen verantwortlich ist. Bryan Johnson, der Gründer des Bezahldienstes Braintree, der inzwischen zum von Musk gegründet Bezahldienst Paypal gehört, investierte 100 Millionen US-Dollar, um eine Neuroprothese zu entwickeln, die die Kapazitäten des menschlichen Gehirns freisetzen und unseren neuralen Code letztlich programmierbar machen soll. Alles in allem geht es hier um „Koevolution“, also die Fähigkeit, sich auch als Spezies zusammen mit der KI weiterentwickeln zu können.