Artificial Intelligence

Ein Blick auf die Mythen: was AI ist – und was nicht
Je nach Auslegung sorgt Künstliche Intelligenz entweder für exorbitantes Wachstum oder für das Ende der Menschheit. Doch weder das eine noch das andere Szenario werden der Technologie gerecht. Ein Blick auf die Mythen: Was KI ist – und was nicht.
TEXT: GASTBEITRAG ROBERT HIRT UND TORSTEN KIEWERT

Um direkt mit zwei Vorurteilen aufzuräumen: Künstliche Intelligenz (KI) kam nicht aus dem Nichts. Und sie ersetzt auch nicht das menschliche Gehirn. Denn genau das wird KI derzeit vielerorts angedichtet: eine Technologie zu sein, die das menschliche Gehirn gewissermaßen ablösen soll. Diese Sicht entstammt jedoch vor allem einer jahrzehntealten Tradition, in der Artificial-Intelligence- Lösungen regelmäßig überschätzt wurden. Jede einzelne Weiterentwicklung wurde unmittelbar als Durchbruch und Wendepunkt gefeiert – obschon es sich immer wieder „nur“ um Feinjustierungen handelte.

WAS ES NICHT IST I:

URPLÖTZLICHER TECHNOLOGIESPRUNG

Während einer sechswöchigen Konferenz zum „Dartmouth Summer Research Project on Artificial Intelligence“ im Juli 1956 wurde der Begriff „Artificial Intelligence“ geboren. Schon damals war die Euphorie groß, konnten die ersten Computer doch rasch sehr viel besser Mühle und Dame spielen als ihre jeweiligen Programmierer. Man erwartete nichts Geringeres als bahnbrechende Forstschritte binnen weniger Jahre. Damals wie heute arbeiten solche Expertensysteme jedoch regelbasiert. Diese Regeln werden aus dem Wissen menschlicher Experten extrahiert und in hierarchische Entscheidungsbäume integriert. Das ist aufwendig, und die entstehenden Systeme sind jeweils nur in eng umgrenzten Fachgebieten einsetzbar. Vor allem in den ersten Jahren wurden durch Artificial-Intelligence-Systeme hauptsächlich Probleme gelöst, die für Menschen intellektuell schwierig, für Computer jedoch reines „number crunching“ sind.

Es dauerte bis zum Jahr 1997, bis eine große Öffentlichkeit ein Computersystem wahrnahm, das offensichtlich eine Tätigkeit ausführte, bei der es sich um Artificial Intelligence handeln sollte: Die reine Rechenleistung von IBMs „Deep Blue“ war ausreichend, um den damaligen Schachweltmeister Gary Kasparow zu besiegen.

WAS ES NICHT IST II:

URPLÖTZLICHER TECHNOLOGIESPRUNG

Die Leistungsschau wurde mit den Jahren anspruchsvoller: von Schach über Jeopardy bis zum asiatischen Brettspiel Go. Dabei handelte es sich meist um schnelle, komplexe mathematische Berechnungen und das Speichern von großen Datenmengen – zwei Eigenschaften, in denen Computer längst weitaus besser sind als Menschen. Aber deshalb ersetzen sie noch lange nicht die Leistungsfähigkeit des menschlichen Gehirns, was jedoch immer wieder angenommen wird.

Häufig wird die Einschätzung geäußert, dass sich KI-Systeme derzeit noch auf dem Intelligenzniveau eines Insekts oder einer Maus befänden – verbunden mit dem Hinweis auf Moore’s Law, das von der rasanten exponentiellen Entwicklung der Rechenkapazität der Computer ausgeht und eine einfache Hochrechnung aufstellt. Demnach sei es nur eine Sache von wenigen Jahren, bis Computer intelligenter wären als Menschen. Doch das Problem dieses Denkmodells: Es ordnet Intelligenz auf einer linearen Skala ein. Ein Mensch ist intelligenter als eine Maus, eine Maus ist intelligenter als ein Insekt. Tatsächlich gibt es jedoch keine wissenschaftliche Evidenz, dass dem so ist.

Man kann bei Artificial-Intelligence- Systemen nicht von einem direkten Abbild der menschlichen Intelligenz sprechen, das auch alle Facetten des menschlichen Bewusstseins umfasst. So wie die Idee vom Fliegen den Vögeln abgeschaut ist und heutige Flugzeuge den Vögeln trotzdem nicht ähneln, stellen Artificial-Intelligence- Systeme keinen „Nachbau“ der menschlichen Intelligenz dar.

WAS ES IST I:

MODELLIERUNG NEURONALER NETZWERKE

Zu komplexen Verbindungen durchaus fähig sind Artificial-Intelligence- Systeme, die sich auf sogenannte Deep-Learning-Algorithmen stützen. Diese basieren in aller Regel auf Analysen neuronaler Netzwerke und stellen eine Untergruppe des Machine-Learnings dar. Neuronale Netze mit wenigen Neuronen sind ebenfalls nicht neu, allerdings ermöglicht insbesondere die technologische Entwicklung von Grafikkarten heutzutage das effiziente Implementieren sogenannter tiefer Netzwerke mit Dutzenden von Schichten und Tausenden von Neuronen. Diese tiefen neuronalen Netze sind eine der wichtigsten technischen Innovationen der vergangenen Jahre im Bereich der Artificial-Intelligence- Forschung.

WAS ES IST II:

EIN WEITES FELD

Doch was für die Forschung bahnbrechende Erfolge sind, trifft in der Praxis derzeit noch auf viele Fragen. Der Technologiekonzern IBM benötigte ein Team von 15 Forschern und rund fünf Jahre, um das Watson-System überhaupt erst zu entwickeln. Der Suchmaschinengigant Google brauchte etwa 10 Millionen Bilder von Katzen und 16.000 CPUs, um damit ein neuronales Netz zu trainieren, das Katzen in Videos selbständig entdecken kann. Ein einziger tödlicher Unfall eines autonom fahrenden Autos schlägt Wellen in den internationalen Medien und führt zu intensiven Diskussionen über die Marktreife der Technologie. Ein japanischer Support-Roboter mit menschenähnlicher Haut und Gestik wird von Kindern und älteren Menschen konsequent abgelehnt, dieselbe Maschine in einem klar erkennbaren Roboter-Outfit wirkt indes sympathisch und hilfreich.

Diese Beispiele skizzieren die Voraussetzungen, die Artificial-Intelligence- Systeme zur Einführung benötigen: die richtigen Köpfe, die entsprechenden Rahmenbedingungen, die richtigen Daten und Akzeptanz. Nicht zuletzt möchten die wenigsten Unternehmen einzig Jeopardy gewinnen oder Katzen identifizieren. Die grundsätzliche Frage nach der geschäftlichen Relevanz, also welchen essentiellen Mehrwert eine KI für den Anwender oder die Organisation bringt, beantwortet ein gewonnenes Schachspiel allein nämlich noch nicht.

WAS ES IST III:

EXPLORATIV UND AUFWENDIGES TRAINING

Derzeit testen die ersten Anwender Business-Cases, so beispielsweise das japanische Versicherungsunternehmen Fukoku Mutual Life Insurance. Um Personalkosten zu sparen, will der Versicherer mehrere Dutzend Mitarbeiter durch eine Künstliche Intelligenz ersetzen. Das Unternehmen greift dazu auf das System von IBM Watson zurück. Einem Bericht der japanischen Tageszeitung „Mainichi“ soll die Einrichtung der KI umgerechnet rund 1,6 Millionen Euro und der Betrieb danach jährlich umgerechnet 120.000 Euro kosten. Dem stünden jährlich Einsparungen bei den Personalkosten in Höhe von umgerechnet rund 1,1 Millionen Euro gegenüber. Derartige Projekte sind allerdings explorativer Natur und können selten vorab mit einem definierten RoI im Board-Meeting argumentiert werden. Um ein neuronales Netzwerk erfolgreich zu trainieren, bedarf es beispielsweise eines Teams an erfahrenen Data-Scientists, ausgestattet mit tiefem Verständnis der zugrundeliegenden theoretischen Mathematik, praktischem Knowhow im Umgang mit den relevanten IT-Technologien und Einblick in den aktuellen Forschungsstand. Solch ein Team fordert Freiraum außerhalb der gängigen Quartalsdenke, um in zahlreichen Experimenten zu lernen, wie die Parameter des KI-Modells zu setzen sind.

Zum Trainieren der Systeme werden außerdem qualitativ hochwertige Trainingsdaten in großen Mengen benötigt. Diese Daten müssen gut verstanden und in aller Regel mit relevanten Kontextinformationen versehen sein. Google kann Katzen entdecken, weil man explizit weiß, auf welchem Bild eine Katze vorhanden ist (und vor allem, wann nicht). Der Erfolg und die Akzeptanz eines Artificial-Intelligence-Systems hängen ganz wesentlich von der Konsistenz, Integrität und Nachvollziehbarkeit der Ergebnisse ab. Die Frage, warum sich ein neuronales Netz für etwas entscheidet, ist aber derzeit noch ungelöst.

WAS ES IST IV:

EINE FRAGE DER DATENQUALITÄT

Was Entscheider zudem bedenken sollten: Viele Organisationen nutzen mit traditionellen Analytics- Methoden bislang nur einen Teil des Potentials ihrer Daten. Der Schritt von traditionellen Business-Intelligence-Umgebungen hin zu Artificial-Intelligence- Systemen ist nicht einfach möglich – und auch nicht unbedingt ratsam. Für den sinnvollen und geschäftsfördernden Einsatz ist u.a. eine ausgereifte Data-Governance eine notwendige Voraussetzung.

Experten in Fachbereichen sind meist nicht in der Lage (oder willens), die nötige Strukturierung und Aufbereitung großer und komplexer Daten durchzuführen. In der Regel wenden sie sich mit ihren Anforderungen deshalb an die IT-Abteilungen. Erste industriegetriebene oder globale Ansätze für eine solche Artificial-Intelligence-gestützte Standardisierung und Automatisierung von Information-Governance (z.B. Google Goods) existieren. Diese bieten für Unternehmen einen Startpunkt, um aus den vorhandenen Daten mittels Artificial-Intelligence-Methoden eine höhere Wertschöpfung zu generieren.

Über die Autoren

ROBERT HIRT und TORSTEN KIEWERT, jeweils Executive Director bei der Wirtschaftsprüfung Ernst & Young, beschäftigen sich hauptsächlich mit Themen rund um Artificial Intelligence, Data-Monetization, Data-Governance-Automation und den industriegetriebenen Einsatz von Advanced Analytics. Ernst & Young ist Strategischer Partner des CEDO-Magazins, die Experten stehen der Redaktion zu ausgewählten Themen beratend zur Seite. Sie haben keinerlei Einfluss auf die Themenauswahl sowie die redaktionelle Unabhängigkeit des Magazins.