Governance und Compliance

Transparenz statt Graubereich
Das Verhältnis von Corporate Governance und Compliance zur Digitalisierung ist ambivalent: Neue Technologien bergen Gefahren - bieten aber auch neue Chancen.
TEXT: INGO STEINHAUS

Die Digitalisierung und die Automatisierung führen in der Corporate Governance zu einem Kontrollverlust. Überall lauern neue Risiken: von digitalisierter Korruption und Wirtschaftskriminalität über Datendiebstahl und Hackerangriffe bis hin zur Industriespionage. Gleichzeitig können Führungskräfte durch genau dieselben Technologien Kontrolle zurückerobern, etwa mit Hilfe des Datenreichtums digitaler und IoT-basierter Geschäftsmodelle.

Ein Beispiel: Ein Hersteller von elektronischen Geräten bezieht seine Bauteile über eine mehrstufige und globale Lieferkette. Die Zulieferer des Unternehmens vertrauen selbst wiederum auf die Zulieferer ihrer Vorprodukte. Je komplizierter die Lieferkette, desto schwieriger ist es, einen Verantwortlichen zu finden, wenn zum Beispiel bei einem Lieferanten des Lieferanten Kinderarbeit vorkommt.

Unter vordigitalen Bedingungen war so etwas fast unmöglich zu kontrollieren; ein Vertreter des Herstellers musste vor Ort prüfen. Doch die Digitalisierung bietet Hilfsmittel, die eine Kontrolle vereinfachen. Sensoren und IoT-Module können eingesetzt werden, um Produkte, Transportbehälter und Überseecontainer per GPS zu verfolgen und so die Herkunft von Handelswaren sicher zu bestimmen, was bei der späteren Nachverfolgung des „Reisewegs“ hilft. Die Blockchain-Technologie kann in der Lieferkette für noch mehr Transparenz sorgen: Rohstoffe und Vorprodukte erhalten eine eindeutige Identität, die über den gesamten Lebensweg in praktisch fälschungssicheren, weil dezentralen Datenbanken hinterlegt ist. Die Technologie ist zwar noch in der Erprobung, könnte aber schon in wenigen Jahren den Alltag bestimmen, wenn es um die Produktion und den Transport von Waren geht (siehe auch CEDO 1/2018).

„Durch moderne Technologien lassen sich wiederkehrende standardisierte Compliance-Prozesse automatisieren.“

Alexander Geschonneck, Partner für den Bereich Compliance & Forensic bei KPMG

Die Digitalisierung verändert auch in anderen Compliance- und Governance- Bereichen die Arbeit: „Früher musste ein Prüfer losziehen und vieles per Hand machen, heute sind die Daten oft schon vorhanden oder können sehr zielgerichtet analysiert werden“, sagt Alexander Geschonneck, Partner für den Bereich Compliance & Forensic bei KPMG. „In gewissem Rahmen lassen sich durch moderne Technologien auch wiederkehrende standardisierte Compliance-Prozesse automatisieren.“

Die Unternehmenssteuerung nimmt nicht mehr nur turnusmäßig Rückwärtsbetrachtungen vor, sondern bezieht die Echtzeitbegleitung aktueller Entwicklungen in die Betrachtung ein. Dies ist vor allem für Fragen der Compliance entscheidend, da nun auch frühzeitig eingegriffen werden kann und nicht erst dann, wenn ein Gesetzesverstoß womöglich schon in den Medien thematisiert wird.

Neue Anforderungen an den Aufsichtsrat

Die Automatisierung und die Beschleunigung der Corporate Governance durch Digitaltechnologien bedeuten aber auch, dass die traditionellen Aufsichtsgremien der deutschen Wirtschaft ihre Aufgabe nicht mehr so retrospektiv wie bisher angehen sollten. Das sagt jedenfalls Michael Mertin, der ehemalige CEO der Jenoptik AG: „Der Aufsichtsrat muss sich stärker mit Veränderungen im Tagesgeschäft und in den Markt- und Wettbewerbsstrukturen sowie den Einflüssen der globalen Megatrends beschäftigen.“ Hierzu müsste sich das Selbstverständnis des Gremiums verändern. In einem Beitrag für die Fachzeitschrift „Board“ fordert er: „Die Mitglieder müssen mehr Zeit als bisher in ihr Mandat einbringen.“ Ebenso wichtig ist für ihn digitales Know-how, das aufgrund der Altersstruktur bisher nur schwach in den Aufsichtsgremien vertreten sei. „Das sollte sich ändern“, fordert Mertin.

Unternehmen springen aber zu kurz, wenn sie nur auf technische Kompetenz setzen und alles machen, was technisch möglich ist. Sie benötigen dringend eine Digitalethik, fordert KPMG-Experte Alexander Geschonneck. Die Digitalisierung werfe wichtige ethische Fragen auf, die das Management beantworten muss: „Wer kontrolliert die Algorithmen? Darf ein Chatbot lügen? Die Unternehmen können jetzt alles auswerten und speichern. Doch sollten sie das auch tun?“, fragt Geschonneck. Durch die Datenvielfalt betreten viele Unternehmen einen Graubereich. So könnten beispielsweise Maschinendaten als Beifang auch Erkenntnisse über die wirtschaftliche Situation von Kunden aufdecken. Sollte ein Unternehmen diese Daten nutzen? Oder macht es sich damit der Wirtschaftsspionage schuldig?

„Ein Algorithmus an sich ist nur eine mehr oder weniger komplizierte Step-by-Step-Anleitung zur Lösung eines Problems. Deshalb kommt es bei der Frage nach der Ethik auf die Entwicklung und Anwendung an.“

Carla Hustedt von der Bertelsmann Stiftung im CEDO-Interview zum Thema Algorithmenethik [weiterlesen]

Viele Fragen, die die Corporate Governance beachten muss. Weitere tauchen auf, wenn Algorithmen plötzlich nicht mehr nur Daten verarbeiten, sondern darauf aufbauend auch Entscheidungen treffen. Möglich geworden ist das durch Algorithmen für Machine- Learning und andere Verfahren der Künstlichen Intelligenz (KI). In gewissen Grenzen werden in einigen Branchen bereits heute Entscheidungen von KI-Systemen vorbereitet, beispielsweise im Finanzsektor bei Betrugserkennung, Bonitätsprüfungen oder Anlagestrategien. Der technologische Trend ist eindeutig: KI wird immer mehr in der Lage sein, auf Datenbasis Entscheidungen zu treffen.

Transparenz ist wichtig

Hier gibt es für die Corporate Governance neuartige Herausforderungen. Ein Teil der KI-Anwendungen funktioniert nach dem Blackbox-Prinzip: Der Weg von den Eingabe- zu den Ausgabedaten ist nicht mehr ohne weiteres erkennbar, da der Algorithmus ihn erst mit der Zeit entwickelt. „KI darf niemals das letzte Wort haben. Endgültige Entscheidungen sollten von Menschen getroffen werden“, sagt Manuela Mackert, Chief Compliance Officer (CCO) der Deutschen Telekom. „Zwar ist Künstliche Intelligenz eine sehr kraftvolle Querschnittstechnologie, sie sollte aber nur der Entscheidungsvorbereitung dienen. Dabei ist Transparenz wichtig. Es muss jederzeit klar sein, wie Entscheidungen entstehen.“

Angesichts der technologischen Möglichkeiten müssen Unternehmensvorstände frühzeitig mögliche Probleme beachten. Das gilt auch bei der Entwicklung von neuen Produkten. „Digitalethik muss ähnlich wie Security direkt bei der Entwicklung berücksichtigt werden“, sagt Mackert. „In Workshops mit Entwicklern können ethische Fragen frühzeitig geklärt werden.“ Ethics by Design, gewissermaßen.

Eine solche Vorgehensweise dürfte auch den Beifall der Verbraucher finden: „Das Vertrauen unserer Kunden ist unser wichtigstes Gut“, sagt Manuela Mackert. „Es ist unethisch, den Kunden etwas vorzugaukeln. Sie sollen nicht glauben, dass sie mit einer echten Person sprechen, wenn es sich in Wirklichkeit um eine sprachfähige KI handelt.“ Diese Transparenz wird von den meisten Menschen gewünscht, wie die Ereignisse um den digitalen Assistenten Google Duplex zeigten: Zwar konnte dieser in der Vorführung auf Googles Entwicklerkonferenz I/O im Mai recht geschickt vortäuschen, eine Person zu sein, doch anschließend gab es großen Protest in den sozialen Netzwerken. Google hat daraufhin eine Kehrtwende vollzogen: In Zukunft weist der Assistent zum Gesprächseinstieg immer darauf hin, dass er kein Mensch ist.

Bei aller Technikeuphorie in manchen Teilen der Wirtschaft warnt Professor Stephan Grüninger, Direktor des Konstanz Instituts für Corporate Governance: „Digitale Themen sind ein Spezialistendiskurs, der viele Leute überfordert. Deshalb sind Transparenz und Ehrlichkeit wichtig.“ Grüninger plädiert für eine breite gesellschaftliche Diskussion, an der sich auch, aber nicht nur die Politik beteiligen solle. Unternehmen sollten ebenso in den direkten Austausch mit ihren Kunden gehen und ihre Sorgen und Anregungen bei der Produktentwicklung berücksichtigen. „Der Einsatz von Digitaltechnologien bedingt auch eine große Verantwortung, nicht nur für ein einzelnes Unternehmen.“ Dazu kommt: Manche Folgen der Digitalisierung lassen sich heute noch gar nicht voraussehen. „Bei Robotern oder autonomen Fahrzeugen gibt es noch keine Antworten auf Haftungsfragen“, nennt Grüninger als Beispiel: „Es sind ja nicht einmal alle konkreten Risiken bekannt.“