Interview mit Carla Hustedt

„Letztlich ist es immer ein menschlicher Fehler“
Wie ethisch sind Algorithmen? Gar nicht, sagt Carla Hustedt von der Bertelsmann-Stiftung. Es kommt immer auf den Menschen hinter dem Programm an.
TEXT: Matthias Schmidt-Stein

Frau Hustedt, Sie arbeiten zur „Ethik der Algorithmen“. Können Algorithmen überhaupt ethisch oder unethisch sein?

Nein. Ein Algorithmus an sich ist nur eine Handlungsvorschrift, eine mehr oder weniger komplizierte Step-by-Step-Anleitung zur Lösung eines Problems. Im Grunde genommen ist auch ein Kochrezept ein Algorithmus. Deshalb kommt es bei der Frage nach der Ethik auf die Entwicklung und Anwendung an.

Das heißt?

Algorithmen fallen nicht vom Himmel. Sie sind von Menschen gemacht. Es kommt darauf an, wie – und von wem – der Algorithmus programmiert wurde und wie die Ergebnisse genutzt und angewendet werden. Die Diskussion über ethische algorithmische Systeme verändert sich jedoch stark durch Entwicklungen im Bereich der selbstlernenden Künstlichen Intelligenz.

Wo spielt das für Unternehmen heutzutage schon eine Rolle?

Unter anderem in Personalabteilungen. Beim Recruiting werden heute Algorithmen etwa zum Vorfiltern von Bewerbungen genutzt. Das ist erst einmal eine gute Sache. Denn Personaler haben so mehr Zeit, sich mit anderen – wichtigeren – Dingen zu beschäftigen. Zudem wissen wir aus etlichen Studien, dass die Auswahl von Bewerbern oft – wenn auch häufig unbewusst – nach Kriterien erfolgt, die mit der objektiven Eignung für einen Job wenig zu tun haben. Algorithmen bieten die Chance, Diskriminierungen abzubauen, weil sie konsistent und potentiell auch neutral bewerten – sofern sie richtig programmiert wurden.

Funktioniert das in der Realität?

Wenn diese Algorithmen aus einem Datensatz lernen, in dem zum Beispiel weiße Männer von einer bestimmten Universität überproportional vertreten sind, besteht die Gefahr, dass sie diese Diskriminierung bei der Auswahl der Kandidaten reproduzieren – und skalieren. Im Sinne des Unternehmens kann das nicht sein. Denn das will ja den besten Mitarbeiter finden – und nicht zwangsläufig immer mehr vom selben Typus.

Algorithmen potenzieren also die Fehler bei ihrer Programmierung?

Das kann definitiv passieren. Algorithmen reproduzieren die Wertevorstellungen und Normen, die sich in den Daten, in Teilen der Programmierung oder in den Zielvorgaben widerspiegeln. Dadurch werden Probleme und Diskriminierungen reproduziert und skaliert.

Wer ist dafür verantwortlich?

Der Weg zum fertigen Algorithmus ist ziemlich komplex. Zahlreiche Personen sind an seiner Entstehung beteiligt. Deshalb ist es wichtig, dass in diesem Prozess Verantwortlichkeiten festgelegt werden. Fehlerquellen können sowohl im Programmcode zu finden sein als auch in den Daten, mit denen der Algorithmus gefüttert wird. Auch die Deutung der Daten kann eine Fehlerquelle sein. Häufig wird die Schuld dem Algorithmus in die Schuhe geschoben. Letztlich ist es aber immer ein menschlicher Fehler – auch wenn wir dazu neigen, der Maschine die Schuld zu geben.

Viele Algorithmen sind so komplex, dass niemand genau weiß, was in ihnen eigentlich vorgeht. Daran könnte es doch auch liegen.

Dieses „Blackbox“-Argument hört man sehr häufig. Allerdings sind die Entscheidungswege vieler Algorithmen relativ nachvollziehbar und einfach aufgebaut. Und selbst da, wo es nicht so ist, gibt es heute Möglichkeiten, diese zu überprüfen, ohne dass man ihr Inneres bis ins kleinste Detail verstehen müsste. Algorithm Watch, eine zivilgesellschaftliche Initiative von Aktivisten, Journalisten und Professoren, arbeitet zum Beispiel mit dem Prinzip der „Datenspenden“. Weil zahlreiche Wähler ihre Daten zur vorigen Bundestagswahl zur Verfügung gestellt hatten, konnte Algorithm Watch zeigen, inwieweit Google seine Suchergebnisse je nach angenommener Parteipräferenz personalisiert. Doch wie der Google-Algorithmus im Einzelnen funktioniert, bekommt man so nicht heraus. Die Bertelsmann- Stiftung fördert Algorithm Watch übrigens.

Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.

Bei welchen Entscheidungen sollten wir uns auch in Zukunft partout nicht auf Algorithmen verlassen?

Wir Menschen haben gewisse Bereiche, in denen wir stark sind, und andere, in denen wir unglaublich schlecht sind. Zum Beispiel entscheiden wir häufig subjektiv und wenig nachvollziehbar. Algorithmen hingegen haben ein Problem, mit Ausnahmen oder unerwarteten Dingen umzugehen. Algorithmen sollten uns deshalb dort die Arbeit abnehmen, wo sie Dinge besser können als wir, und uns so Freiräume für das schaffen, in dem wir gut sind. Zudem muss es auch eine Debatte darüber geben, ob es gewisse Bereiche gibt, in denen Algorithmen künstlich verdummt werden müssen oder gar nicht erst eingesetzt werden dürfen. Im Kontext der autonomen Waffensysteme wird diese Diskussion bereits geführt. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.

Auch im Zeitalter der Algorithmen gibt es Probleme, bei denen unklar ist, welche Lösung die ethisch „richtige“ ist. Wie geht man mit dem Dilemma um?

Natürlich wird es auch in Zukunft Bereiche geben, in denen sich verschiedene Wertevorstellungen gegenüberstehen. Dort muss es einen breiten Diskurs geben. Nehmen Sie etwa das Thema Videoüberwachung und Gesichtserkennung. Weil die Algorithmen niemals perfekt sein werden, muss ich hier immer mit Fehlern rechnen. Ein Fehler kann sein, dass eine unschuldige Person festgehalten wird, ein „False positive“. Oder aber, dass eine kriminelle Person nicht erkannt wird, das nennt man „False negative“. Wenn wir eine der beiden Fehlerarten reduzieren wollen, müssen wir in Kauf nehmen, dass der andere Fehler häufiger auftritt. Ob es ethisch besser ist, möglichst viele Kriminelle korrekt zu identifizieren oder möglichst zu vermeiden, dass Unschuldige fälschlicherweise identifiziert werden, hängt davon ab, als wie wichtig in einer Gesellschaft Werte wie Freiheit und Sicherheit gesehen werden. Dies ist eine Entscheidung, die immer wieder neu diskutiert und ausgelotet werden muss.

Ist das Thema „Ethik der Algorithmen“ schon in der Wirtschaft angekommen?

In der breiten Bevölkerung ist das Thema noch nicht angekommen. Unsere repräsentative Bevölkerungsumfrage hat gezeigt, dass nur 10 Prozent der Deutschen wissen, wie Algorithmen funktionieren und sich häufig nicht darüber bewusst sind, wie stark die Systeme bereits ihren Alltag beeinflussen. Ich habe aber das Gefühl, dass in der Wirtschaft gerade etwas in Bewegung kommt. Bei den großen US-Tech-Konzerne zum Beispiel gab es in jüngster Zeit immer wieder Proteste der Mitarbeiter gegen vermeintlich oder tatsächlich unethisches Verhalten ihrer Arbeitgeber. Google etwa hat infolge von internen Protesten Hunderter Mitarbeiter ein Kooperationsprojekt mit dem Pentagon beendet. In Deutschland arbeiten wir zum Beispiel mit dem unabhängigen Berliner Think-Tank I-Rights-Lab an einer Professionsethik für die Gestalter von Algorithmen. Wir entwickeln eine Art Gütekatalog für Algorithmen, der für die Auftraggeber, Entwickler und Anwender algorithmischer Systeme eine Leitlinie sein kann.

Wie sieht der aus?

Die endgültigen Kriterien stehen noch nicht fest. Unter anderem wollen wir die an der Entwicklung beteiligten Akteure dazu bringen, Folgenabschätzungen durchzuführen. Diese sind in vielen anderen Bereichen – zum Beispiel bei Großbauprojekten – absolut üblich, beim Softwaredesign aber nicht. Bei Algorithmen zur Erkennung von Rechtschreibfehlern ist das vermutlich auch nicht so wichtig. Sobald ein Algorithmus aber potentiell das Leben der Menschen beeinflusst, sollte man sich darüber vorab Gedanken machen.

Was können Unternehmen noch tun?

Genau wie die Programmierer müssen sich auch Entscheider mit den gesellschaftlichen und ethischen Konsequenzen der eingesetzten Algorithmen auseinandersetzen. Bei dieser Evaluierung kann die Wissenschaft helfen. Auch Transparenz und Diversität sind hilfreich: Je mehr Menschen aus unterschiedlichen Perspektiven und mit unterschiedlichen Hintergründen auf einen Algorithmus und dessen Ergebnis schauen, umso differenzierter und umfassender wird die Bewertung ausfallen.

Carla Hustedt

Bertelsmann Stiftung

CARLA HUSTEDT arbeitet als Projektmanagerin für die Bertelsmann-Stiftung. Im Projekt „Ethik der Algorithmen“ beschäftigen sie und ihre Kollegen sich mit den gesellschaftlichen Folgen algorithmischer Entscheidungsfindung.

Foto: privat