Magazine

11. Oct 2021

Ethische KI - geht das?

Am Freitag, den 01.10.2021, fand unsere interne Accso-Konferenz zum Thema „Digitale Ethik – Verantwortung und Nachhaltigkeit in der IT“ statt. Komplett remote trafen sich alle Accsomitarbeitende online, um an vier spannenden Vorträgen von externen Sprechern und einer Diskussionrunde teilzunehmen. Ein Rückblick.
Software Engineer

Author

Alina Bos

Accso Kompass Preview jpg

Am Freitag, den 01.10.2021, hatten wir unsere interne Accso-Konferenz zum Thema „Digitale Ethik – Verantwortung und Nachhaltigkeit in der IT“.

Komplett remote trafen sich alle Accsomitarbeitende online, um an vier spannenden Vorträgen von externen Sprechern zu dem diversen Thema teilzunehmen. Dazwischen gab es eine geplante Diskussionrunde, um sich mit vier Unterthemen zu der Frage „Was bedeutet digitale Ethik für Accso?“ auseinander zu setzen. Was wir genau in den Vorträgen gehört und gelernt haben? Wir haben für euch die Vorträge nochmal Revue passieren lassen und zusammengefasst.

Wie kommt die Ethik in den Computer? – Ein Vortrag von Tobias Krafft

Starten wollen wir mit dem Vortrag von Tobias Krafft. Er hat uns mit auf eine Reise unter dem Motto „Wie kommt die Ethik in den Computer?“ genommen und uns die Grundlagen zu KI erklärt. Anhand eines praktischen Beispiels konnten wir selbst ausprobieren, worauf es beim Lernen ankommt und wie Diskriminierung in KI-Systemen entstehen kann.

Was ist KI?

Wolfgang Schäuble sagte mal, dass KI für viele die „neue Zauberformel des technischen Fortschritts“ ist. Künstliche Intelligenz (oder eben kurz KI) ist der Sammelbegriff für alle Arten von Software, die Aufgaben übernimmt, welche von einem Menschen eine gewisse Intelligenz erfordern würden. Wir haben gelernt, dass KI-Systeme zu den Algorithmischen Entscheidungssystemen gehören. Diese Art von Systemen haben schon lange einen Platz in unserem Alltag: Bei der SCHUFA wird jedem von uns ein Score zugewiesen, der unsere Kreditwürdigkeit bewertet – im KI-Umfeld würde das ein Regressionsproblem darstellen. Bei der KFZ-Versicherung werden Versicherte in verschiedene Versicherungsklassen eingeteilt – im KI-Umfeld als Klassifikationsproblem bekannt.

Erste Einsatzbereiche von KI waren Expertensysteme mit fest definiertem Regelwerk. Heute sind KI-Systeme aus Bereichen wie Übersetzungen, Bild- und Audioerkennung, Sprachassistenz oder Produktempfehlungssystemen nicht mehr wegzudenken.

Hier eine kleine Story am Rande: Parallel zum Vortrag und der Besprechung der Einsatzgebiete von KI ist bei uns im Chat eine Diskussion darüber entstanden, welche Herausforderungen eine KI nach heutigem Forschungsstand noch nicht lösen kann. Mein Favorit: Koalitionsverhandlungen 😉 (Stand: 07.10.2021).

Lernen: Korrelation vs. Kausalität

Lernen bedeutet Verhalten zu generalisieren. Computer leiten aus vorhandenen Daten allgemeingültige Regeln ab – meistens via Rückkopplung aus diesen Daten. Die gelernten Informationen werden abgespeichert und abgerufen, wenn der Computer mit neuen Situationen konfrontiert wird. Auch der Mensch kann erkennen, wenn bestimmte Eigenschaften häufiger zusammen in Situationen auftauchen (Korrelation). Jedoch können wir als Menschen langfristig auch bestimmen, ob hier zusätzlich eine Kausalität, also vereinfacht gesagt ein Wenn-Dann-Zusammenhang, vorliegt. Diese Fähigkeit besitzt eine KI nicht, da die Algorithmen der Künstlichen Intelligenz auf Korrelationen von Eigenschaften mit dem vorherzusagenden Ergebnis basieren. (Eine zum Schmunzeln anregende Sammlung von nicht-kausalen Korrelationen findet man unter [1].) Die Modelle einer KI sind – polemisch formuliert – eine Sammlung von algorithmisch legitimierten Vorurteilen. Deswegen können wir einer Maschine nicht blind vertrauen, da wir sonst den Schritt der Kausalitätsfindung überspringen.

[1] http://www.tylervigen.com/spurious-correlations

Praxisbeispiel: Wir trainieren eine KI zur Bewertung von Bewerbungsunterlagen

Nach dieser theoretischen Einführung konnten wir selbst ein KI-Modell anhand der folgenden Visualisierung trainieren:

Beispiel KI im Bewerbungsprozess 480x480 png

Dargestellt sind hier Bewerber:innen zusammen mit ihren Eigenschaften  „Jahre arbeitslos“ und „Expertise in Jahren“. Die grünen Gesichter symbolisieren erfolgreiche Arbeitnehmer:innen und die roten weniger erfolgreiche. Jeder von uns hat nun eine Entscheidungsgrenze festgelegt, welche dazu dienen soll, zu entscheiden, ob ein Kandidat bzw. eine Kandidatin eingeladen werden soll oder nicht. Dabei zeigt sich, dass das, was durch Künstliche Intelligenz optimiert werden soll, eine Unternehmensentscheidung darstellt. Beispielsweise gibt es in diesem Beispiel zwei Ziele, die gegeneinander abgewogen werden können: Das Unternehmen kann sich nicht leisten erfolgreiche Arbeitnehmer:innen zu übersehen vs. Das Unternehmen kann es sich nicht leisten, weniger erfolgreiche Arbeitnehmer:innen einzustellen. Ersteres würde dazu führen, dass die Entscheidungsgrenze nach oben verschoben wird, um alle grünen Bewerber:innen zu erwischen. Zweiteres führt dazu, dass die Entscheidungsgrenze nach unten verschoben wird.

In einer weiteren Betrachtung haben wir uns die Geschlechterverteilung angeschaut. Diskriminierung wird messbar, wenn man z.B. die einzelnen Teilgruppen bewertet. Hier haben wir festgestellt, dass bei einem Geschlecht überdurchschnittlich mehr gute Bewerber:innen abgelehnt werden. Gleichzeitig kann man jedoch bei der Messung der Fairness nie 100% erreichen, weil immer eine:r verliert. Beispielsweise kann man einerseits allen entweder dasselbe Maß an Unterstützung geben (Equality) oder andererseits jedem die individuell benötigte Förderung, um alle in dieselbe Ausgangssituation zu versetzen (Equity). Wichtig ist es, die unterschiedlichen Fairnessmaßnahmen zu verstehen und einordnen zu können.

Wie entsteht Diskriminierung durch KI?

Generell sind KI- bzw. Algorithmische Entscheidungssysteme ein Endprodukt einer langen Kette von Prozessschritten, die jeweils fehlerhaft sein können. In diesem langen Entwicklungsprozess kann die Ursache für Diskriminierung an den verschiedensten Stellen versteckt sein:

  • in der wissenschaftlichen Implementierung des Algorithmus (bisher kein Fall bekannt)
  • beim Sammeln der Daten
  • bei der Auswahl der Trainingsdaten
  • bei den Inputdaten aus dem laufenden Betrieb
  • in den Qualitäts- und Fairnessmaßen im Entscheidungssystem
  • bei der Interpretation des Ergebnisses und der darauf basiert gewählten Aktion

Was „fair“ heißt, ist eine gesellschaftliche Entscheidung, kann aber auch durch die Unternehmensphilosophie mitgestaltet werden. Akteure, die mit dem KI-System arbeiten, müssen das System selbst verstehen, aber auch die Probleme, die mit der Verwendung eines solchen Systems einhergehen können.

Algorithmische Entscheidungssysteme bedürfen einer sozio-informatischen Gesamtanalyse

Algorithmische Entscheidungssysteme, die reguliert, genormt und/oder kontrolliert werden sollten, haben folgende Eigenschaften: Sie enthalten eine lernende Komponente, treffen Entscheidungen über Menschen, deren Eigentum oder Zugang zu begrenzten Ressourcen und weisen das Potenzial auf, individuelle Grundrechte und/oder grundlegende demokratische Werte zu schädigen. Dabei spielt es keine Rolle, ob ein Mensch beim Entscheidungsprozess beteiligt ist oder nicht. Diese Art von Systemen müssen zusätzlich überprüft werden: beispielsweise auf Datenqualität und Repräsentativität, Fairness und Qualität der Ergebnisse oder auch Begründung und nachvollziehbare Entscheidungsfindung (für die Möglichkeit der Berufung).

Dabei ist es wichtig, sich vor der Entwicklung des Systems zu überlegen, welche Kriterien das System bzgl. Nachvollziehbarkeit erfüllen soll und welche Kritikalität es hat. Bei besonders strengen Anforderungen zur Nachvollziehbarkeit und Erklärbarkeit kann man z.B. nur nachvollziehbare Systeme einsetzen (was aber wiederum eine starke Einschränkung in der prädiktiven Power bedeutet) oder sogar noch einen Schritt weitergehen und auf den Einsatz von KI-Systemen verzichten. Umgekehrt kann es genauso Systeme geben, bei denen eine nachgelagerte Analyse für die Fehlerfindung ausreichend ist.

Fazit

Auf die Frage, wie die Ethik in den Rechner kommt, hat Herr Krafft eine einfache Antwort: Über uns – die Menschen, die am Entwicklungsprozess beteiligt sind. Vergangene Fälle haben gezeigt, dass die gesellschaftliche Hexenjagd bei Fehlern oder mangelnder Transparenz schnell passieren kann. Dies kann man vorbeugen durch Nachvollziehbarkeit und Erläuterungen an den entsprechenden Stellen.