Gastbeitrag von Bartosz Przybylek, Imke Ohms, Leon Trippel, whyzer GmbH
Eine künstliche Intelligenz, die Bewerbungen sichtet und aussortiert – ist das eine gute Idee? Das Bremer Unternehmen whyzer beleuchtet Ethik und digitale Unternehmensverantwortung am Beispiel des Einsatzes von künstlicher Intelligenz (KI) im Personalbereich.
Amazon entwickelte 2015 die Idee, den eigenen Bewerbungsprozess per KI zu unterstützen. Das neuronale Netz, das künftig Bewerbungen vorsortieren sollte, trainierte der Konzern mit Bewerbungen früherer Kandidat:innen. Da sich in der Vergangenheit überwiegend Männer bei Amazon beworben hatten, bestanden die Trainingsdaten folglich auch mehrheitlich aus Bewerbungen von Männern. Amazons KI-Anwendung lernte daraus und bewertete die Bewerbungen von Frauen grundsätzlich schlechter.
Doch allein aus dem Fakt, dass sich in der Vergangenheit weniger Frauen als Männer beworben hatten, kann natürlich kein Rückschluss auf die Eignung von Frauen für den Beruf gezogen werden. Das Datenset bildete zwar die empirische Realität ab, es muss jedoch hinterfragt werden, ob in den Daten auch zeitgemäße gesellschaftliche Wertvorstellungen und Normen enthalten sind, für die das Unternehmen auch stehen will. Amazon musste sich zum Beispiel die Frage stellen, ob das Datenset die gesetzliche und gesellschaftliche Forderung der Gleichstellung von Frauen und Männern abbildet.
Die Programmierung der KI war somit ethisch problematisch, da sie Diskriminierung durch bestehende Strukturen widerspiegelte und sie potenziell sogar durch die KI-Anwendung fortgeführt oder gar verstärkt werden könnte. Der Konzern stellte schlussendlich die Entwicklung der KI in diesem Bereich ein.
KI-Einsatz im Personalwesen: Ethische Fragestellungen
Das Beispiel von Amazon verdeutlicht, dass an vielen Stellen in der Praxis der automatisierten Personalauswahl ethische Probleme entstehen können: Diese Probleme betreffen keine persönlichen Präferenzen, Ästhetik oder empirische Streitigkeiten. Stattdessen enthalten ethische Probleme Fragestellungen, die bestehende Werte und Normen einer Gesellschaft betreffen, wie zum Beispiel Gleichberechtigung oder Freiheit. Eine ethische Auseinandersetzung damit bedeutet, diese zu hinterfragen und die Argumente offen zu legen, was für richtig und wichtig für ein gutes Leben in der Zukunft gehalten wird. Da KI oft auch eine Projektionsfläche für gesellschaftlich gewünschte Zustände in der Zukunft ist, ist sie somit auch ein relevantes Gebiet ethischer Reflexion.
Rein technisch könnte eine KI-Anwendung menschliche Arbeitsleistungen bei der Auswahl von Bewerbungen ersetzen und eine Vorauswahl aus dem Pool der Bewerber:innen treffen. Zudem steht auch die Bewerber:innenauswahl durch den Menschen häufig in der Kritik, da in ihr besonders unbewusste Vorurteile von Mitarbeiter:innen in der Personalauswahl zum Tragen kommen.
Von KI-Anwendungen hingegen erwarten wir, dass sie eine rationale Auswahl treffen, ohne dass Sympathien oder Antipathien oder unbewusste Vorurteile (engl. unconscious bias) in die Entscheidung mit einfließen. Schließlich suggeriert die mathematische Vorgehensweise und die formalisierten Entscheidungswege von KI-Anwendungen eine Wertneutralität, weshalb ihnen eine besondere Rationalität zugeschrieben wird. Es zeigt sich jedoch, dass bereits mit der Sammlung und dem Zusammenführen der Daten von Bewerber:innen oder Mitarbeiter:innen Unternehmen mit ersten ethischen Herausforderungen konfrontiert werden, welche aber oftmals nicht wahrgenommen werden (wie im Amazon-Beispiel).
Ethischer KI-Einsatz: Bereits bei der Programmierung die eigenen Vorurteile bedenken
Künstliche Intelligenz basiert auf von Programmierer:innen entwickelten, selbstlernenden Algorithmen. Algorithmen sind feste Entscheidungsmuster. Anhand von Trainingsdaten leitet der Algorithmus Regeln auf Basis von statistischen Korrelationen ab. Daher wird durch die Auswahl der Trainingsdaten beeinflusst, nach welchen Regeln die KI-Anwendung ihre Entscheidungen trifft.
Die statistischen Korrelationen in den Datensets bilden jedoch lediglich die empirische Realität eines vorherigen Datensatzes ab: Wie das Beispiel von Amazons Bewerber:innendaten verdeutlicht, können historisch gewachsene oder homogene Datensätze sogenannte Verzerrungen (engl.: Bias) beinhalten. Daher bedarf es in der Qualitätskontrolle des Datensatzes auch einer normativen Überprüfung mit Blick auf die zukünftig gewünschten Wertvorstellungen. Es kann folglich nicht davon ausgegangen werden, dass die Ergebnisse einer KI-Anwendung „neutraler“ oder „rationaler“ sind als der Datensatz, mit welchem diese trainiert wurde. Vielmehr ist es sogar möglich, dass KI-Anwendungen die in den Datensätzen enthaltenen und ungewünschten Verzerrungen noch zusätzlich verstärkt.
Eine KI ist demnach nicht wertneutral und bildet nur einen Status Quo und damit auch gesellschaftlich manifestierte ethische Probleme ab. Wenn beispielsweise eine KI-Anwendung die Vorauswahl von Bewerber:innen treffen soll, müssen Menschen zunächst entscheiden, welche Eingabedaten der selbstlernende Algorithmus erhält und wie die Datenreihen im Trainingsdatensatz kategorisiert werden. Zuletzt muss jedoch entweder anhand von Daten der bisher eingestellten Bewerber:innen, einer selektierten Spitzengruppe oder einer ähnlichen Trainingsgruppe definiert werden, wer in den Trainingsdaten zur Gruppe der gewünschten Bewerber:innen gehört. Letztendlich ist der selbstlernende Algorithmus immer auf eine Definition des Richtigen angewiesen. Wenn diese Definition oder die Einordnung der Ergebnisse der KI-Anwendung durch den Menschen nicht reflektiert erfolgt, wird lediglich der aktuelle Status Quo des Einstellungsprozesses in die Zukunft übertragen und in seinen Defiziten möglicherweise noch verstärkt.
Um dem entgegenzuwirken, werden automatisierte Entscheidungssysteme zunehmend mit dem Konzept „Human in the Loop“ kombiniert, bei dem ein Mensch den Entscheidungen des Algorithmus an einer vordefinierten Stelle im Entscheidungsweg widersprechen kann. Damit lassen sich zwar viele Problematiken von KI-Anwendungen lösen und die empathische Komponente zurück in moralisch unreflektierte und automatisierte Entscheidungssysteme bringen, aber ebenso auch die Vorurteile und Wahrnehmungsverzerrungen der Entscheider:innen.
Sind bereits gesammelte Daten brauchbar?
In vielen Unternehmen spiegeln bereits existierende Datensätze oftmals leistungsorientierte anstatt kontextsensible Auswahlkriterien wider. In der Vergangenheit gesammelte Daten enthalten daher zumeist keine Repräsentation der Wert- und Zielvorstellungen, die vielleicht heute schon im Unternehmen gelebt werden.
Gleichzeitig können unreflektierte Entscheidungen auf Basis von Daten zu Diskriminierung führen, da sich hinter scheinbar neutralen Daten Vorurteile verstecken können. Allein sensible Daten, wie zum Beispiel das Geschlecht, die Herkunft oder den Namen aus den Trainingsdaten auszunehmen, reicht häufig nicht aus. Beispielsweise wird in Bewerbungen häufig der Wohnort der Bewerber:innen erfasst. Jetzt könnten wohlhabendere Gegenden überdurchschnittlich viele Akademiker:innen hervorbringen, die angestellt worden sind. Die KI erkennt darin ein Muster und wählt künftig aufgrund des Wohnorts aus, obwohl dieser keinen individuellen Rückschluss auf die Eignung zulässt.
Um ethische Urteile zu treffen, welche in der Bewerber:innenwahl eine große Rolle spielen, ist es daher notwendig, sowohl die empirischen Bedingungen als auch die moralischen Ideale in dieser Situation zu reflektieren. Andernfalls kann sich dies in einer Fortsetzung von Diskriminierung, unverantwortlichem Handeln oder jeglicher Art von vergangenem Fehlverhalten äußern. Hierbei gilt es jedoch auch zu beachten, dass nicht nur Datenwissenschaftler:innen sondern auch Entscheider:innen bei der Erfassung und Auswahl von Daten selektiv vorgehen und damit stets ihre persönlichen Annahmen und (unbewussten) Vorurteile einfließen lassen können.
Diverse Datensätze und diverse Teams in der Personal-KI
KI-Anwendungen können zwar menschliche Arbeitsleistungen z.B. in Form der Vorauswahl von Bewerber:innen ersetzen, jedoch ist für eine erfolgreichen Einsatz entscheidend, dass die Mitarbeiter:innen sich über Probleme von KI-Anwendungen bewusst sind.
Insbesondere wenn es sich bei einer verwendeten KI-Anwendung um eine sogenannte „Black Box“ handelt, das heißt die Entscheidungsmuster für die Anwender:innen der KI nicht nachvollziehbar sind, besteht eine Chance, unbewusst Bewerber:innen zu diskriminieren. Dies kann beispielsweise der Fall sein, wenn ein Unternehmen eine KI-Anwendung eines externen Anbieters nutzt und die Referenzgruppe in den Trainingsdaten primär nach Leistungskriterien ausgewählt wurde. In diesem Fall sind sich die Anwender:innen im Unternehmen nicht bewusst, dass der Algorithmus indirekt eine diskriminierende Vorauswahl an Bewerber:innen trifft. Dennoch kann die Vorauswahl von Bewerber:innen durch eine KI-Anwendung auch positive Auswirkungen haben, beispielsweise durch eine hohe Diversität in der Referenzgruppe.
Was ergibt sich daraus für Unternehmen, die KIs einsetzen wollen?
- Festzuhalten bleibt demnach, dass Datensets möglichst divers sein sollten, zum Beispiel in Bezug auf Herkunft, Alter, Geschlecht, Religion, Bildung, Behinderung oder anderer individueller Merkmale, denn nur so bilden sie auch die gesellschaftliche Vielfalt ab.
- Im Verwendungskontext der Daten sollte stets berücksichtigt werden, ob die verwendeten Daten in dem Anwendungsfall auch relevant sind.
- Darüber hinaus sollten die Teams der Entscheider:innen sowie Datenwissenschaftler:innen ebenso divers besetzt sein, damit möglichst viele (unbewusste) Vorurteile aufgedeckt werden können.
Während in der Vergangenheit Diversität ein stark unterrepräsentiertes Auswahlkriterium war, begreifen viele Unternehmen das Diversitätsmanagement heute nicht nur als Verantwortung oder Pflicht, um Diskriminierung abzubauen, sondern auch als Wettbewerbsvorteil. Dies ist eine Chance sowohl die neuen Technologie-gestützten als auch die bestehenden Prozesse daraufhin kritisch zu überprüfen.
Das wohl größte ethische Spannungsfeld im Umgang mit Daten und KI-Anwendungen besteht zwischen der durch Daten repräsentierten Vergangenheit und unseren moralischen Forderungen an die Zukunft. Die Frage, die dabei immer wieder gestellt werden sollte, lautet: Spiegelt der erfasste Status Quo unsere moralischen Anforderungen wider? Ein digital verantwortliches Handeln berücksichtigt diese mögliche Divergenz zwischen der Realität, den Daten, den gesellschaftlichen und den eigenen Wertevorstellungen.
Konkret können Sie sich einmal selbst die Frage stellen, welche Werte Sie vertreten und ob Ihr Unternehmen diese im Umgang mit Daten und KI-Anwendungen auch berücksichtigt.
Ausblick: Rechtliche Regulierung von KI
Um die bestehenden ethischen Probleme nicht fortzuführen und bessere KI-Anwendungen zu entwickeln, bedarf es daher Maßnahmen zur Einschränkung und Minimierung gesellschaftlich unerwünschter Folgen. Bisher ist Ethik wenig in die Entwicklung und Verwendung von KI einbezogen worden. Nun aber wird der gesellschaftliche Aushandlungsprozess für die ethischen Vorgaben für KI verstärkt geführt. Unternehmen, welche sich für den verantwortungsvollen Einsatz und die Regulierung von KI-Anwendungen engagieren, adressieren proaktiv die Gestaltungsfrage Künstlicher Intelligenz und nehmen damit am gesellschaftlichen Diskurs über unsere Zukunft teil. Gleichzeitig bereiten sie sich damit auf mögliche rechtliche Regulierungen vor und folgen auch ihren direkt wirtschaftlichen Zielen. Denn ein verantwortungsvoller Einsatz von KI steigert nicht nur das Vertrauen und die Akzeptanz neuer Technologien bei den eigenen Mitarbeiter:innen, sondern auch bei den Kund:innen.
Im Spannungsfeld zwischen Regulatorik und Selbstverpflichtung befindet sich digitale Unternehmensverantwortung bzw. Corporate Digital Responsibility (CDR). Wenn Unternehmen selbst nicht die Verantwortung für digitale Technologien übernehmen, werden staatliche Instanzen früher oder später eingreifen und Regulierungen erlassen. Diese könnten auch sinnvolle Handlungsspielräume schließen und sind oftmals mit viel Bürokratie verbunden. In der Vergangenheit war dies beispielsweise bei der Einführung der DSGVO zu beobachten.
Um im Unternehmen den Einsatz von KI-Anwendungen verantwortungsvoll zu realisieren, ist ein Compliance Ansatz allein jedoch nicht zielführend. Dieser übersieht die implizit getroffenen Entscheidungen und Vorurteile, welche sich in den Daten und Algorithmen verstecken können. Daher erfordert der Einsatz von KI-Anwendungen sowohl ethische Leitlinien und Rahmenwerke als auch Maßnahmen zur Förderung der Integrität. Durch die Sensibilisierung von Mitarbeiter:innen für die ethischen Herausforderungen digitaler Technologien wird zunächst sichergestellt, dass diese die nötigen Kompetenzen besitzen, um auch im Tagesgeschäft verantwortungsvoll handeln zu können.
Bisher fällt die Regulierung von KI-Anwendungen (noch) in den Bereich der unternehmerischen Selbstverpflichtung. Die EU machte Ende April 2021 allerdings einen Vorstoß in Richtung rechtlicher Regulierung von KI-Anwendungen, auch die als Beispiel verwendete Bewerbungssituation wird darin adressiert. Unternehmen sollten jedoch nicht erst auf die Regulierung reagieren, sondern sich schon jetzt proaktiv dem Thema widmen, um die Potenziale verantwortungsvoller Digitalisierung auszuschöpfen.
Über whyzer
Digitalisierung verantwortungsvoll gestalten – das ist das Ziel von whyzer. Das junge Start-up, gegründet von Geschäftsführer Bartosz Przybylek, berät Unternehmen, die verantwortungsbewusst mit digitalen Technologien wie der KI umgehen wollen. Das Team entwickelt Strategien, veranstaltet Seminare, managt Innovationsprozesse und hat einen Blick auf ethische Fragestellungen, die bisher nicht im direkten Fokus eines Unternehmens liegen. Unternehmen können so Vertrauen in ihre Produkte und Dienstleistungen schaffen und für höhere Akzeptanz sorgen.
Kontakt
Inis Ehrlich
Die Senatorin für Wirtschaft, Arbeit und Europa
Projektkoordination und Leitung Transferzentrum BREMEN.AI
T +49 (0) 421 361-4185
inis.ehrlich@wah.bremen.de
https://transferzentrum-bremen.ai/
Ethik & Gesellschaftspolitik-Meetup
Regelmäßig diskutieren die Teilnehmenden des Ethik & Gesellschaftspolitik-Meetups vom Bremer KI-Netzwerk Bremen.AI über gesellschaftliche Herausforderungen der KI. Die Themen sind dabei vielfältig: Liebe, Datenschutz, Journalismus oder die Arbeitswelt von morgen.