Gleichstellung und Digitalisierung

person-uses-laptop

Das Themenfeld “Digitalisierung und Gleichstellung” ist weitläufig.


Flexible Arbeitszeiten und Gender Time Gap

Die Flexibilisierung von Arbeitszeit und -ort hat sich in den vergangenen Monaten nicht nur als individuelles Entgegenkommen, sondern als unumgängliche Notwendigkeit herausgestellt. Hochschulen, die bereits in unterschiedlichem Umfang von flexiblen Modellen Gebrauch machten, fiel die Umstellung im Lock-Down wesentlich leichter. Die vielerorts noch vorherrschende Präsenzkultur wurde aufgebrochen und neue Erfahrungen und Möglichkeiten digitaler Zusammenarbeit wurden gesammelt. Vorurteile gegenüber der eigenverantwortlichen Arbeit zuhause wurden abgebaut. Die Erfahrung zeigt, dass der befürchtete Leistungsverlust durch Homeoffice nicht eintritt.

Häufig wird “Digitalisierung” als Lösung für bestehende Probleme diskutiert, dabei handelt es sich um einen Prozes, den es umzusetzen gilt. Bei jeder Umstellung stellt sich die Frage „Wie wird dies umgesetzt – mit welchen Auswirkungen?“. Bei der Digitalisierung werden etablierte Arbeitsabläufe verändert, was auch veränderte Geschlechtereffekte mit sich bringt.

Tätigkeitsbeschreibungen müssen aufgrund von veränderten und oft verdichteten Arbeitsaufgaben neu evaluiert werden. Auch das Home-Office ist kein Allheilmittel für die Vereinbarkeit von Beruf und Familie. Stattdessen leidet darunter ohne entsprechende Regelungen z.B. die Sichtbarkeit und die Bewertung der Arbeitsleistung von Frauen. Kernarbeitszeiten und Gleitzeitregeln, sowie die Dokumentation der Arbeitszeit sollten daher eine Arbeitsortflexibilisierung begleiten, sowie geschlechtergerechte Beurteilungsrichtlinien und ein Anti-Bias-Training für Führungskräfte.


„[W]ie gut ein Algorithmus ist, hängt erstens von der Qualität der Daten ab, mit denen er gefüttert wird. Wenn die Daten nicht gut sind, kann der Algorithmus das Falsche daraus lernen. Und zweitens liegen jedem Schritt bei der Entwicklung des Algorithmus Werturteile zugrunde. Weshalb wird das System überhaupt zu diesem Zweck entwickelt, welche Daten werden zur Analyse herangezogen, und welche Schritte bearbeitet der Algorithmus? Jede Entscheidung, die dabei getroffen wird, beruht auf einem Weltbild. Software ist letztlich die Übersetzung von sozialen Interessen, Wünschen und Konventionen in eine formale Sprache.“

Katharina Zweig im Interview mit Christina Berndt: „Interview: Katharina Zweig über Algorithmen.“ Süddeutsche Zeitung, 18./19. August 2019 (189), S. 52.


Algorithmen und Maschinelles Lernen

Diskriminierungen in Algorithmen fallen oft erst auf, wenn Firmen ihre Produkte in die weitere und diversere Öffentlichkeit geben. Die Testläufe in den Entwicklungsteams funktionieren zu diesem Zeitpunkt bereits lange reibungslos – für das häufig sehr homogen eingesetzte Entwicklungsteam. Der bias im Algorithmus ist meist nicht intentional. Aber ohne entsprechende Diversität bereits im Entwicklungsteam fallen Probleme viel zu spät oder gar nicht auf. Um das Diskriminierungspotential von Algorithmen zu verstehen, bedarf es einer kurzen Definition. Die so genannten bias (Vorurteile, Verzerrungen) in Algorithmen können auf drei Ebenen entstehen:[1]

  1. Kognitive Bias: Menschen werden durch ihre Erfahrungen und Wahrnehmung geprägt. Diese sind wiederum geprägt durch unser soziokulturelles Umfeld, sowie durch gesellschaftliche Normen, Erziehung aber auch Medien- und Kulturangebote. Als Menschen tendieren wir dazu die Informationen, die mit unseren bisherigen Wahrnehmungen übereinstimmen als besonders wichtig und vertrauenswürdig einzuschätzen. Das sind s.g. kognitive Bias.
  2. Statistische Bias: Dies beschreibt „Verzerrungen in der Verteilung von Datenpunkten, sowie systemische oder zufällige Fehler in der Datenerhebung.“[2] So kann z.B. das Design eines Fragebogens Auswirkungen auf die Ergebnisse haben.
  3. Induktive Bias: Bei der Programmierung von Algorithmen werden notwendigerweise (Vor-)Annahmen getroffen damit Beobachtungen verallgemeinert werden können. Nur so können Algorithmen anhand von Beispielen generalisierte Aussagen treffen. Gleichzeitig basieren diese Annahmen auf historischen (d.h. zeitlich zurückliegenden) Daten, die wiederum besonders anfällig für einen Gender Data Gap sind.[3] Es besteht das Risiko, dass sich (unbewusste) Stereotype verfestigen. Das Beispiel von Amazon verdeutlicht diese Situation: In der Vergangenheit wurden hauptsächlich Männer eingestellt. Ohne gegenteilige Instruktion geht das algorithmische System davon aus, dass es dem Vorgehen weiter folgen – und weiter generalisieren – soll.[4]

Je homogener das Entwicklungsteam, desto größer allein bereits der kognitive bias. Umgehen können wir dieses Dilemma nur durch diverse Entwicklungsteams für alle Zertifizierungsprogramme von KI. Darüber hinaus bedarf es auch der Einbindung expliziter Gender- und Diversitykompetenz. Wo bestehen bereits bekannte Data Gaps? Bei welchen Annahmen werden Stereotype reproduziert? Ohne Einbindung dieser Kompetenzen bleibt das Bekenntnis zu Diskriminierungsfreiheit nur theoretisch.

Darüber hinaus müssen Anlauf- und Beratungsstellen für Diskriminierung durch Algorithmen geschaffen werden. Wir unterstützen daher insbesondere den Beschluss der der GFMK vom Juni diesen Jahres, sich für einen rechtlich gesicherteren Auskunftsanspruch einzusetzen und „die Antidiskriminierungsstelle des Bundes zu stärken, damit ihr die Durchführung von Verfahren zur Ermittlung möglicher Diskriminierung und die Durchsetzung von Auskunftsrechten faktisch möglich ist.“[5]

[1]    Die Definitionen mit Beispielen sind sinngemäß entnommen aus: C. Balkow, Dr. I. Eckardt, et al.: Denkimpulse Digitale Ethik: Bias in algorithmisches Systemen – Erläuterunngen, Beispiele und Thesen. D21 2019.
[2]    Ebd., S. 2.
[3]    In der Medizin besteht z.B. ein massiver Daten Gap zu Ungunsten von Frauen. Viele Studien werden an männlichen Probanden durchgeführt, um mögliche Interaktionen mit dem weiblichen Zyklus von vorneherein auszuschließen. Werden die Medikamente dann auf den Markt gegeben, gibt es kaum bis gar keine Informationen darüber, wie diese bei Frauen wirken. Für eine weitereichende Erläuterung zum Gender Data Gap siehe C. Criado Perez. Invisible Women: Exposing Data Bias in a World Designed for Men (2019).
[4]    Siehe hierzu auch: K. Zweig. Algorithmen kennen kein Taktgefühl. 2019.

[5]    Sonderkonferenz (Videokonferenz) der Gleichstellungs-und Frauenministerinnen und -minister, -senatorinnen und -senatoren der Länder am 25, Juni 2020. Beschlüsse und Entschließungen. https://www.gleichstellungsministerkonferenz.de/documents/20-07-01-schlussprotokoll-der-sonder-gfmk-25_juni-2020_2_3_1595231802.pdf


Gründerinnen und Startups

In Deutschland gründen immer noch weniger Frauen als Männer. Unter den Startups liegt der Frauenanteil aktuell bei knapp 16%.[1] Frauen werden bei der Mittelvergabe häufig aufgrund von unconscious bias schlechter bewertet. Die Einstiegshürden sind hoch. Dabei gründen statistisch gesehen Frauen nicht schlechter, nur „anders“. Die Bewertungskriterien sind hieran jedoch selten angepasst (s. Female Founders Monitor 2020).

Um diesen Unterschieden gerecht zu werden, bedarf es klarer Förderquoten, Ansprachen, Kapitalzugänge und Unterstützungsprogramme, die auf Frauen zugeschnitten sind. Die Harvard Business Review hat den Pitch bei der Gewinnung von Venture Capital als besonders anfällig für Vorurteile und nachteilig für Frauen identifiziert.¹ Geldgeber*innen müssen über Wahrnehmungsunterschiede und den Einfluss von unconscious bias in der Auswahl aufgeklärt werden. Der Vorgehensweise von Frauen bei Gründungen (Profitabilität statt Wachstum) muss Wertschätzung entgegengebracht werden.

¹ K. Jassam, M. Varadan, C. Zeisberger. How the VC Pitch Process Is Failing Female Entrepreneurs. Harvard Business Review, 13. Januar 2020. Sowie: A. Wood Brooks, L. Huang, S. Wood Kearney,F. E. Murray. “Investors prefer entrepreneurial ventures pitched by attractive men.” Proceedings of the National Academy of Sciences of the United States 111.12 (2014), S. 4427-4431.

Personenstandsgesetz und IT-Systeme

Hintergrundmaterialien:

Einschließlich insbesondere der folgenden Expertisen für den Dritten Gleichstellungsbericht der Bundesregierung:


Geschlechtergerechte Digitalisierung: Potentiale Nutzen, Teilhabe sichern

Stellungnahme der LaKof NRW

Positionspapier der DH NRW

Stellungnahme der LaKof NRW


Veröffentlicht in Allgemein