Systeme, die Künstliche Intelligenz (KI) einsetzen, das heißt Technologien, die anhand von Algorithmen und Datensätzen selbstständig "lernen“ und auf Grundlage der daraus resultierenden Ergebnisse „eigene“ Entscheidungen treffen, können geschlechterdiskriminierende Entscheidungen treffen. Ihren Ursprung hat diese Geschlechterdiskriminierung in verzerrten und verzerrenden Datensätzen und menschlichen Entscheidungen. Sogenannte bias, d.h. Verzerrungen, zum Beispiel Unregelmäßigkeiten in der Repräsentation der Geschlechter in den Datensätzen, aber auch Vorurteile der für die Entwicklung und Einsetzung verantwortlichen Personen, fließen in den Lernprozess des Algorithmus ein und führen zu ggf. diskriminierenden Ergebnissen.
Diese Handreichung hat das Ziel, konkrete Handlungsempfehlungen für eine geschlechterneutrale Entwicklung und Einsetzung von KI-Systemen zu formulieren. Nach einer kurzen Einführung in die Technik der KI beleuchtet sie zunächst den bestehenden rechtlichen Rahmen der Geschlechterdiskriminierung und beschreibt die Problematik der bias–Bildung. Sie analysiert bereits bestehende Empfehlungen zur Diskriminierung durch KI-Systeme im Allgemeinen auf nationaler und internationaler Ebene sowohl für den öffentlichen als auch den privaten Sektor. Daraus resultierend stellt sie schließlich eigene Empfehlungen für eine geschlechterneutrale Künstliche Intelligenz auf.
Geschlechterneutrale KI - Handreichung
Geschlechterneutrale KI - Handreichung Kurzversion