Dreieck

Dreiecksplatz

 Kultur   Gewerbe   Gastronomie   Blog 

Gendergerechtigkeit: HSBI Studie »Fit für KI?« zeigt, wo KI diskriminiert und was dagegen getan werden kannZoom Button

Die Studie fand in der »Denkfabrik Digitalisierte Arbeitswelt« an der HSBI statt, die sich bereits seit 2016 mit den Auswirkungen der Digitalisierung und Industrie 4.0 auf die Arbeitswelt befasst. Foto: P. Pollmeier, HSBI, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber

Gendergerechtigkeit: HSBI Studie »Fit für KI?« zeigt, wo KI diskriminiert und was dagegen getan werden kann

Gendergerechtigkeit: HSBI Studie »Fit für KI?« zeigt, wo KI diskriminiert und was dagegen getan werden kann

  • #KI Anwendungen sind im #Arbeitsleben und #Privatleben inzwischen allgegenwärtig. Der unkritische oder ungefragte Einsatz von Künstlicher Intelligenz kann allerdings zur Verfestigung von systematischer genderbezogener #Diskriminierung führen. In der »#Denkfabrik Digitalisierte Arbeitswelt« am Fachbereich Wirtschaft der Hochschule Bielefeld haben sich Wissenschaftler darüber Gedanken gemacht, in welchen Feldern Gegenmaßnahmen eingeleitet werden können.

Bielefeld, 12. Juli 2024

Erhöht Künstliche Intelligenz (KI) die Chancengleichheit, wie etwa bei der Besetzung einer neuen Stelle? Beispiele aus der Praxis zeigen, dass das Gegenteil der Fall sein kann. So vertraute ein global agierender Online Versandhandel im Recruiting Prozess einem Einstellungsroboter – und sah sich prompt mit Diskriminierungsvorwürfen konfrontiert: Die KI hatte Lebensläufe von Frauen häufig aussortiert und bevorzugte offenbar männliche Kandidaten. Ein weiteres Beispiel: Der Betreiber eines der größten #Social #Media Netzwerke weltweit zeigte Männern auf seiner Plattform häufiger Stellenanzeigen von technischen Berufen als Frauen. Offensichtlich hatte die KI das zahlenmäßige Übergewicht von Männern in technischen Berufen zur Annahme verleitet, dass dies auch für die Zukunft so gewünscht sei.

Negative Auswirkung auf Akzeptanz von KI

Die Berichterstattung über die Ausgrenzung von Frauen durch KI macht Schlagzeilen und hat Auswirkungen auf die Akzeptanz und Einsetzbarkeit der Technologie. Vor diesem Hintergrund hat eine Gruppe von Forschern an der #Hochschule #Bielefeld (#HSBI) die Studie »Fit für KI? durchgeführt. Unter der Leitung von Prof. Dr. Sascha Armutat vom #Fachbereich #Wirtschaft untersuchten die wissenschaftlichen Mitarbeiter Nina Mauritz, Malte Wattenberg, Lotte Prädikow und Maximilian Schulte genderrelevante Aspekte bei der Wahrnehmung und dem Verständnis von KI. Ziel der Arbeit war es festzustellen, in welchen Anwendungsbereichen von KI genderbezogene Diskriminierung wahrscheinlich ist sowie Weiterbildungs und Gegenmaßnahmen zu eruieren.

Die Studie fand in der »Denkfabrik Digitalisierte Arbeitswelt« an der HSBI statt, die sich bereits seit 2016 mit den Auswirkungen der Digitalisierung und Industrie 4.0 auf die Arbeitswelt befasst. Im Mai 2023 wurden Fokusgruppen mit Studenten aus höheren Semestern durchgeführt. Im Ergebnis identifizierten die HSBI Forscher dabei fünf Kategorien, die für die Teilnehmer die spezifischen Bedürfnisse und Perspektiven abbilden, damit KI Technologien künftig auf eine gerechtere und gleichberechtigtere Weise entwickelt und angewendet werden können und eine größere Akzeptanz erfahren: Neben der Kategorie »Freiheit von Diskriminierung« sind demnach »Wissen und Bildung« ebenso zu berücksichtigen wie »Geschlechterunterschiede (Sozialisierung und Stereotype)«, »Kommunikation und Benutzerfreundlichkeit« sowie »Transparenz und Regelungen«.

Unterrepräsentiertheit von Frauen führt zu mangelnder Leistungsfähigkeit von Systemen

»In vielen Wirtschaftsbereichen, insbesondere in großen Technologieunternehmen, ist eine geschlechtsspezifische Voreingenommenheit von KI Technologien zu beobachten, da hier vorwiegend Männer die Entwicklungsteams bilden«, so Armutat weiter. »Die Unterrepräsentiertheit von Frauen in den Daten, mit denen KI Systeme lernen, wirkt sich unter anderem auf die Leistungsfähigkeit von Stimm , Sprach und Gesichtserkennungssystemen aus, die bei Männern häufig zuverlässiger funktionieren«, berichtet der Professor mit Blick unter anderem auf die Studie der Gesichtserkennungsforscherin Joy Buolamwini vom Massachusetts Institute of Technology (MIT).

Systematische Verzerrungen, die durch unkritisch in KIs einfließende empirische Daten, geschlechtsbezogene Stereotypisierungen und Vorurteile entstehen, bezeichnet die Wissenschaft als »#Gender #Bias«. Darüber und über die aus solchen Erkenntnissen abzuleitenden Vorgaben für den transparenten Einsatz von KI und über Regelungen, die Diskriminierungen unterbinden, wurde in den Fokusgruppen am häufigsten diskutiert. Ihre Forderung lautet: Der Umgang mit KI müsse nachvollziehbarer und demokratischer gestaltet werden. Dazu könnte eine Kennzeichnungspflicht gehören, um anzuzeigen, wann jemand mit einer KI interagierte. Außerdem wurde der Wunsch nach Regelungen geäußert, in denen festgelegt wird, was KI darf und was nicht. Der EU AI Act, der KI Anwendungen in unterschiedliche Risikoklassen einordnen soll, geht hier in die richtige Richtung.

Stärkere Mitwirkung von Frauen bei der Entwicklung von KI notwendig

Für Frauen ist Wissen der Schlüssel für mehr Interesse an KI und mehr Gendergerechtigkeit, so ein weiteres Ergebnis der im Rahmen der Studie ausgewerteten Gesprächsrunden. Allerdings stellen hier verschiedene Formen der Diskriminierung, geschlechterstereotype Vorurteile und fehlende Gleichstellung nach wie vor Hindernisse dar. Die Stereotype, dass sich Frauen und Mädchen angeblich nicht für Technik interessieren oder womöglich auf diesem Gebiet weniger begabt seien, kann dazu führen, dass Frauen Studiengänge und Berufe in technischen Bereichen gar nicht erst in Erwägung ziehen. Das macht die Gefahr latent, dass KI Anwendungen auch in Zukunft dies als gegeben oder sogar wünschenswert hinnehmen und entsprechend agieren.

»Unsere Studie zeigt, dass sich Frauen mehr konkrete Anwendungsbeispiele und insgesamt eine bessere Kommunikation über die Vor und Nachteile von KI wünschen«, berichtet Armutat, nicht ohne den Hinweis, dass es vielen Männern ebenso geht. »Um den Gender Bias von KI zu überwinden, brauchen wir ein inklusives Bildungsumfeld, das die Sensibilisierung und Bildung für Frauen fördert. Wir müssen die Neugier und das Interesse von Frauen und Mädchen wecken«, skizziert der Wirtschaftswissenschaftler die praktischen Implikationen der Forschungsergebnisse. Flankierend braucht es Maßnahmen gegen diskriminierende Barrieren und Stereotype – in den Schulen und am Arbeitsplatz. Zudem sollten Frauen frühzeitig in die Entwicklung von KI Anwendungen einbezogen und klare Regeln geschaffen werden, um die Gleichberechtigung am Arbeitsplatz sicherzustellen.

Bildungseinrichtungen und Unternehmen kommt Schlüsselrolle zu

»Schulen müssen das Thema KI explizit auf ihren Lehrplan nehmen, vor allem aber müssen Lehrerinnen und Lehrer dafür sensibilisiert werden, dass sich ihre Geschlechterstereotypen folgenreich auf den Zugang von Schülerinnen zu Schlüsseltechnologien der Zukunft auswirken«, betont Prof. Dr. Armutat.

Interessant sind die Ergebnisse vor allem für Unternehmen, in denen immer häufiger KI Systeme zum Einsatz kommen: »Bei der Implementierung dieser Systeme muss berücksichtigt werden, dass Mitarbeiterinnen einen anderen Zugang zur Thematik haben können als die Mitarbeiter«, gibt Armutat zu bedenken. Daraus folgt unter anderem, dass es geschlechterparitätisch besetzte Projektgruppen zur Einführung von KI geben sollte und dass eine substanzielle, gendersensible inhaltliche Aufklärung betrieben werden muss.

  HOME     IMPRESSUM     DATENSCHUTZ  
Gütsel Skyline
Gütsel Print und Online Ampersand + SEO Gütersloh