Kategorien
Wissenschaft

Diskriminierende Technologien – wie Künstliche Intelligenz soziale Ungleichheiten verstärkt

Beitrag von Theresa Scheutzow

Photo by Godfrey Atima on pexels.com

Mit der Entwicklung von maschinellem Lernen und Künstlicher Intelligenz wird Effizienzsteigerung, das Lösen komplexer Probleme und eine bessere Zukunft für alle versprochen. Jedoch sind viele Anwendungen nachweislich rassistisch, sexistisch, klassistisch, ableistisch und queerfeindlich1 2 3 4 5. Beispielsweise klassifiziert Googles Fotoanwendung Schwarze Menschen als Gorillas6. Frauen* werden durch Künstliche Intelligenz als weniger kreditwürdig eingestuft7. Schwarzen Menschen wird öfters eine höhere Kriminalitätsrate zugewiesen und auf Basis von Künstlicher Intelligenz werden sie häufiger verhaftet für Straftaten, die sie nicht begangen haben8. Gesichtserkennungssoftwares erkennen in der Regel Gesichter Schwarzer Frauen* deutlich schlechter und sind damit in vielen Anwendungen nicht nutzbar und diskriminierend9. Außerdem werden Frauen* in mehreren automatisierten Recruitingprozessen für IT- oder Führungspositionen aufgrund des zugewiesenen Geschlechts nicht berücksichtigt10. Diese Vorfälle sind nicht nur Einzelfälle, sondern das Produkt struktureller Diskriminierung. Technologien reproduzieren soziale Ungleichheiten und Diskriminierungen, da sie in eurozentristischen, hegemonialen, patriarchalkapitalistischen Systemen entstehen, dort trainiert, evaluiert und genutzt werden.

Verzerrungen in Mensch-Maschine-Interaktionen

Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz und wird darauf trainiert, Muster zu erkennen und Entscheidungen zu treffen, ohne dass sie für jede Aufgabe explizit programmiert werden muss. Künstliche Intelligenz wird anfangs in einer engen Mensch-Maschine-Interaktion entwickelt. Entwickler*innen wählen das passende System und Datensätze aus. Anschließend wird das System mit den vorhandenen Daten trainiert, getestet und am Ende implementiert. Anwendungen, die auf Künstliche Intelligenz basieren, enthalten jedoch Verzerrungen, die zu den diskriminierenden Outputs führen. Verhaltensbedingte Verzerrungen wie Stereotypisierung und Gruppendenken spielen eine entscheidende Rolle dabei, wie Daten gesammelt, verarbeitet und in das Modelltraining implementiert werden. Dadurch wird die rationale und repräsentative Auswahl von Daten, Algorithmen und Bewertungsmaßstäben eingeschränkt. Diese Entscheidungen haben Auswirkungen auf gesellschaftlicher und individueller Ebene, die letztlich lebensentscheidend sein können. Der durch die binäre Geschlechtertrennung beeinflusste Gender Data Gap verursacht beispielsweise, dass Krankheiten von FLINTA* schlechter diagnostiziert werden können, was sich in Medizintechnik-Anwendungen fortsetzt11.

Die Quellen der Verzerrung liegen nicht nur in den Daten, sondern auch in der Wahl des Lernmodells, der Algorithmen, der Modellbewertung und führen zu Rückkopplungs-Effekten während der tatsächlichen Anwendung. Da menschliche Entwickler*innen eigene Verzerrungen wie Vorurteile im Umgang mit dem maschinellen System einbringen, ist die gesamte Mensch-Maschine-Interaktion sehr fehleranfällig und verzerrt.

Wer profitiert von der Verwendung Künstlicher Intelligenz?

Es gibt viele Beispiele, die das positive Wirken von Künstlicher Intelligenz zeigen. Durchbrüche in der Medizin, Automatisierung von Routinearbeiten und verbesserte Übersetzungsanwendungen beeinflussen das Leben vieler Menschen positiv und fördern Inklusivität und Teilhabe. Durch die Entwicklung und Verwendung Künstlicher Intelligenz-Anwendungen profitiert aber vor allem eine bestimmte Gruppe von Menschen: es handelt sich um weiße Menschen des globalen Nordens, vorrangig heterosexuelle, nichtbehinderte Männer der Mittelschicht. Auf der anderen Seite führt der Einsatz Künstlicher Intelligenz zu einer unkontrollierten Zahl von Menschenrechtsverletzungen bei FLINTA* und nicht-weißen Menschen. Künstliche Intelligenz wird programmiert, getestet, angewendet und überwacht von einer Mehrzahl männlicher Personen des globalen Nordens, also jener Personengruppe, die der gesetzten Norm entspricht und strukturell bedingt eine Machtposition hat12. Die kleine Gruppe von Menschen, die der herrschenden Norm entspricht, entscheidet meist über minorisierte Menschengruppen, indem sie die Systeme der Künstlichen Intelligenz implementiert und überwacht. Die Forscherin Dr.*in Joy Buolamwini hat beispielsweise festgestellt, dass Gesichtserkennung bei Schwarzen Menschen deutlich schlechter funktioniert13. Diese Beispiele von Fehlklassifizierungen haben schwere menschenrechtliche Folgen und sind zum Nachteil Schwarzer Männer* und insbesondere Schwarzer Frauen* bzw. FLINTA*. Die Prozess der Identifikation struktureller Voreingenommenheit von Technologien und die politischen Konsequenzen werden in der Dokumentation „Coded Bias“ gezeigt und können in den Publikationen nachgelesen werden14 15.

Künstliche Intelligenz: ökologisch und sozial nicht nachhaltig

Die sozialen und ökologischen Dimensionen der Lieferketten, um Künstliche Intelligenz erstmal bereitstellen zu können, sind ebenso geprägt von Ausbeutung, kolonialistischen Strukturen, Diskriminierung, menschenverachtenden Bedingungen und Umweltverschmutzung16 17. Beispielsweise durch den Abbau von Rohstoffen für die Hardwareproduktion in Bürgerkriegsregionen, durch Kinderarbeit und begleitet von Gesundheitsgefährdungen.

Koloniale Strukturen, die hegemoniale Machtverteilung und die patriarchal-kapitalistischen Systeme werden durch neue Technologien aufrechterhalten und verstärkt. Künstliche Intelligenz ist eine männlich geprägte Technologie und reproduziert die sozialen Ungleichheiten der Vergangenheit. Durch den Einsatz Künstlicher Intelligenz wird die hegemoniale, heteronormative, patriarchale, kapitalistische Logik der Gesellschaftssysteme des globalen Nordens aufrechterhalten und gefördert. Die Erhaltung der weißen Vormachtstellung spiegelt sich damit auch in der Entwicklung des digitalen Kapitalismus wider, der darüber hinaus Politik, Kultur, Kunst und andere Lebensbereiche prägt. Es gibt kaum gesetzlichen Schutz vor den negativen Auswirkungen durch die verzerrten Anwendungen. Ziel ist somit eine intersektionale, queer-feministische Technologieperspektive von und für diverse Menschen.

Weiterführende Quellen:

„Coded Bias“ (2020) (Dokumentarfilm)

Algorithm Justice League (Plattform)

Feminist AI (Plattform)

DAIR Institute (Forschungsinstitut)

„Die Schönheit des Denkens“ (2022) (Buch) Dr*in Hannah Fitsch hielt im Rahmen der Gender Lectures an der UIBK im Mai 2023 einen Vortrag über den Einfluss einer mathematischen Logik in Technologien, die damit Körpernormierungen und Subjektivierungsweisen beeinflussen. Damit beschreibt sie, wie Technologien die diskriminierende Unterscheidung und Klassifizierung von Menschen verstärkt. Der Vortrag kann nachgehört werden unter 18.

„Weapons of Math Destruction” (2017) (Buch)


Zur Autor*in

Theresa Scheutzow studiert im Master Gender, Kultur und Sozialer Wandel und beschäftigt sich mit dem Einfluss von Verhaltensverzerrungen auf maschinelles Lernen und Diskriminierung durch Künstliche Intelligenz aus einer queer-feministischen Perspektive.

Die Publikation der Masterarbeit ist zu finden unter: Scheutzow, Theresa. 2023. Behavioral Biases in Human-Machine-Interactions in Machine Learning. DHBW AI Transfer Congress, Stuttgart 2023. ISSN: 2976.1735.  https://www.dhbw.de/fileadmin/user_upload/Dokumente/Forschung/AI_Transfer_Congress/Proceedings_DHBW_AITC_2023.pdf

Quellen:

1 Bender, E. M., Gebru, T., McMillan-Major, A. und Mitchell, M. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Conference of Fairness, Accountability, and Transparency, 610–623. https://doi.org/10.1145/3442188.3445922.

2 Buolamwini, J., Gebru, T. 2018. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.

3 Cabrera, A. A., Epperson, W., Hohman, F., Kahng, M., Morgenstern, J., und Chau, D. H. 2019. Fairvis: Visual Analytics for A Discovering Intersectional Bias in Machine Learning. IEEE Conference on Visual Analytics Sci-ence and Technology, 46–56. https://doi.org/10.1109/VAST47406.2019.8986948.

4 Chouldechova, A. 2017. Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. Big Data & Society, 5, 1–17. https://doi.org/10.1089/big.2016.0047.

5 Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., und Galstyan, A. 2021. A Survey on Bias and Fairness in Machine Learning. ACM Computing Surveys, 54(6), 1–34.

6 https://www.spiegel.de/netzwelt/web/google-fotos-bezeichnet-schwarze-als-gorillas-a-1041693.html

7 https://www.zeit.de/digital/datenschutz/2019-11/apple-card-kreditvergabe-diskriminierung-frauen-algorithmen-goldman-sachs

8 https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

9 https://www.media.mit.edu/projects/gender-shades/overview/

10 https://www.derstandard.at/story/2000089096622/amazon-streicht-ki-rekrutierungstool-wegen-frauenfeindlichkeit

11) https://il.boell.org/en/2021/12/24/gender-gap-ai

12 Maslej, N., Fattorini, L., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Ngo, H., Niebles, J. C., Parli, V., Shoham, Y., Wald, R., Clark, J. und Perrault, R. 2023. The AI Index 2023 Annual Report. Human-Centered Artificial Intelligence. Stanford University. Retrieved on 27.04.2023, from https://aiindex.stanford.edu/report/.

13 Buolamwini, Joy und Timnit Gebru. 2018. Gender Shades: Intersectional Accuracy Dispar-ities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.

14 https://www.media.mit.edu/publications/full-gender-shades-thesis-17/

15 https://www.codedbias.com/

16 https://utopia.de/ratgeber/kobalt-das-solltest-du-ueber-den-abbau-des-handy-rohstoffs-wissen_152389/

17 https://www.umweltbundesamt.de/themen/digitalisierung/gruene-informationstechnik-green-it

18 https://www.uibk.ac.at/de/geschlechterforschung/veranstaltungen/2023/77-innsbrucker-gender-lecture-mit-hannah-fitsch-9-mai-2023/

19 Scheutzow, Theresa. 2023. Behavioral Biases in Human-Machine-Interactions in Machine Learning. DHBW AI Transfer Congress, Stuttgart 2023. ISSN: 2976.1735.  https://www.dhbw.de/fileadmin/user_upload/Dokumente/Forschung/AI_Transfer_Congress/Proceedings_DHBW_AITC_2023.pdf

Hinterlasse einen Kommentar