Kategorien
Wissenschaft

Diskriminierung in Onlinekommunikationsräumen: ein (rechtlicher) Überblick

Gastbeitrag von Felicitas Rachinger

Photo by Magnus Mueller on Pexels.com

Wir freuen uns euch im neuen Jahr mit einem Gastbeitrag von Felicitas Rachinger willkommen (zurück) zu heißen:

Onlinekommunikationsräume spielen eine immer wichtigere Rolle für Vernetzung und Meinungsaustausch, Aktivismus und gesellschaftliches Engagement. Das gilt nicht nur, aber in besonderem Maß auch für marginalisierte Personen(-gruppen). Gleichzeitig findet aber auch in digitalen Räumen Diskriminierung statt: Exklusionsmechanismen werden in den digitalen Raum übertragen und teilweise sogar verstärkt. In meiner Dissertation widme ich mich der rechtlichen Ebene dieser Problematik.

Diskriminierung in Onlinekommunikationsräumen

Onlinekommunikationsräume sind geprägt von Kommunikationsplattformen wie Facebook, Twitter, TikTok und Co., die im Regelfall von privaten Unternehmen betrieben werden. Private Unternehmen sind – im Gegensatz zum Staat – nicht unmittelbar an Grundrechte wie etwa Meinungsfreiheit oder den Gleichheitssatz gebunden. Sie entscheiden in weiten Teilen frei, wer Zugang zur Plattform hat und wer dort welche Inhalte verbreiten darf. In diesem Zusammenhang spricht man auch von Content Moderation, also der Moderierung von Inhalten durch die Plattform. Plattformen geben Ausrichtung und Ausgestaltung der Plattform vor, was sie in eine machtvolle Position bringt.[1] Den ökonomischen Interessen entspricht es, Nutzer*innen so lange wie möglich auf der Plattform zu halten, öffentliche Interessen wie Gleichstellung werden häufig nur sekundär verfolgt.

Mangelnde Barrierefreiheit, die stärkere Betroffenheit bestimmter Gruppen von digitaler Gewalt und Hate Speech[2] oder Diskriminierung in der Content Moderation durch die Plattformen sind nur einige Beispiele von Ungleichbehandlung, die dazu führen kann, dass die Stimmen von marginalisierten Personen und Personengruppen in digitalen Räumen weniger Verbreitung finden als andere („Silencing“). Ein Beispiel: TikTok machte 2019 mit diskriminierenden Moderationspraxen Schlagzeilen: Die Plattform hatte die Reichweite von Inhalten, die von Personen mit Beeinträchtigung gepostet wurden, eingeschränkt – vorgeblich, um die betroffenen Personen vor Mobbing zu schützen.[3]

Nicht immer ist auftretende Diskriminierung bedingt durch eine bewusste Entscheidung der Plattformen. Gerade im Bereich der Content Moderation kommt es beim Einsatz von algorithmischen Entscheidungssystemen und künstlicher Intelligenz zu „versteckter Diskriminierung“, die nicht immer gleich als solche erkennbar ist. Derartige Technologien sind in der Praxis der Plattformen mittlerweile vielfach im Einsatz und beeinflussen maßgeblich, wie Inhalte gerankt werden (also wer welche Inhalte in welcher Anordnung und Konstellation zu sehen bekommt). Sie werden aber auch eingesetzt, um Hate Speech und illegale Inhalte besser zu erkennen und bei Rechtsverstößen oder Verstößen gegen die selbstgesetzten Nutzungsbedingungen der Plattformen zu entfernen. Zu Ungleichbehandlung kann es dabei etwa durch nicht-repräsentative Daten oder mangelndes Bewusstsein für die Problematik in Entwicklungsteams kommen.

Im Feld der Onlinekommunikation zeigt sich die Komplexität von Sprache und die Relevanz von Kontext für die Einordnung von Inhalten als Problem. So zeigte sich, dass eigens zur Bekämpfung von Hate Speech entwickelte Systeme nicht in der Lage sind, den sozialen Kontext von Äußerungen und sprachliche Besonderheiten bestimmter Gruppen richtig einzuordnen. Eine Forscher*innengruppe rund um Thiago Dias Oliva zeigte auf, wie es dadurch zum Silencing von Stimmen der LGBTIQ* – Community kommt.[4]

Rechtliche Abhilfe gegen Diskriminierung in Onlinekommunikationsräumen

Rechtliche Abhilfe gegen Diskriminierung im digitalen Raum ist nur in beschränktem Ausmaß gegeben. Das österreichische Gleichbehandlungsrecht wurde durch EU-Richtlinien in den frühen 2000ern maßgeblich geprägt und bietet vor allem in der Arbeitswelt Schutz vor Diskriminierung. Im Bereich der Güter und Dienstleistungen zeichnet sich eine komplexe und verschachtelte Gesetzessystematik ab: Private Dienstleister wie etwa Kommunikationsplattformen sind grundsätzlich nur dann an die entsprechenden Bestimmungen des Gleichbehandlungsgesetz (GlBG) gebunden, wenn sie entgeltliche Dienstleistungen anbieten. Zudem werden im GlBG je nach betroffener Person große Differenzierungen vorgenommen: das GlBG schließt in Teil 3 (Zugang zu und Versorgung mit Gütern und Dienstleistungen) die Anwendung in Fällen von Diskriminierung aufgrund der sexuellen Orientierung, des Alters, der Religion oder Weltanschauung grundsätzlich aus.  Bestrebungen, ein sogenanntes Levelling-up, also eine Ausdehnung des Diskriminierungsschutzes, zu erreichen, sind bislang gescheitert.[5] Im Bereich der Diskriminierung aufgrund des Geschlechts, in dem grundsätzlich Diskriminierungsschutz im Feld der Güter und Dienstleistungen gegeben ist, bereitet eine Ausnahme für Inhalte von Medien für die Anwendung der gleichbehandlungsrechtlichen Bestimmungen auf Fälle von Diskriminierungen in Onlinekommunikationsräumen weitere Probleme. Zusammengefasst: Das österreichische Gleichbehandlungsrecht lässt sich nur in beschränktem Ausmaß auf Gleichbehandlungsproblematiken in Onlinekommunikationsräumen anwenden.

Liegt trotz dieser Ausnahmen und Beschränkungen ein Anwendungsfall vor, der vom GlBG erfasst ist, so können betroffene Personen Schadenersatzzahlungen fordern. Das zeigt den stark individualisierten Rechtsschutz des Gleichbehandlungsrechts. Strukturelle Probleme, die in Onlinekommunikationsräumen durch den Einsatz digitaler Technologien noch verstärkt werden[6], können damit nur sehr beschränkt aufgegriffen werden, insbesondere ergibt sich im Bereich der Güter und Dienstleistungen aus dem Gesetz kein Erfordernis der Abänderung oder Abschaffung bestehender diskriminierender Systeme.

Neuere Ansätze wie insbesondere der Digital Services Act (DSA)[7] zielen darauf ab, Plattformen vermehrt an Grundrechte zu binden. Der DSA spricht dabei von „Nichtdiskriminierung“ als wünschenswertes Ziel, ohne genauer festzulegen, was darunter genau zu verstehen ist. Bemerkenswert ist, dass in Art 34 DSA von Diskriminierung als systemischen Risiko gesprochen wird, was erfordert, dass bestimmte sehr große Plattformen sich damit in regelmäßig aufzuführenden Risikobewertungen befassen und gegebenenfalls entsprechende Risikominderungsmaßnahmen ergreifen müssen.

Wie sich diese neuen europarechtlichen Regelungen in der Praxis auswirken, wird sich erst zeigen. Einstweilen bleiben die Plattformen in ihrer machtvollen Position, in der sie festlegen können, wie sie ihre digitalen Räume gestalten. Ein intersektionaler Blickwinkel, der insbesondere auch strukturelle Ebenen berücksichtigt, ist dabei essentiell.

Felicitas Rachinger hat Rechtswissenschaften studiert und ist Universitätsassistentin und Doktorandin am Institut für Theorie und Zukunft des Rechts der Universität Innsbruck.


Quellen:

[1] Karg, Madlen. „Marktmacht und Meinungsbildung in der Digitalindustrie“ In Tagungsband der 62. Jungen Tagung Öffentlichen Rechts, 67-92, Nomos Verlag, 2022; Mendelsohn, Juliane. „Die „normative Macht“ der Plattformen – Gegenstand der zukünftigen Digitalregulierung? Erfassung und mögliche Grenzen der regulierenden und verhaltenssteuernden Macht von Unternehmen im Digitalen“ MMR 2021, 857-861.

[2] Forschungszentrum Menschenrechte der Universität Wien und Weißer Ring. Gewalt im Netz gegen Frauen & Mädchen in Österreich, Wien, 2018, https://www.weisser-ring.at/wp-content/uploads/2019/10/Studie_Bestandsaufnahme_Gewalt_im_Netz_gegen_Frauen_und_M%C3%A4dchen_in_%C3%96sterreich.pdf

[3] Köver, Chris und Reuter, Markus. „Diskriminierende Moderationsregeln: TikToks Obergrenze für Behinderungen“ Netzpolitik.org, 02.12.2019, https://netzpolitik.org/2019/tiktoks-obergrenze-fuer-behinderungen/.

[4] Oliva, Thiago Dias, Antonialli, Dennys Marcelo und Gomes, Alessandra. “Fighting Hate Speech, Silencing Drag Queens? Artificial Intelligence in Content Moderation and Risks to LGBTQ Voices Online” Sexuality & Culture 2021, 700-732; Davidson, Thomas, Bhattacharya, Debasmita und Weber, Ingmar. “Racial Bias in Hate Speech and Abusive Language Detection Datasets” In Proceedings of the Third Workshop on Abusive Language Online, hrsg. V. Association for Computational Linguistics, 25–35, Florenz, Italien, August 2019.; Dottie Lux und Lil Miss Hot Mess. “Facebook’s The Speech Policies Censor Marginalized Users” Wired, 14.08.2017 https://www.wired.com/story/facebooks-hate-speech-policies-censor-marginalized-users/.

[5] Gescheitert ist insbesondere die auf EU-Ebene vorgeschlagene RL: Vorschlag für eine Richtlinie des Rates zur Anwendung des Grundsatzes der Gleichbehandlung ungeachtet der Religion oder der Weltanschauung, einer Behinderung, des Alters oder der sexuellen Ausrichtung, KOM 2008/426; siehe auch entsprechende Forderungen: Gleichbehandlungsanwaltschaft. Tätigkeitsbericht der Gleichbehandlungsanwaltschaft 2020/2021, Wien, 2022, https://www.gleichbehandlungsanwaltschaft.gv.at/wir-ueber-uns/taetigkeitsbericht.html; Arbeiterkammer. Forderungen an die nächste Bundesregierung, Wien, 18.9.2019,  https://www.arbeiterkammer.at/service/presse/Forderungen_an_die_naechste_Bundesregierung.html.

[6] Hoffmann, Anna Lauren. „Where fairness fails: data, algorithms, and the limits of antidiscrimination discourse” Information, Communication & Society, 2019, 900-915.

[7] Verordnung (EU) 2022/20165 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste) https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=OJ:L:2022:277:FULL&from=EN

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s