Digitalisierung fördert die Diskriminierung im Arbeitsmarkt

Von 2 Kommentare
Illustration: Bewerber_innen im Datennetz

Zum Wesen der Digitalisierung gehört die Diskriminierung: Unterschiedliche Menschen können unterschiedlich behandelt werden. Während in der Gesundheitsversorgung das Wohl der Patienten das Ziel ist, geht es im Personalwesen um den Arbeitgebernutzen. Als Nebeneffekt drohen mittelfristig Teile der Bevölkerung vom Arbeitsmarkt ausgeschlossen zu werden.

Digitalisierung heisst, dass Informations- und Kommunikationstechnologien (IKT) viel konsequenter als bisher genutzt werden. Eine interessante Grundfrage ist, wie sich als Folge Wirtschaft und Gesellschaft verändern werden. Eine objektive Antwort darauf ist schwierig. Möglich ist es aber, faktisch existierende, gesamtgesellschaftlich relevante und letztlich hochwahrscheinliche Veränderungsszenarien zu identifizieren.

Eine total-diskriminierende Zukunftswelt

Aus der Perspektive der sozialen Sicherheit ist das vermutlich wichtigste dieser Szenarien das Szenario einer total-diskriminierenden Welt: Jede und jeder wird anders als die anderen behandelt. Wir zahlen unterschiedliche Preise, haben Zugang zu unterschiedlichen Dienstleistungen, bekommen bei gleicher Diagnose unterschiedliche Therapien und haben bei gleicher Qualifikation unterschiedliche Karrierechancen. Alles ist stets personalisiert – vom Preisangebot über die Interpretation der medizinischen Untersuchung bis hin zur Bewertung des beruflichen Lebenslaufs. Die Basis dafür liefern Prognosen über unser Verhalten, die auf der Auswertung von Daten basieren. Das ist an sich nichts Neues, aber das Ausmass an berücksichtigten Daten explodiert und die Leistungsfähigkeit der Algorithmen nimmt zu. Dadurch bekommen diese Prognosen eine völlig andere Qualität und entfalten in der Folge eine radikale Wirkung. Dies wird insbesondere den Arbeitsmarkt, aber auch andere Märkte, tiefgreifend verändern und schafft so Regulierungsbedarf .

Beispiele für die Veränderungen

Exemplarisch seien die Veränderungen am Beispiel der Bedeutung des Wohnorts für Bewerbungen von Jugendlichen illustriert: Bisher wirkte sich nur das Wohnen in wenigen Bereichen einer Stadt nachteilig (oder vorteilhaft) auf eine Bewerbung aus, wenn überhaupt. Kam jemand aus einer anderen Stadt, so war nur der Name der Stadt relevant. In Zukunft wird es für alle Wohnorte Statistiken zu Krankheiten, Karrieren, Konsumverhalten, kulturellen Verhaltensweisen und mehr geben, die bei Bewerbungen mitberücksichtigt werden können.

Wichtiger noch als das extreme Anwachsen und Verfügbar-Werden einzelner Datenbereiche ist das Zusammenführen von Daten. Es ermöglicht u.a. Prognosen über die Entwicklung familiärer Verhältnisse, die wesentlich präziser sind als Bezirksstatistiken. Eine Software kann beispielsweise Warnhinweise liefern, wenn bei einer jungen Frau die Wahrscheinlichkeit hoch ist, dass sie alleinerziehende Mutter werden wird. Anstellungen oder auch Beförderungen können deshalb wesentlich informierter getroffen werden als bisher. Das führt im Mittel zu besseren Entscheidungen, kann im Einzelfall aber auch sachlich schlechtere Entscheidungen provozieren.

Die Wirkung von Diskriminierung

Was in der Medizin primär auf das Wohl des Patienten ausgerichtet ist, dient ansonsten primär dem Profit derer, die datenbasierte Diskriminierungsentscheide treffen. Sie nehmen die Kosten der Datenbewirtschaftung auf sich, um ihren Vorteil zu maximieren. Das schliesst nicht aus, dass auch von der Personalisierung resp. Diskriminierung Betroffene profitieren. Aber es sorgt dafür, dass sich die Nachteile für einige kumulieren, insbesondere wenn Daten aus einem Bereich für andere Bereiche als selektive Kriterien genutzt werden.

Problematisch ist, dass die gesteigerte Informiertheit von Arbeitgebern zwar zu erfolgversprechenderen Anstellungs- und Beförderungsentscheiden führt, dabei aber Externalisierungseffekte entstehen. Es droht, dass Menschen mit schlechten Daten in Zukunft weitgehend vom Arbeitsmarkt ausgeschlossen werden. Dies hat nicht nur soziale Folgen, sondern kann auch zum Schrumpfen der Wirtschaft führen.

Noch problematischer ist, dass die Nutzung der Werkzeuge zur datenbasierten Diskriminierung gleichzeitig ein mathematisches, technisches und kontextbezogenes Verständnis verlangt, das so in den meisten Unternehmen nicht vorhanden ist.  Die Gefahr einer irrational übersteigerten Diskriminierung durch mathematische Inkompetenz ist sehr hoch, denn die Praxis zeigt, dass mathematische Laien sich häufig an Mittelwerten orientieren. Sie verstärken damit den Ausschluss von Personen mit schlechten Daten.

Um hierauf frühzeitig reagieren zu können, braucht es ein Monitoring der durch die Digitalisierung verursachten Diskriminierungseffekte auf dem Arbeitsmarkt. Daneben sollte in eine bessere mathematische Ausbildung für Mitarbeitende von Personalabteilungen investiert werden, um eine irrationale Überdiskriminierung zu vermeiden.

Freitag 1. September 2017, 16:45 Uhr
MIGRANTS IN THE SWISS ECONOMY
Policy Session of the 2nd International Conference on Discrimination in the Labor Market
Berner Fachhochschule, Fachbereich Wirtschaft
Brückenstrasse 73, 3005 Bern

Podiumsdiskussion auf Englisch mit:

  • Cornelia Lüthy, Vizedirektorin Staatssekretariat für Migration
  • Patrik Schellenbauer, Chefökonom Avenir Suisse
  • Maria Iannino Gerber, Gemeinderätin, Wohlen bei Bern
  • Simon Wey, Fachspezialist Arbeitsmarktökonomie, Arbeitgeberverband
  • Zoltan Doka, Bereichsleiter Migration, Gewerkschaft Unia

Im Anschluss Apéro. Eintritt frei.

 


Kontakt:

 

Literatur und weiterführende Links:

Beitrag teilen
2 Kommentare
  • Alexander Hunziker

    Antworten

    Danke, dass dieses wichtige Thema hier aufgegriffen wird.
    Mathematische Schulungen in HR-Abteilungen sind allerdings schwer realisierbar, weil viele HR-Leute wenig zahlen-affin sind.
    Wenig bekannt ist, dass Achtsamkeitsschulungen (Mindfulness), für die HR-Leute tendenziell offen sind, diskriminierungsdämpfend wirken. Das wäre ein ganz anderer, aber sehr Erfolg versprechender Ansatz.

  • Matthias Brüllmann

    Antworten

    Dazu passt: Google explains how artificial intelligence becomes biased against women and minorities https://qz.com/1064035/google-goog-explains-how-artificial-intelligence-becomes-biased-against-women-and-minorities/

Schreiben Sie einen Kommentar

Time limit is exhausted. Please reload CAPTCHA.