Wahrscheinlich heißt nicht fixtun & lassen

Setzt das AMS mit Algorithmen aufs richtige Pferd?

Arbeitssuchende werden künftig mit einem Algorithmus bewertet, der die Zuteilung von Förderungen festlegt. Das sorgt für einen Aufschrei und lässt Kritiker_innen und Fans darüber streiten, ob der Modus technokratische Chancengleichheit oder institutionalisierte Diskriminierung ermöglicht. Von Hedy Hrdlicka (Text) und Heio von AMStetten (Foto)AMS-Mitarbeiter_innenbekommen einen neuen Berater, der aus Nullen und Einsen besteht. Ein Algorithmus soll ihnen künftig Arbeit abnehmen, indem er automatisiert die Jobaussichten von Arbeitssuchenden bewertet. Die Arbeitsweise des Algorithmus wurde vor Kurzem transparent gemacht, nun ist über Nutzen und Schaden der maschinellen Einstufung eine scharf geführte Diskussion losgetreten worden. So beklagen Kritiker_innen, dass der Faktor Mensch auf der Strecke bleibt und durch den Algorithmus Diskriminierung institutionalisiert wird, etwa indem Frau-Sein oder ein Migrationshintergrund negativ bewertet werden. Befürworter_innen denken hingegen, dass der Algorithmus mehr Chancengleichheit ermöglicht, da er «fair» anhand statistischer Merkmale entscheidet und wiederum potenziellen Rassismus oder Sexismus durch den oder die AMS-Berater_in negiert.

Fakt ist, dass ein Algorithmus, genau wie jede Technologie, immer nur so vorurteilsfrei ist wie seine Erschaffer_innen. Das sind meistens weiße Männer, was etwa dazu führt, dass Händetrockner schwarze Haut nicht erkennen oder Googles Bilderkennung Afroamerikaner_innen auf Fotos als Gorillas identifiziert. Im Unterschied zu vielen anderen Algorithmen, die unabsichtlich oder verschleiert diskriminieren, legt das AMS die negativ einfließenden Faktoren klar offen. Das ist der Behörde zugutezuhalten. Allerdings ist es nicht ganz richtig, wenn AMS-Chef Johannes Kopf sinngemäß auf Twitter meint, dass man die Negativfaktoren nicht kritisieren darf, weil dann jede Beurteilung von Arbeitsmarkt-Chancen diskriminierend wäre.

Drei Kategorien. Entscheidend ist nämlich, was der Algorithmus bewirkt. Beim AMS ist das die Einteilung in drei verschiedene Kategorien. Arbeitssuchenden werden entweder hohe, mittlere oder geringe Chancen zugeteilt. Alleinerziehende Mütter mit Migrationshintergrund, die wohl in der am niedrigsten bewerteten Gruppe landen, erhalten aber nicht mehr Förderung, sondern weniger. Je höher also die Chancen auf Wiedereingliederung in den Arbeitsmarkt sind, desto mehr investiert das AMS in seine «Kund_innen». Damit wird durch den Algorithmus ein Teufelskreis ausgelöst, der Schwache zu noch Schwächeren und Starke zu noch Stärkeren macht. Deshalb spricht etwa der Verein Autonome Österreichische Frauenhäuser von einem Algorithmus, der als «frauen- und menschenverachtend sowie diskriminiert eingestuft werden muss».

Dazu kommt, dass sich das System austricksen lässt. Wer etwa seinen Hauptwohnsitz verlegt, kann aufgrund des Ortsfaktors im Algorithmus eine bessere Bewertung und damit Plätze in begehrten Kursen ergattern. Wer in den Wiener Bezirken Simmering, Favoriten oder Floridsdorf gemeldet ist, hat laut automatischer Berechnung gleich 33 Prozent geringere Chancen auf einen Job als vergleichbare Arbeitslose aus anderen Orten.

Ein weiterer Kritikpunkt ist die strenge Gruppeneinteilung. So bemängelt der Politikwissenschafter Laurenz Ennser-Jedenastik, der sich intensiv mit Statistik beschäftigt, dass die Gruppeneinteilung mit «hartem Schnitt» erfolgt. Für eine Person, die eine 24-prozentige Chance auf Arbeit hat, sind die Voraussetzungen aber nicht dramatisch anders als für jemanden mit einer Bewertung von 26 Prozent. Beide landen aber in unterschiedlichen Gruppen, die drastisch unterschiedliche Perspektiven eröffnen.

Dazu kommt das generelle Problem statistischer Vorhersagen. So ist zwar «wahrscheinlich», dass jemand in der schwächsten Gruppe keinen Job bekommt – aber eben nicht «fix». Laut Ennser-Jedenastik hat der AMS-Algorithmus zwar relativ gute Wahrscheinlichkeitswerte, doch eine_r von sieben Arbeitslose_n mit geringer Perspektive kann der Vorhersage durch das Finden eines Arbeitsplatzes widersprechen – es sei denn, das fehlende Förderangebot durch die schlechte Bewertung macht seinen Fall zu einer Self-fulfilling Prophecy.

Bewertungssysteme für alle. Das AMS hat nach der ersten Welle an Kritik zugesichert, dass menschliche Berater_innen weiterhin das letzte Wort haben. Sie sollen ihre Klient_innen manuell in eine andere Gruppe umstufen können. Außerdem soll der Algorithmus regelmäßig evaluiert werden, um den sich laufend verändernden Bedürfnissen des Arbeitsmarkts gerecht zu werden.

In Summe droht Arbeitslosen mit geringen Jobaussichten durch den Algorithmus eine deutliche Verschlechterung ihrer Situation. Aber immerhin führte die Offenlegung des Mechanismus zu einer ersten großflächigen Diskussion über die realen Auswirkungen von automatisierten Berechnungen. Dieser Bereich betrifft nicht nur Arbeitslose, sondern fast jede_n Bürger_in, der oder die eine Wohnung sucht oder digital bezahlt (siehe Augustin Nr. 460). Das soziale Bewertungssystem in China liefert einen Vorgeschmack darauf, wie omnipräsent Algorithmen noch werden können. Es ist also höchste Zeit, über die Herrschaft der Automatismen zu diskutieren – und im AMS erste Adaptionen vorzunehmen, um Chancengleichheit zu garantieren.