Wenn die Software entscheidet…

Quelle: Fotolia, Stadtratte

Quelle: Fotolia, Stadtratte

Ab 2019 will das AMS einen Algorithmus einsetzen, um die Arbeitsmarktchancen von Arbeitslosen zu berechnen und die Zuteilung von Mitteln festzulegen. Die Diskriminierung von Frauen am Arbeitsmarkt wird hiermit technisch einzementiert.

Digitalisierung beeinflusst und erfasst inzwischen zahlreiche Lebensbereiche. Soziale Konflikte und Kämpfe werden von ihr nicht aufgelöst, sondern fortgeschrieben. Algorithmen gestalten und beeinflussen unser tägliches Leben – ob bewusst oder unbewusst. Sie beeinflussen unsere Online-Kaufentscheidung durch auf unser Nutzerverhalten zugeschnittene Werbung, zeigen auf Social-Media-Kanälen Nachrichten gemäß unserer politischen Einstellungen an und bestimmen auch welche Informationen wir online sehen (indem zum Beispiel Jobanzeigen nur bestimmten Nutzergruppen angezeigt werden).

Die Diskussion um den Algorithmus, den das AMS 2019 planmäßig zur Ermittlung von Arbeitsmarktchancen verwenden möchte, weist auf Probleme des Programms hin. Während der ehemalige Sozialminister Alois Stöger die flächendeckende Verwendung noch verhinderte, wurde das Projekt im Schwarz-Blauen Regierungsprogramm als „Umsetzung von kundenspezifischen Tools“ bereits angekündigt. Künftig sollen Arbeitslose in drei Gruppen unterteilt werden: Von der stärksten Gruppe wird angenommen, dass sie selbst wieder in den Arbeitsmarkt eintreten kann. Daher sollen hier weniger Förderungen verwendet werden. Die Gruppe mit mittleren Chancen am Arbeitsmarkt wird hingegen am stärksten gefördert und bekommt mehr Ressourcen zuteilt, um zum Beispiel teure Fachausbildungen zu absolvieren. Die schwächste Gruppe am Arbeitsmarkt soll im Vergleich hierzu günstigere Kurse bekommen.

Ziel ist es die knapper werdenden Ressourcen des AMS auf die Gruppe zu verwenden, die die besten Chancen hat, wieder in den Arbeitsmarkt zu finden. Die Methode wirft allerdings zahlreiche Fragen auf.

Frauen, MigrantInnen aus nicht EU-Staaten und ältere Arbeitslose erhalten in der Methode automatisch einen negativen Faktor zugeschrieben, bei Frauen werden zusätzlich Betreuungspflichten als Negativfaktor gezählt, bei Männern kommen diese nicht vor. Einer Frau werden hier also automatisch schlechtere Arbeitsmarktchancen zuerkannt, als ihren männlichen Mitbewerbern. Unabhängig davon, welche Ausbildung und Erwerbsbiographien vorliegen.

Der diskutierte Algorithmus hat die Diskriminierung von verschiedenen Arbeitsmarkt-TeilnehmerInnen nicht erfunden, er wird sie aber in der derzeitigen Funktionsweise aber fortschreiben und zur Grundlage für die Mittelvergabe machen. Frauen sind am Arbeitsmarkt noch immer diskriminiert. Warum man diese Diskriminierung nun in der Bewertung der Chancenberechnung am Arbeitsmarkt und somit bei der Zuteilung von Weiterbildungsmöglichkeiten fortschreiben will, ist unverständlich. Ob die eingeräumte Möglichkeit, dass AMS-BeraterInnen Einstufungen verändern können reicht, um Ungerechtigkeiten zu beseitigen, ist ebenso fraglich. Aus bisherigen Studien zu Algorithmen ist bekannt, dass diese von Menschen eher nicht korrigiert werden.

Ein Extrembeispiel dafür, wie fehlerhaft Algorithmen sein können, zeigt die Verwendung im US-Justizsystem. Die Wahrscheinlichkeit der Rückfälligkeit eines Strafgefangenen werden durch einen Algorithmus eingeschätzt. Dieser sollte eigentlich Neutralität und eine Abkehr vom rassistischen Justizsystem darstellen, hat dieses allerdings noch verstärkt. Afroamerikanischen Häftlingen werden höhere Wahrscheinlichkeiten eines Rückfalls zugeschrieben, als allen anderen. Auch die Fehleranfälligkeit der Einstufung ist sehr hoch.

Dieses Beispiel zeigt, dass der unreflektierte und intransparente Einsatz von Algorithmen Gefahren mit sich bringt. Diese sollten sich in der österreichischen Arbeitsmarktpolitik nicht wiederholen.