Was der EU AI Act für HR bedeutet
Der AI Act unterscheidet zwischen vier Risikostufen – von minimalem Risiko bis hin zu Hochrisiko-KI. Systeme im Recruiting fallen häufig in die Kategorie „Hochrisiko“, wenn sie Entscheidungen treffen oder die Auswahl von Bewerbenden maßgeblich beeinflussen.
HR-Abteilungen müssen künftig verstehen:
-
Welche Systeme sie im Recruiting einsetzen,
-
welche dieser Systeme automatisierte Bewertungen oder Entscheidungen treffen,
-
und welche Informations-, Dokumentations- und Kontrollpflichten daraus folgen.
Der AI Act definiert Hochrisiko-KI-Systeme als Anwendungen, die wesentliche Entscheidungen über Personen treffen oder sie systematisch bewerten. Im Recruiting betrifft das beispielsweise Systeme, die automatisch Bewerbende vergleichen, bewerten oder ein Ranking erstellen.
Beispiele für Hochrisiko-KI im Recruiting:
Automatisiertes Ranking von Bewerbenden
KI erstellt eine Rangliste, die darüber entscheidet, wer zu einem Vorstellungsgespräch eingeladen wird.
Automatische Ablehnung von Bewerbungen
Bewerbungen werden ohne menschliche Prüfung abgelehnt.
Scoring auf Basis personenbezogener Merkmale
Alter, Geschlecht, Herkunft oder andere Merkmale werden für die Vorauswahl berücksichtigt – auch unbeabsichtigte Verzerrungen zählen hier.
Vorhersage der beruflichen Leistung
KI-Systeme versuchen einzuschätzen, wie erfolgreich Bewerbende im Unternehmen sein werden, und treffen Entscheidungen darauf basierend.
Automatische Entscheidungen bei internen Beförderungen oder Versetzungen
Entscheidungen über interne Karriereschritte werden ohne menschliche Kontrolle getroffen.
Was HR bei Hochrisiko-KI-Systemen tun muss
Wenn ein Unternehmen solche Systeme einsetzt, greifen die umfangreichsten Pflichten des AI Acts. Dazu gehören:
1. Transparenz und Information
Bewerbende müssen darüber informiert werden, dass KI eingesetzt wird, in welcher Phase und mit welchem Zweck.
2. Menschliche Kontrolle
HR-Mitarbeitende müssen das letzte Wort haben. Entscheidungen dürfen nicht allein von einer Maschine getroffen werden.
3. Nachvollziehbarkeit und Dokumentation
Der Entscheidungsprozess muss lückenlos dokumentiert sein: Welche Daten wurden genutzt? Welche Kriterien haben zur Auswahl geführt?
4. Datenqualität und Fairness
KI darf nur auf hochwertigen, repräsentativen und aktuellen Daten basieren. Verzerrungen oder Diskriminierungen müssen vermieden werden.
5. Risikomanagement und Überwachung
Unternehmen müssen regelmäßig prüfen, ob ihre KI-Systeme korrekt arbeiten, keine systematischen Fehler enthalten und die festgelegten Grenzen einhalten.
6. Verantwortung des Anbieters
Auch externe Softwareanbieter stehen in der Pflicht: Sie müssen sicherstellen, dass ihre Systeme den EU-Vorgaben entsprechen.
Warum BITE-Kunden auf der sicheren Seite sind
Die KI-Lösungen von BITE fallen nicht unter die Kategorie „Hochrisiko“.
Unsere Systeme:
-
bewerten keine Bewerbenden gegeneinander,
-
erstellen kein Ranking,
-
treffen keine selbstständigen Entscheidungen,
-
lernen nicht selbstständig dazu, sondern interpretieren vorhandene Daten,
-
ermöglichen menschliche Kontrolle durch einen Zwischenschritt, bei dem HR-Mitarbeitende alle Ergebnisse prüfen und freigeben.
BITE-KI in der Praxis
-
CV-Parser: Liest Lebensläufe aus und überträgt relevante Informationen strukturiert in das System – ohne Bewertung.
-
Arbeitszeugnisanalyse: Unterstützt bei der inhaltlichen Einordnung von Formulierungen, gibt aber keine Handlungsempfehlungen.
-
Chatbot/ NIIID: Kommuniziert mit Bewerbenden, beantwortet Fragen und leitet Informationen weiter, ohne Auswahlentscheidungen zu treffen.
Was HR jetzt tun sollte
Auch wenn BITE-Kundinnen und Kunden sich keine Sorgen machen müssen, sollten sich HR-Abteilungen schon jetzt mit dem EU AI Act beschäftigen. Denn:
-
Wer KI im Recruiting nutzt, sollte wissen, wie das System arbeitet und welche Entscheidungen es beeinflusst.
-
HR sollte prüfen, ob eingesetzte Tools eine menschliche Kontrolle ermöglichen.
-
Anbieter und Tools sollten dokumentieren können, wie Daten verarbeitet werden und ob mögliche Verzerrungen ausgeschlossen sind.