Neue Vorgaben für KI im Bewerbungsprozess – Transparenz und Diskriminierungsschutz

- Ein Beitrag von RAe Michael Terhaag und Peter Kaumanns, Fachanwälte für IT-Recht -
Seit 2025 gelten neue rechtliche Anforderungen für den Einsatz Künstlicher Intelligenz (KI) im Bewerbungs- und Auswahlverfahren. Immer mehr Unternehmen nutzen automatisierte Systeme wie CV-Scanner, Chatbots oder Videoanalyse-Tools, um Bewerbungen zu sichten und Entscheidungen vorzubereiten. Was technisch praktikabel erscheint, birgt rechtlich erhebliche Risiken – insbesondere mit Blick auf Datenschutz, Gleichbehandlung und Arbeitsrecht.
Transparenzpflichten – Bewerbende müssen wissen, woran sie sind
Wer KI im Bewerbungsprozess einsetzt, muss gemäß Art. 13 DSGVO sowie Art. 52 AI Act transparent machen, dass ein automatisiertes System genutzt wird – und auf Basis welcher Kriterien es Entscheidungen trifft. Unklarheiten oder intransparente Systeme („Black Box“) können datenschutzrechtlich problematisch sein. Praktisch bedeutet dies, dass Unternehmen ihre Datenschutzerklärungen anpassen sollten, um die Verwendung automatisierter Entscheidungsprozesse klar zu kommunizieren. Auch in Stellenanzeigen oder auf der Unternehmenswebsite sollte darauf hingewiesen werden.
Beispiel:
Ein Unternehmen nutzt ein automatisiertes CV-Screening-Tool. Bewerber:innen mit nicht-linearen Lebensläufen oder ausländisch klingenden Namen erhalten schlechtere Bewertungen. Ohne Offenlegung des Verfahrens droht nicht nur ein Verstoß gegen die DSGVO, sondern auch eine Benachteiligung nach dem AGG.
Arbeitsrechtliche Perspektive – Menschliche Entscheidung bleibt unerlässlich
Auch das Arbeitsrecht stellt Anforderungen an die Ausgestaltung des Bewerbungsverfahrens. Personalentscheidungen dürfen nicht ausschließlich auf automatisierten Prozessen beruhen. § 99 BetrVG (Mitbestimmungsrechte des Betriebsrats bei Einstellungen) sowie das allgemeine Persönlichkeitsrecht verlangen, dass zumindest in der Endauswahl ein menschliches Urteil getroffen wird. Dies bedeutet, dass HR-Teams und Entscheidungsträger in die Lage versetzt werden müssen, die Ergebnisse automatisierter Systeme kritisch zu bewerten und gegebenenfalls zu korrigieren.
Wird ein Bewerber rein algorithmisch aussortiert, kann das nicht nur datenschutzrechtlich bedenklich, sondern auch arbeitsrechtlich anfechtbar sein – etwa im Rahmen eines späteren Diskriminierungsvorwurfs oder eines Bewerberanspruchs auf Auskunft.
Diskriminierungsrisiken und Haftung – KI schützt (auch hier) nicht vor Verantwortung
Auch bei KI-gestützten Verfahren haftet der Arbeitgeber für Diskriminierung – gemäß § 1 und § 7 AGG. Selbst wenn der diskriminierende Effekt unbeabsichtigt ist, etwa durch fehlerhafte Trainingsdaten oder unausgewogene Algorithmen, bleibt das Unternehmen in der Pflicht. Ethische Überlegungen spielen hier eine wichtige Rolle: Unternehmen sollten nicht nur rechtliche Anforderungen erfüllen, sondern auch sicherstellen, dass ihre KI-Systeme fair und inklusiv sind.
Beispiel:
Ein Videoanalyse-Tool bewertet Kandidat:innen anhand von Gesichtsausdrücken. Menschen mit körperlichen Einschränkungen oder anderer Mimik werden benachteiligt – ein klarer Verstoß gegen das Diskriminierungsverbot. Hier ist es entscheidend, dass die Trainingsdaten divers und repräsentativ sind, um solche Ungleichbehandlungen zu vermeiden.
KI-Kompetenz für Mitarbeitende
Um die Herausforderungen des KI-Einsatzes im Recruiting zu meistern, ist es entscheidend, dass Mitarbeitende über die notwendigen KI-Kompetenzen verfügen. Dies umfasst sowohl technisches Verständnis als auch ethische Sensibilität. Unternehmen sollten Schulungsprogramme anbieten, die Mitarbeitende befähigen, KI-Systeme verantwortungsvoll zu nutzen und potenzielle Risiken zu erkennen. Weitere Informationen zu diesem Thema finden Sie in unserem Artikel: Februar 2025: Die KI- Kompetenzpflicht für Unternehmen kommt!
Die wichtigsten Rechtsgrundlagen im Überblick:
- Art. 13 DSGVO: Informationspflicht bei automatisierter Entscheidungsfindung
- Art. 52 AI Act: Transparenzpflicht bei KI-Systemen mit Auswirkungen auf Grundrechte
- § 1 und § 7 AGG: Schutz vor unmittelbarer und mittelbarer Diskriminierung
- § 99 BetrVG: Mitbestimmung bei Auswahlverfahren
Entwicklung aufmerksam verfolgen
Der Einsatz von KI im Recruiting bietet Chancen – bringt aber auch rechtliche Herausforderungen mit sich. Wer automatisierte Systeme nutzt, sollte sich der Transparenzpflichten, Mitbestimmungsrechte und Diskriminierungsrisiken bewusst sein und aktuelle Entwicklungen im Auge behalten. Eine kritische Prüfung bestehender Tools und Prozesse kann helfen, spätere Konflikte zu vermeiden – nicht nur aus rechtlicher, sondern auch aus ethischer und reputationsbezogener Sicht.
Verstöße können neben Imageverlusten auch zu erheblichen Bußgeldern führen. Zudem besteht die Möglichkeit, dass Konkurrenten oder betroffene Bewerber:innen Abmahnungen aussprechen oder rechtliche Schritte einleiten.
Wir bleiben für Sie/Euch am Ball und freuen uns über jedes Feedback!
Das könnte Sie auch interessieren
Februar 2025: Die KI- Kompetenzpflicht für Unternehmen kommt!
„Das Internet, wie wir es kannten“ - Editorial von Michael Terhaag von in der Kommunikation & Recht - K&R (4/2023)
RA Terhaag live im ZDF-Interview zum Digital Service Akt und dem Digitale Dienste Gesetz: DSA und DDG - neues Recht für alle Digitale Dienste