Der EU AI Act und die Zukunft der Bewerbung ab 2026
Jeder, der sich in den letzten Jahren beworben hat, kennt das ungute Gefühl: Man lädt den Lebenslauf hoch und erhält binnen Sekunden eine Absage. War das ein Mensch? Oder hat ein Algorithmus entschieden, dass das Profil nicht passt?
Die Nutzung von Künstlicher Intelligenz (KI) im Recruiting boomt. Doch die Europäische Union schiebt der wilden Automatisierung einen Riegel vor. Mit dem EU AI Act (KI-Verordnung), dessen volle Wirksamkeit für Hochrisiko-Systeme ab August 2026 greift, ändern sich die Spielregeln fundamental.
Doch was bedeutet das konkret? Ist das automatisierte „Aussortieren“ dann verboten? Über all das und mehr wollen wir in unserem Artikel aufklären.

Der Status Quo: Die „Black Box“ Bewerbung
Aktuell nutzen viele Unternehmen sogenannte ATS (Applicant Tracking Systems), die mit KI-Komponenten angereichert sind. Diese scannen Lebensläufe nach Keywords („Python-Kenntnisse“, „5 Jahre Erfahrung“), analysieren Sprachmuster oder bewerten sogar Video-Interviews. Das Problem: Für den Bewerber ist oft völlig intransparent, warum er abgelehnt wurde. Es fehlt an Nachvollziehbarkeit und menschlicher Kontrolle.
Ab August 2026: HR-Software als „Hochrisiko-KI“
Der AI Act teilt KI-Systeme in Risikoklassen ein. Die wichtigste Nachricht für Bewerber: KI-Systeme, die für die Einstellung, Auswahl oder Beförderung von Personal eingesetzt werden, fallen in die Kategorie „Hochrisiko“ (High-Risk).
Das bedeutet kein pauschales Verbot. KI darf weiterhin genutzt werden, um Bewerbungen zu scannen und vorzusortieren. Aber: Die Hürden für den Einsatz werden massiv erhöht. Unternehmen müssen ab August 2026 strenge Auflagen erfüllen.
1. Das Verbot der „Emotionserkennung“
Es gibt einen Bereich, in dem der AI Act tatsächlich ein Verbot ausspricht (Art. 5). Der Einsatz von KI zur Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen wird untersagt (außer aus medizinischen/Sicherheitsgründen).
- Was das bedeutet: Tools, die während eines Video-Interviews dein Gesicht scannen, um zu analysieren, ob du „nervös“, „ehrlich“ oder „enthusiastisch“ wirkst, sind dann illegal. Diese pseudowissenschaftliche Praxis wird gestoppt.
2. Transparenzpflicht: Du musst es wissen
Heimliche Analysen sind vorbei. Wenn ein Hochrisiko-KI-System (z. B. ein Chatbot im Bewerbungsprozess oder ein Analysetool) mit dir interagiert, musst du darüber informiert werden (Art. 50).
- Für Bewerber: Du hast das Recht zu wissen, dass eine KI deine Daten verarbeitet und deine Eignung bewertet.
3. Menschliche Aufsicht („Human-in-the-loop“)
Das vielleicht wichtigste Element ist Artikel 14. Hochrisiko-Systeme müssen so konzipiert sein, dass sie von natürlichen Personen beaufsichtigt werden können.
- Keine autonome Absage: Die KI darf eine Empfehlung aussprechen („Kandidat passt zu 80%“), aber sie sollte rechtlich gesehen nicht die finale, unangefochtene Entscheidung über dein Schicksal treffen, ohne dass ein Mensch intervenieren kann. Der Recruiter muss in der Lage sein, die Entscheidung der KI zu verstehen und zu überstimmen.
4. Datenqualität und Diskriminierungsschutz
KI-Modelle lernen aus alten Daten. Wenn eine Firma in den letzten 10 Jahren nur Männer eingestellt hat, lernt die KI: „Männer sind gute Kandidaten“. Der AI Act verpflichtet Anbieter solcher Systeme, qualitativ hochwertige Trainingsdaten zu nutzen, um Diskriminierung (Bias) zu verhindern (Art. 10). Sortiert eine KI systematisch Frauen oder ältere Bewerber aus, drohen dem Unternehmen empfindliche Strafen.
Darf die KI mich noch aussortieren?
Jein. Hier müssen wir differenzieren:
Vorsortierung (Ranking): Ja. Die KI darf weiterhin tausende Bewerbungen scannen und sagen: „Diese 10 Kandidaten passen am besten auf die Stellenbeschreibung.“ Das spart Recruitern Zeit.
Finale Entscheidung (Rejection): Nein (nicht autonom). Eine vollautomatisierte Absage ohne jegliche menschliche Prüfung (Menschliche Aufsicht) wird rechtlich extrem riskant für Unternehmen. Es muss sichergestellt sein, dass ein Mensch die Verantwortung trägt.
Psychologische Analyse: Nein. Die Analyse von Emotionen oder das Ableiten von Persönlichkeitsmerkmalen aus Gesichtszügen ist verboten.
Wichtig: Wenn du ab August 2026 das Gefühl hast, diskriminiert worden zu sein oder dass eine KI eine Fehlentscheidung getroffen hat, stärkt der AI Act deine Rechte auf Erklärung und Beschwerde.
Der AI Act ab August 2026 ist kein Technik-Verbot, sondern ein Qualitätssicherungs-Gesetz. Die „wilde West“-Phase des KI-Recruitings endet. Bewerber werden zwar weiterhin von Algorithmen analysiert, aber sie sind nicht mehr der Willkür einer „Black Box“ ausgeliefert. Die letzte Entscheidung muss wieder in menschlicher Hand liegen.
Beliebte Beiträge
Sichere Passwörter erstellen – Tipps & Tools
Jeder von uns hat eine Vielzahl an Online-Accounts die alle nach Möglichkeit ein separates Passwort haben sollten. Aber wer soll sich das alles merken können...
Lohnt sich ein VPN – Wir klären warum es sich für jeden lohnt
Cyberangriffe im Netz nehmen zu, und auch die Freiheit im Internet ist gefährdet. Ein VPN kann da Abhilfe schaffen.
Seiten in Word verschieben und miteinander vertauschen
Verschieben Sie in Microsoft Word mit wenigen Schritten einfach die Seiten untereinander. Und fügen Sie auch ganz einfach neue Seiten ein.
Dynamisches Inhaltsverzeichnis in Word erstellen
So erstellen Sie in Microsoft Word ein dynamisches Inhaltsverzeichnis richtig und durchsuchen Ihr Dokument per Klick.
Warum wird meine Excel Datei so groß?
So lösen Sie das Problem mit Excel Tabellen die ohne offensichtlichen Grund mehrere Megabyte Platz einnehmen.
Microsoft Office 2021 – Lohnt sich der Umstieg?
Seit 5. Oktober 2021 ist es endlich soweit. Nach Office 2019 steht nun Office 2021 am Start. Wir haben uns die neue Office Version genauer angeschaut, und klären ob sich der Umstieg lohnt.





















