Revolution oder Risiko

Künstliche Intelligenz verändert das Recruiting grundlegend – schneller, effizienter, aber nicht immer fairer. Zwischen Effizienzgewinnen, regulatorischen Vorgaben und ethischen Fragen stehen HR-Abteilungen vor einer der größten Herausforderungen ihrer Zeit.

Die Zeitenwende ist da

Die Personalabteilungen befinden sich an einem Wendepunkt. Was vor zwei Jahren noch als futuristische Vision galt, ist heute Realität: Künstliche Intelligenz durchdringt sämtliche Phasen des Recruitings – vom Verfassen der Stellenanzeige über das Screening der Bewerbungen bis hin zur Terminierung von Interviews. Doch während die Technologie rasant voranschreitet, stellen sich grundlegende Fragen: Macht KI das Recruiting wirklich gerechter? Oder reproduziert sie lediglich die Vorurteile ihrer Schöpfer in algorithmischer Form? Und was ist rechtlich eigentlich wirklich innerhalb der EU erlaubt?

Die Zahlen sprechen eine klare Sprache. Laut der aktuellen Recruiting-Benchmark-Studie 2025 der Deutschen Gesellschaft für Personalführung (DGFP), für die über 700 HR-Verantwortliche befragt wurden, nutzen bereits 90 % der Unternehmen KI-Tools für das Verfassen von Stellenanzeigen. Mehr als die Hälfte setzt künstliche Intelligenz auch zur Vorbereitung von Interviews ein. Diese Entwicklung vollzieht sich nicht nur auf Arbeitgeberseite – auch Bewerber haben die Technologie für sich entdeckt.

Die softgarden-Studie »KI trifft Recruiting 2025«, die im Sommer 2025 knapp 7 000 Bewerber befragte, zeigt ebenfalls einen bemerkenswerten Trend: Der Anteil derjenigen, die KI für ihre Bewerbung einsetzen, hat sich seit Frühjahr 2023 mehr als verdreifacht und liegt mittlerweile bei 43,2 %. Weitere 30,3 % können sich die Nutzung gut vorstellen. Besonders beliebt ist der Einsatz von ChatGPT und ähnlichen Tools beim Verfassen von Anschreiben – ein Bereich, der traditionell als größte Hürde im Bewerbungsprozess gilt.

Diese parallele Entwicklung auf beiden Seiten des Recruitings schafft eine neue Dynamik: Algorithmen verfassen Stellenanzeigen, Algorithmen schreiben Bewerbungen – und Algorithmen treffen Vorauswahlentscheidungen. Ein Kreislauf, der Effizienz verspricht, aber auch erhebliche Risiken birgt.

Wenn Algorithmen Menschen bewerten

Die Versuchung ist groß, KI als objektiven Richter zu betrachten. Schließlich sind Maschinen frei von Emotionen, Tagesform oder persönlichen Präferenzen. Doch diese Annahme erweist sich als gefährlicher Trugschluss. Denn künstliche Intelligenz ist nur so neutral wie die Daten, mit denen sie trainiert wurde – und diese Daten spiegeln zwangsläufig gesellschaftliche Realitäten und historische Ungleichheiten wider.

Der Fall des Technologiekonzerns Amazon ist dabei längst zum Lehrbuchbeispiel geworden. Das Unternehmen entwickelte vor vielen Jahren ein internes Recruiting-Tool, das männliche Bewerber systematisch bevorzugte – obwohl das Geschlecht gar nicht im Datensatz enthalten war. Die Ursache lag in den historischen Trainingsdaten, in denen Männer in technischen Positionen überrepräsentiert waren. Das System lernte dieses Muster als »Erfolgssignal« und bewertete Profile von Frauen konsequent schlechter.

Dass dieses Problem kein Einzelfall ist, belegen aktuelle Forschungsergebnisse. Eine Studie der University of Washington aus dem Jahr 2024 testete KI-Systeme mit identischen Bewerbungen, die sich lediglich in den Namen unterschieden. Das Ergebnis: In 85 % der Fälle erhielten Bewerbungen mit typisch weißen Namen höhere Bewertungen als solche mit Namen, die mit ethnischen Minderheiten assoziiert werden – bei vollständig identischer Qualifikation.

Noch beunruhigender ist ein Phänomen, das Forschende als »AI-AI-Bias« bezeichnen. Eine im Jahr 2025 in den Proceedings of the National Academy of Sciences veröffentlichte Studie von Laurito und Kollegen zeigt, dass große Sprachmodelle (LLMs) Inhalte bevorzugen, die ebenfalls von künstlicher Intelligenz verfasst wurden. Für das Recruiting bedeutet dies: Bewerber mit Zugang zu leistungsfähigen KI-Assistenten könnten systematisch bessere Chancen haben als jene, die ihre Unterlagen selbst verfassen – eine neue Form der digitalen Ungerechtigkeit.

Der regulatorische Gegenschlag

Die Europäische Union hat auf diese Entwicklungen mit dem weltweit ersten umfassenden Regelwerk für künstliche Intelligenz reagiert. Der EU AI Act, der im August 2024 in Kraft getreten ist, stuft den Einsatz von KI im Recruiting als »Hochrisiko-Anwendung« ein – auf derselben Ebene wie KI-Systeme in kritischen Infrastrukturen oder im Gesundheitswesen.

Die Konsequenzen für Unternehmen sind weitreichend. Seit Februar 2025 ist der Einsatz von Emotionserkennung in Bewerbungsprozessen vollständig verboten. Systeme, die vorgeben, aus Mimik, Tonfall oder Körpersprache auf Eignung oder Persönlichkeitsmerkmale zu schließen, dürfen nicht eingesetzt werden. Die Regelung trägt der Erkenntnis Rechnung, dass solche Technologien nicht nur unzuverlässig, sondern auch hochgradig diskriminierend sind.

Ab August 2026 greifen verschärfte Transparenzpflichten. Unternehmen müssen Bewerbende klar darüber informieren, wenn KI im Auswahlprozess zum Einsatz kommt. Diese Offenlegungspflicht ist nicht nur rechtlicher Natur – sie ist auch eine Frage des Vertrauens. Die bereits erwähnte IU-Studie »KI im Recruiting: Emotionen, Ansichten, Erwartungen« zeigt, dass fast zwei Drittel der Befragten negative Assoziationen mit KI im Bewerbungsprozess haben. Nur 36,6 % stehen dieser Entwicklung positiv gegenüber. Als größter Nachteil wird die Unpersönlichkeit genannt, gefolgt von Bedenken hinsichtlich Programmierfehlern und der Anfälligkeit für Stereotypen.

Die Frist, die wirklich zählt, ist der 2. August 2026 (möglicherweise wird dieser Stichtag allerdings nach hinten verschoben). Ab diesem Stichtag müssen alle Hochrisiko-KI-Systeme im Recruiting umfassende Compliance-Anforderungen erfüllen: dokumentierte Risikobewertungen, regelmäßige Bias-Tests, nachvollziehbare Entscheidungsprozesse und menschliche Aufsicht. Unternehmen, die diese Vorgaben missachten, drohen drastische Strafen – Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.

Die Herausforderung: Fairness messbar machen

Doch wie lässt sich überhaupt feststellen, ob ein KI-System diskriminiert? Ein im Jahr 2025 veröffentlichtes Whitepaper der Stepstone Group, des TÜV AI.Lab und des Unternehmens QuantPi präsentiert einen methodischen Ansatz, der als Blaupause für die Branche dienen könnte. Die Studie trägt den bezeichnenden Titel »Uncovering bias in AI recruitment« und untersucht ein reales Kandidaten-Empfehlungssystem unter Einhaltung europäischer Regulierungsanforderungen.

Das Forschungsteam wandte dabei das Prinzip der »Counterfactual Fairness« an. Die Logik ist bestechend einfach: Man nimmt ein Bewerbungsprofil und verändert gezielt einzelne Attribute – etwa den Vornamen von Johannes zu Fatima oder die Postleitzahl von einem wohlhabenden zu einem sozial schwächeren Stadtteil. Wenn sich die Bewertung durch die KI signifikant ändert, obwohl alle Qualifikationen identisch bleiben, liegt ein Bias nahe.

Die Ergebnisse der Untersuchung offenbaren ein komplexes Bild. Während das System auf individueller Ebene keine direkten Diskriminierungsmuster zeigte, traten auf aggregierter Ebene systematische Benachteiligungen bestimmter Gruppen zutage. Philipp Adamidis, Co-Founder und CEO von QuantPi, warnt: »Ein System kann auf Mikroebene fair erscheinen, aber auf Makroebene dennoch diskriminierende Muster erzeugen. Dies ist das klassische Muster einer indirekten Diskriminierung.«

Die Herausforderung liegt in den sogenannten Proxy-Variablen. Ein Schulstandort kann Rückschlüsse auf die Herkunft zulassen, ein Vorname auf Geschlecht oder Religion, Lücken im Lebenslauf auf Elternzeit. So entstehen diskriminierende Entscheidungen, selbst wenn geschützte Merkmale formal aus den Daten entfernt wurden. Die OECD stellte in ihrem AI Practice Report 2024 fest, dass viele getestete KI-Modelle Verzerrungen aufweisen – trotz »bereinigter« Datensätze.

Die menschliche Komponente: Fluch oder Segen?

Eine besonders interessante Frage lautet: Können Menschen als Kontrollinstanz verhindern, dass KI-Systeme diskriminieren? Die Hoffnung vieler Unternehmen liegt darin, dass die menschliche Überprüfung algorithmischer Empfehlungen als Sicherheitsnetz fungiert. Doch eine Studie der University of Washington aus dem November 2025 dämpft diese Erwartung erheblich.

528 Testpersonen wurden gebeten, Kandidaten für verschiedene Positionen auszuwählen – vom IT-Analysten bis zur Pflegekraft. Dabei erhielten sie Empfehlungen von simulierten KI-Systemen mit unterschiedlich ausgeprägten rassistischen Verzerrungen. Das erschreckende Ergebnis: Ohne KI-Unterstützung oder mit neutraler KI wählten die Teilnehmer Bewerber verschiedener Ethnien gleichmäßig aus. Sobald jedoch eine voreingenommene KI ins Spiel kam, übernahmen die Menschen deren Bias nahezu vollständig – unabhängig davon, welche Gruppe die KI bevorzugte.

Zukunftskompetenzen

Was bedeutet das alles für die Profession? Die DGFP-Studie identifiziert klare Anforderungen: Recruiter müssen künftig neben technologischem Verständnis und analytischen Fähigkeiten auch den souveränen Umgang mit KI-Tools beherrschen. Gleichzeitig gewinnen Kompetenzen in Social Media, Personalmarketing, Employer Branding und Direktansprache an Bedeutung.

Der EU AI Act verlangt darüber hinaus explizit, dass Mitarbeiter, die mit Hochrisiko-KI-Systemen arbeiten, geschult werden – idealerweise jährlich und dokumentiert. Es geht dabei nicht nur um technisches Know-how, sondern um die Fähigkeit, kritisch zu hinterfragen: Wann sollte ich die Empfehlung der KI überstimmen? Wie erkenne ich, ob ein Ergebnis möglicherweise unfair oder fehlerhaft ist? Welche Muster deuten auf systematische Verzerrungen hin?

Gartner-Analysten empfehlen den Aufbau umfassender KI-Awareness-Programme für alle Mitarbeiter, die mit Hochrisiko-Systemen interagieren. Denn die menschliche Aufsicht – im Fachjargon »Human Oversight« – ist keine bloße Formalie, sondern eine Kernpflicht des EU AI Act.

Der Weg nach vorne

Trotz aller berechtigten Bedenken wäre es fatal, KI im Recruiting pauschal abzulehnen. Die Technologie bietet große Chancen: Sie kann repetitive Aufgaben automatisieren und Recruitern Zeit für das Wesentliche verschaffen – den persönlichen Kontakt mit Bewerbern. Sie kann dabei helfen, übergroße Bewerberpools strukturiert zu bearbeiten. Und richtig trainiert, kann sie tatsächlich fairere Entscheidungen ermöglichen als voreingenommene Menschen.

Entscheidend ist jedoch der verantwortungsvolle Umgang. Unternehmen müssen ihre KI-Systeme regelmäßig auf Bias testen – nicht nur einmalig bei der Implementierung, sondern kontinuierlich, da sich Trainingsdaten und Algorithmen weiterentwickeln. Sie müssen transparent kommunizieren, wo KI zum Einsatz kommt. Und sie müssen sicherstellen, dass menschliche Entscheider nicht zu Erfüllungsgehilfen algorithmischer Empfehlungen degradiert werden, sondern echte Kontrollinstanzen bleiben.

Denn eines zeigt die IU-Studie überdeutlich: Unternehmen können die Skepsis der Bewerber reduzieren – vor allem, indem sie eine persönliche Ansprechperson während des gesamten Prozesses gewährleisten oder Bewerbenden die Wahl zwischen KI-gestützten und traditionellen Auswahlverfahren lassen. Transparenz und das Primat menschlicher Entscheidungen sind die Schlüssel, um das Vertrauen zu gewinnen, ohne das kein Arbeitsverhältnis gedeihen kann.

Fazit

KI im Recruiting ist keine Zukunftsvision mehr, sondern gelebte Praxis. Die Technologie verspricht Effizienzgewinne, die angesichts des Fachkräftemangels und knapper Ressourcen verlockend sind. Doch sie birgt auch erhebliche Risiken: Diskriminierung durch verzerrte Trainingsdaten, Intransparenz in Entscheidungsprozessen und eine schleichende Aushöhlung des menschlichen Faktors, der im Recruiting unverzichtbar bleibt.

Der EU AI Act setzt einen klaren regulatorischen Rahmen. Ab August 2026 wird die Compliance zur Pflicht – und die Zeit zur Vorbereitung ist knapp. Unternehmen, die jetzt handeln, können KI als echten Wettbewerbsvorteil nutzen.