Personalauswahlalgorithmen

unter dem Brennglas

Autor: L. Preußer, erstellt: 28-Okt-2024

Erstmals vorgetragen im Engineering Forum der IG Metall.

Was ist Personalauswahl?

Finde die bestmögliche, passende Besetzung für eine Stelle.

Bewertung und Abgleich

Fähigkeiten

Fertigkeiten

Kenntnisse

Potential

Habitus / Werte / Kultur

Persönlichkeit

Was ist ein Algorithmus?

Eine eindeutige Handlungsvorschrift zur Lösung eines Problems [...] [1]

Problem

Bilde die Fakultät einer beliebigen, positiven ganzen Zahl kleiner 256.

Handlungsvorschrift


						uint64_t fakultaet(uint8_t wert) {
							if (wert > 0) {
								return wert*fakultaet(wert-1);
							} else {
								return 1;
							}
						}
						

Findet jemand einen Programmierfehler? 😉

Künstliche Intelligenz

| Stellen Sie sich vor, Personen werden auf Robotersein geprüft. |

| Dafür wird ihnen ein Bild angezeigt. |

| Sie sollen die Wahrscheinlichkeit angeben, darauf eine "Ampel" zu sehen. |

| Person "A" tut dies anhand der Farbanteile im Bild. |

| Person "B" bewertet die Formen im Bild. |

| Person "C" analysiert Bildkontraste. |

| Person "D" versucht, sich wiederholende Winkel zu erkennen. |

| Person "E" zählt Kreise im Bild usw. |

| Alle Aussagen werden gewichtet und man erhält einen Wahrheitswert. |

Neural Network

Kontext (gesprochenes Wort)

Nichts hinkt wie ein Vergleich. Der Punkt ist, dass bei "neuronalen Netzen" ein mathematisches Modell zum Einsatz kommt, welches als Geflecht aus gewichteten Übertragungsfunktionen abgebildet wird. Es ermittelt die wahrscheinlichste Lösung der eingegebenen Aufgabe. All dies basiert auf der Übertragungsfunktion samt Gewichtung, deren Parameter mittels "Training" festgelegt werden. [2]

Training

| Stellen Sie sich das Wurzelgeflecht eines Baumes vor. |

| Der Sommer ist besonders trocken. |

| Der Baum ist auf der Suche nach Grundwasser. |

| Mit Kräften muss hausgehaltet werden. |

| Daher wird der Baum Wurzeln mit Kontakt zu Wasser stärker ausprägen. |

| Wurzeln, die bei der Suche nicht erfolgreich waren, verkümmern. |

Reinforcement Learning

Probleme und Risiken

Halluzinationen [3]

Verzerrungen (Bias) [4]

Keine Nachvollziehbarkeit [5] [6]

Veränderlichkeit

Datenschutz

Kontext (gesprochenes Wort)

    Mit Halluzinationen sind ungenaue oder schlicht falsche Aussagen von "KI" gemeint, die aus den Eingabedaten nicht hervorgehen. (Ursache: "KI" als Wahrscheinlichkeitsmodell)

    Besonders heikel sind Bias / Verzerrungen bzw. Vorurteile bei "KI" im Personalwesen: Sie führen oft zu Diskriminierung und erzeugen falsch negative oder falsch positive Ergebnisse.

    Bei mehrschichtigen neuronalen Netzen ist kaum bzw. gar nicht mehr nachvollziehbar, wie das System zum Ergebnis gekommen ist. So kann ein Ergebnis auch "zufälligerweise korrekt" sein.

    Veränderlichkeit: Der Softwarestand kann unter dem Radar von Kunden und Nutzerinnen modifiziert werden. "KI" agiert zudem nicht generell streng deterministisch, sodass eine Attribution schwierig oder sogar unmöglich wird.

Beispiel für "Pre-AI-hiring"

    Die Stelle wird ausgeschrieben.

    Ein Filter wird auf die Flut von Bewerbungen angewandt.

    Anschließend wird ein telefonisches Kurzinterview geführt.

    Es erfolgt ein Einstellungstest für die verbleibenden Personen.

    Nun wird eine Rangfolge gebildet.

    Die besten KandidatInnen werden mit strukturierten Interviews bewertet.

    Schließlich wird die Person mit der höchsten Punktzahl eingestellt.

Und was hat

"Künstliche Intelligenz"

damit zu tun?

Annahmen 🏭

Am Begriff "KI" kommt keiner mehr vorbei. [7] [8]

Großen Investitionen stehen derzeit geringe Einnahmen gegenüber. [9] [10]

Wir haben Fachkräftemangel in Nischen. [11]

Personalabteilungen werden auf Effizienz und Schlankheit getrimmt. [12] [13]

Motivation aus Unternehmenssicht

"Wir wollen die Fachbereiche entlasten." [14]

"Das Angebot von KI-Produkten ist groß." [15]

"Personalauswahl ist teuer und zeitaufwändig." [16]

"Wir haben im Moment nicht das richtige Talent an Bord." [17]

Schlussfolgerungen

Für allgemeine Fragen rund um die Bewerbung nehmen wir den Chatbot.

Die Auswahl für Stellen machen wir regelbasiert.

Mittels "KI"-Werkzeugen lassen wir Umgebungsparameter einfließen.

Wir optimieren unsere Stellenausschreibungen durch LLMs.

Die Entscheidung obliegt natürlich stets einem Menschen.

Was die Firma eigentlich möchte

Besseres Personal! 🏅

Geringere Verwaltungskosten 💸

Schärfere Anforderungsprofile für Stellen 🦄

Was die Firma stattdessen bekommt

| Szenario |

| Ein Unternehmen möchte "KI" im Personalwesen einsetzen. |

| Es abonniert eine "KI-Lösung" und lässt sie in ihr Software-Ökosystem einbinden. |

| Weil es die Technologie dahinter weder beherrscht noch entwickeln möchte. |

| Ab jetzt fließen Anschreiben, Lebensläufe, Zeugnisse |

| durch Softwarekomponenten von Drittanbietern. |

| Auch das Erstellen von Ausschreibungen wird ausgelagert. |

Dadurch verliert das Unternehmen mehrere seiner Kernkompetenzen.

Vorteile für Drittanbieter

Abofalle! 😈

Kostenlose Trainingsdaten 💎

Persönliche Daten von BewerberInnen 🐙

Einblicke in Betriebsinterna der Auftraggeber 🔍

Was tun die Gesetzgeber?

📖

DSGVO / GDPR

Schutzziele:

    Vertraulichkeit 🔒

    Verfügbarkeit 🏪

    Integrität ✅

Kontext (gesprochenes Wort)

    Personenbezogene Daten = Daten, die einer natürlichen Person (auch mittelbar) zugeordnet sind

    Vertraulichkeit = Schutz vor unbefugter Preisgabe der Information

    Verfügbarkeit = Schutz vor ungefugter Vorenthaltung der Information

    Integrität = Schutz vor unbefugter Veränderung der Information

Ansprüche:

    Datenminimierung 📁

    Nichtverkettung ⛓️

    Transparenz 🕶️

    Intervenierbarkeit 🛑

Kontext (gesprochenes Wort)

    Datenminimierung: Menge, Umfang, Speicherdauer, Zugänglichkeit

    Nichtverkettung: Keine Zusammenführung, Zweckbindung

    Transparenz: Welche Daten werden von wem, wo und für welchen Zweck gespeichert?

    Intervenierbarkeit: Benachrichtigung, Auskunft, Berichtigung, Beschränkung, Löschung, Übertragung, Widerspruch, Eingriff

EU AI Act

Anforderungen:

    Informationspflicht

    Transparenz für Daten

    Dokumentation und Rückverfolgbarkeit

    Robustheit und Genauigkeit

    Menschliche Aufsicht

    Risikobewertung und -Minimierung

Kontext (gesprochenes Wort)

    Wann immer "KI" im Spiel ist, müssen Beteiligte darüber informiert werden.

    Trainings- und Nutzerdaten: Welche Daten werden gesammelt, wo und wie häufig verwendet?

    Rückverfolgbarkeit der Interaktion, Dokumentation der Änderungen am Modell/Training

    Regelmäßige Prüfung der Anwendung: Korrekte Ausgaben, Staging-Systeme, Testdatensätze

    Aufsicht: Keine alleinigen Entscheidungen durch "KI", Prüfung durch Menschen

    Kategorisierung von Systemen in kritisch (sensible Bereiche, personenbezogene Daten) und "Low Risk"

Selbstverpflichtungen

Responsible AI

Hier werden Schlagwörter verwendet, um den Einsatz von "KI" ethisch einzubetten:

    Fairness

    Reliability & Safety

    Privacy & Security

    Inclusiveness

    Accountability

    Transparency

Blickwinkel betroffener Personen

    "Was wird denn für mich besser?"

    "Ich optimiere meine Bewerbung mit AI-Tools für AI-Tools."

    "Der Bewerbungsprozess darf nicht so lange dauern."

    "Ich möchte lieber mit echten Menschen sprechen."

    "Mir kommen da direkt Datenschutzbedenken."

    "Das Unternehmen muss auch zu mir passen."

Mein Fazit

Personalauswahlalgorithmen werden bereits in der Fläche eingesetzt.

Derzeit jedoch zumeist mit "klassischer", regelbasierter Logik.

"Künstliche Intelligenz" kann vor allem bei Freitexten und unscharfen Kriterien Vorteile erzielen.

Dennoch gibt es noch immer große Probleme: "Halluzinationen", "Bias", Unbestimmbarkeit, Datenschutzverstöße...

Wir sollten darauf bestehen, dass "KI"-Systeme schon jetzt den EU AI Act erfüllen.

Außerdem müssen wir gute Regelungen auf Anwendungsebene entwickeln, z.B. Betriebsvereinbarungen.

Die Essenz freiwilliger Selbstverpflichtungen sollte in Gesetze einfließen.

🤝 Doch am Ende geht nichts über den persönlichen Kontakt zwischen Menschen.

Weiterführende Literatur