Wie die KI das Recruiting von morgen schon heute verändert

Dr. Nico Piatkowski war in Schulzeiten von Mathe und dem Amiga 500 fasziniert. Dann hat er an der TU Dortmund Informatik studiert, am Lehrstuhl für KI promoviert und ist heute Experte für Machine Learning am Fraunhofer-Institut: eine beachtliche Karriere, dank menschlicher Intelligenz. Wir haben uns lange mit ihm unterhalten und wollten wissen, was KI für die Arbeitswelt und das Recruiting von morgen bedeutet.

Nico, unser Thema ist das Recruiting junger Leute. Wie kann KI, künstliche Intelligenz, im Recruiting unterstützen?

Bei KI geht es oft um Automatisierung. Diese Art von Automatisierung kann große Unternehmen unterstützen, die viele Menschen einstellen müssen. Es gibt beispielsweise Systeme, die digitale Bewerbungen durchlesen und ihnen eine Art Score verpassen. So muss der Personaler sich nicht mehr jede einzelne Bewerbung durchlesen, sondern bekommt automatisch eine Auswahl derer vorgeschlagen, die gut mit dem ausgeschriebenen Profil matchen. Wertfrei betrachtet, spart es viel Zeit und Kapazitäten.
Ich könnte mir auch vorstellen, dass der Einsatz von KI unter psychologischen Gesichtspunkten sinnvoll sein könnte. Vorstellungsgespräche beispielsweise sind nicht immer ganz einfach. Es gibt viel, auf das Personaler während des Gesprächs achten müssen. Eine KI könnte hier unterstützen und zum Beispiel kleine subtile Gesten und Anzeichen für emotionale Reaktionen erkennen und auswerten. So könnte man die Körpersprache des Bewerbers auswerten und hätte zusätzliche Informationen, um eine Passung zu beurteilen.

In Callcentern soll die KI ja sogar die Klangfarbe der Anrufer analysieren, um zu bewerten, wo der Callcenter Agent den Anrufer emotional am besten abholt. Es ist schon etwas unheimlich, von Maschinen analysiert und bewertet zu werden. Gab es nicht vor Jahren einen Fall bei Amazon, wo so etwas auch gründlich in die Hose ging?

Ja, man muss darauf vertrauen können, dass das, was aus der Maschine rauskommt auch korrekt und sinnvoll ist. Und das kommt maßgeblich auf die Parameter an, die der Mensch vorgibt. Der Fall bei Amazon ist schon einige Jahre her. Ich meine, das System war noch in der Testphase und noch gar nicht wirklich im Einsatz. Die Idee war genau die, dass die KI Bewerbungen liest und nach Wahrscheinlichkeiten sucht, wie gut der- oder diejenige passen würde. Im Grunde war es auch recht naheliegend auf diese Idee zu kommen. Amazon hatte immer schon viele Bewertungssysteme, wie beispielsweise die Sterne, mit denen Käufer ihren Kauf bewerten oder die Info, welche Produkte Kunden noch interessant finden. Das alles fußt auf Wahrscheinlichkeiten und daher war es kein großer Schritt dahin, dass man ein solches Bewertungssystem auch im Recruiting einsetzt, um den Auswahlprozess zu verschlanken.

Also die Idee war gut, nur die Umsetzung nicht?

Genau. In diesem Fall ist Folgendes passiert: Man hat Bewerbungen von Leuten genommen, die in den letzten 10 Jahren erfolgreich eingestellt wurden und die Faktoren ermittelt, die eine erfolgreiche Einstellung wahrscheinlicher machten. Das System hat dann festgestellt, dass Frauen seltener eingestellt wurden als Männer und der Algorithmus hat aus den Daten Wahrscheinlichkeiten für kommende Bewerber:innen ausgerechnet. Besonders tricky: Die Maschine hat nicht nur nach weiblichen Vornamen geschaut, sondern auch nach anderen Features, die eine Bewerberin als weiblich identifizierten. Wer angab im „Women Chess Club“ zu sein oder ein „Frauencollege“ besucht zu haben, wurde aktiv vom Algorithmus abgewertet. Es gab dann 4 statt 5 Sterne – wegen des Geschlechts. Das war ein klassischer Bias, also eine Verzerrung des Ergebnisses, durch eine schräge Datenlage, mit der der Algorithmus gefüttert wurde.

Könnte das denn heute auch noch passieren? Sind die Maschinen heute schlauer oder ist es nach wie vor so, dass man als Mensch aufpassen muss, um so etwas zu verhindern?

Beides. Es ist so, dass seit dieser Zeit – in der es übrigens mehrere solcher Vorkommnisse gab – im Machine Learning Begriffe wie Erklärbarkeit, Fairness und Bias eine sehr große Rolle spielen. Es gibt ganze Forschungsgruppen, die sich ausschließlich damit beschäftigen. Deshalb ist da auch einiges passiert. Es gibt Methoden, die im Vorfeld solche Bias aus den Daten herausfiltern. Es ist aber nach wie vor nicht ganz einfach, denn die Algorithmen sind sehr gut darin, Zusammenhänge zu erkennen. Deshalb verlässt man sich heute nicht nur auf die Bereinigung der Ausgangsdaten, sondern nutzt auch eigene Algorithmen, denen man dann Vorgaben macht und sagt: „Da es in der Bevölkerung eine Gleichverteilung unter den Geschlechtern gibt, möchte ich diese auch bei den Bewerber:innen haben, die du mir vorschlägst.“

Das System ist also nur so gut wie die Menschen, die es einrichten. Und offensichtlich lernt nicht nur die KI dazu. Hast du eine Idee, wie KI auch Bewerber:innen weiterhelfen könnte?

Ja klar, auf jeden Fall! Mir selbst fällt es leicht, einen wissenschaftlichen Text zu schreiben. Ein ansprechendes Bewerbungsanschreiben zu formulieren, ist für mich dagegen schwer. Ich verwende deshalb Chat GPT und lasse mir von der KI helfen: Ich sage, auf was und wo ich mich bewerben will, und schaue, was der Bot mir vorschlägt. Neben Chat GPT gibt es ja auch andere Systeme wie Lama oder Mistral. Diese Sprachmodelle sind im Grunde die logische Weiterentwicklung einer Schreibmaschine und ihr Ziel ist es nicht, besonders intelligent zu sein, sondern einem das Schreiben zu erleichtern. Auch hier sind Wahrscheinlichkeiten das Thema: Diese Modelle sind darauf trainiert, das Wort zu finden, das am wahrscheinlichsten in diesem Kontext auf das vorige folgen müsste.

Chat GPT und Co haben in vielen Bereichen längst Einzug gehalten und erleichtern uns die tägliche Arbeit. Wird es in Zukunft überhaupt noch nötig sein, selbst etwas zu verfassen? Oder können wir in 50 Jahren alle nicht mehr schreiben, weil wir es nicht mehr müssen?

Ich glaube nicht. Vor mehr als 2.000 Jahren gab es übrigens eine ähnliche Diskussion. Thamus, Herrscher Ägyptens, hatte Sorge, dass das Aufkommen der Schrift dazu führen würde, dass die Menschen an Gedächtnisleistung verlieren würden, wenn sie ihr Wissen nicht mehr erinnern müssen. Damals haben mehrere große Philosophen anlässlich der Erfindung der Schrift über den Verfall der Menschheit diskutiert. Heute wissen wir, die Erfindung der Schrift hat die Menschheit nicht dümmer gemacht. Die Sorge war unbegründet. Ich persönlich denke mit den KI-Sprachmodellen ist es ähnlich. Die Jugend, die heute damit aufwächst, wird schon verstehen, was diese Systeme können und was sie nicht können. KI-Systeme, die auf dieser Art Technik und Wahrscheinlichkeitsrechnung basieren, werden niemals Ergebnisse erzielen, die vorher gar nicht in den Trainingsdaten angelegt waren.

Heißt also, die KI arbeitet logisch und sehr effizient, schafft aber nichts Neues?

Genau! Die KI kann nichts aus dem Nichts erzeugen. Das kann nur der Mensch.

Danke, Nico!

Anmerkung der Redaktion: Dieses Interview wurde nicht von einer KI geführt und hat großen Spaß gemacht. Eine KI hat aber geholfen, die krude Zeichensetzung der Autorin zu kontrollieren. 😉 Praktisch, irgendwie…

Wie die KI das Recruiting von morgen schon heute verändert

Dr. Nico Piatkowski war in Schulzeiten von Mathe und dem Amiga 500 fasziniert. Dann hat er an der TU Dortmund Informatik studiert, am Lehrstuhl für KI promoviert und ist heute Experte für Machine Learning am Fraunhofer-Institut: eine beachtliche Karriere, dank menschlicher Intelligenz. Wir haben uns lange mit ihm unterhalten und wollten wissen, was KI für die Arbeitswelt und das Recruiting von morgen bedeutet.

Nico, unser Thema ist das Recruiting junger Leute. Wie kann KI, künstliche Intelligenz, im Recruiting unterstützen?

Bei KI geht es oft um Automatisierung. Diese Art von Automatisierung kann große Unternehmen unterstützen, die viele Menschen einstellen müssen. Es gibt beispielsweise Systeme, die digitale Bewerbungen durchlesen und ihnen eine Art Score verpassen. So muss der Personaler sich nicht mehr jede einzelne Bewerbung durchlesen, sondern bekommt automatisch eine Auswahl derer vorgeschlagen, die gut mit dem ausgeschriebenen Profil matchen. Wertfrei betrachtet, spart es viel Zeit und Kapazitäten.
Ich könnte mir auch vorstellen, dass der Einsatz von KI unter psychologischen Gesichtspunkten sinnvoll sein könnte. Vorstellungsgespräche beispielsweise sind nicht immer ganz einfach. Es gibt viel, auf das Personaler während des Gesprächs achten müssen. Eine KI könnte hier unterstützen und zum Beispiel kleine subtile Gesten und Anzeichen für emotionale Reaktionen erkennen und auswerten. So könnte man die Körpersprache des Bewerbers auswerten und hätte zusätzliche Informationen, um eine Passung zu beurteilen.

In Callcentern soll die KI ja sogar die Klangfarbe der Anrufer analysieren, um zu bewerten, wo der Callcenter Agent den Anrufer emotional am besten abholt. Es ist schon etwas unheimlich, von Maschinen analysiert und bewertet zu werden. Gab es nicht vor Jahren einen Fall bei Amazon, wo so etwas auch gründlich in die Hose ging?

Ja, man muss darauf vertrauen können, dass das, was aus der Maschine rauskommt auch korrekt und sinnvoll ist. Und das kommt maßgeblich auf die Parameter an, die der Mensch vorgibt. Der Fall bei Amazon ist schon einige Jahre her. Ich meine, das System war noch in der Testphase und noch gar nicht wirklich im Einsatz. Die Idee war genau die, dass die KI Bewerbungen liest und nach Wahrscheinlichkeiten sucht, wie gut der- oder diejenige passen würde. Im Grunde war es auch recht naheliegend auf diese Idee zu kommen. Amazon hatte immer schon viele Bewertungssysteme, wie beispielsweise die Sterne, mit denen Käufer ihren Kauf bewerten oder die Info, welche Produkte Kunden noch interessant finden. Das alles fußt auf Wahrscheinlichkeiten und daher war es kein großer Schritt dahin, dass man ein solches Bewertungssystem auch im Recruiting einsetzt, um den Auswahlprozess zu verschlanken.

Also die Idee war gut, nur die Umsetzung nicht?

Genau. In diesem Fall ist Folgendes passiert: Man hat Bewerbungen von Leuten genommen, die in den letzten 10 Jahren erfolgreich eingestellt wurden und die Faktoren ermittelt, die eine erfolgreiche Einstellung wahrscheinlicher machten. Das System hat dann festgestellt, dass Frauen seltener eingestellt wurden als Männer und der Algorithmus hat aus den Daten Wahrscheinlichkeiten für kommende Bewerber:innen ausgerechnet. Besonders tricky: Die Maschine hat nicht nur nach weiblichen Vornamen geschaut, sondern auch nach anderen Features, die eine Bewerberin als weiblich identifizierten. Wer angab im „Women Chess Club“ zu sein oder ein „Frauencollege“ besucht zu haben, wurde aktiv vom Algorithmus abgewertet. Es gab dann 4 statt 5 Sterne – wegen des Geschlechts. Das war ein klassischer Bias, also eine Verzerrung des Ergebnisses, durch eine schräge Datenlage, mit der der Algorithmus gefüttert wurde.

Könnte das denn heute auch noch passieren? Sind die Maschinen heute schlauer oder ist es nach wie vor so, dass man als Mensch aufpassen muss, um so etwas zu verhindern?

Beides. Es ist so, dass seit dieser Zeit – in der es übrigens mehrere solcher Vorkommnisse gab – im Machine Learning Begriffe wie Erklärbarkeit, Fairness und Bias eine sehr große Rolle spielen. Es gibt ganze Forschungsgruppen, die sich ausschließlich damit beschäftigen. Deshalb ist da auch einiges passiert. Es gibt Methoden, die im Vorfeld solche Bias aus den Daten herausfiltern. Es ist aber nach wie vor nicht ganz einfach, denn die Algorithmen sind sehr gut darin, Zusammenhänge zu erkennen. Deshalb verlässt man sich heute nicht nur auf die Bereinigung der Ausgangsdaten, sondern nutzt auch eigene Algorithmen, denen man dann Vorgaben macht und sagt: „Da es in der Bevölkerung eine Gleichverteilung unter den Geschlechtern gibt, möchte ich diese auch bei den Bewerber:innen haben, die du mir vorschlägst.“

Das System ist also nur so gut wie die Menschen, die es einrichten. Und offensichtlich lernt nicht nur die KI dazu. Hast du eine Idee, wie KI auch Bewerber:innen weiterhelfen könnte?

Ja klar, auf jeden Fall! Mir selbst fällt es leicht, einen wissenschaftlichen Text zu schreiben. Ein ansprechendes Bewerbungsanschreiben zu formulieren, ist für mich dagegen schwer. Ich verwende deshalb Chat GPT und lasse mir von der KI helfen: Ich sage, auf was und wo ich mich bewerben will, und schaue, was der Bot mir vorschlägt. Neben Chat GPT gibt es ja auch andere Systeme wie Lama oder Mistral. Diese Sprachmodelle sind im Grunde die logische Weiterentwicklung einer Schreibmaschine und ihr Ziel ist es nicht, besonders intelligent zu sein, sondern einem das Schreiben zu erleichtern. Auch hier sind Wahrscheinlichkeiten das Thema: Diese Modelle sind darauf trainiert, das Wort zu finden, das am wahrscheinlichsten in diesem Kontext auf das vorige folgen müsste.

Chat GPT und Co haben in vielen Bereichen längst Einzug gehalten und erleichtern uns die tägliche Arbeit. Wird es in Zukunft überhaupt noch nötig sein, selbst etwas zu verfassen? Oder können wir in 50 Jahren alle nicht mehr schreiben, weil wir es nicht mehr müssen?

Ich glaube nicht. Vor mehr als 2.000 Jahren gab es übrigens eine ähnliche Diskussion. Thamus, Herrscher Ägyptens, hatte Sorge, dass das Aufkommen der Schrift dazu führen würde, dass die Menschen an Gedächtnisleistung verlieren würden, wenn sie ihr Wissen nicht mehr erinnern müssen. Damals haben mehrere große Philosophen anlässlich der Erfindung der Schrift über den Verfall der Menschheit diskutiert. Heute wissen wir, die Erfindung der Schrift hat die Menschheit nicht dümmer gemacht. Die Sorge war unbegründet. Ich persönlich denke mit den KI-Sprachmodellen ist es ähnlich. Die Jugend, die heute damit aufwächst, wird schon verstehen, was diese Systeme können und was sie nicht können. KI-Systeme, die auf dieser Art Technik und Wahrscheinlichkeitsrechnung basieren, werden niemals Ergebnisse erzielen, die vorher gar nicht in den Trainingsdaten angelegt waren.

Heißt also, die KI arbeitet logisch und sehr effizient, schafft aber nichts Neues?

Genau! Die KI kann nichts aus dem Nichts erzeugen. Das kann nur der Mensch.

Danke, Nico!

Anmerkung der Redaktion: Dieses Interview wurde nicht von einer KI geführt und hat großen Spaß gemacht. Eine KI hat aber geholfen, die krude Zeichensetzung der Autorin zu kontrollieren. 😉 Praktisch, irgendwie…

  • Dr. Nico Piatkowski war in Schulzeiten von Mathe und dem Amiga 500 fasziniert. Dann hat er an der TU Dortmund Informatik studiert, am Lehrstuhl für KI promoviert und ist heute Experte für Machine Learning am Fraunhofer-Institut: eine beachtliche Karriere, dank menschlicher Intelligenz. Wir haben uns lange mit ihm unterhalten und wollten wissen, was KI für die Arbeitswelt und das Recruiting von morgen bedeutet.

    Dr. Nico Piatkowski war in Schulzeiten von Mathe und dem Amiga 500 fasziniert. Dann hat er an der TU Dortmund Informatik studiert, am Lehrstuhl für KI promoviert und ist heute Experte für Machine Learning am Fraunhofer-Institut: eine beachtliche Karriere, dank menschlicher Intelligenz. Wir haben uns lange mit ihm unterhalten und wollten wissen, was KI für die Arbeitswelt und das Recruiting von morgen bedeutet.

  • In der heutigen digitalen Welt sind die Momente der Aufmerksamkeit kurz – nur etwa 2,5 Sekunden entscheiden darüber, ob ein Nutzer bleibt oder weiterscrollt. Für Unternehmen mit Schwierigkeiten bei der Azubi-Suche wird es immer wichtiger, diese kurzen Momente effektiv zu nutzen. Doch viele Unternehmen kennen die aktuellen Social-Media-Trends nicht und nutzen ihre Kanäle hauptsächlich, um

    In der heutigen digitalen Welt sind die Momente der Aufmerksamkeit kurz – nur etwa 2,5 Sekunden entscheiden darüber, ob ein Nutzer bleibt oder weiterscrollt. Für Unternehmen mit Schwierigkeiten bei der Azubi-Suche wird es immer wichtiger, diese kurzen Momente effektiv zu nutzen. Doch viele Unternehmen kennen die aktuellen Social-Media-Trends nicht und nutzen ihre Kanäle hauptsächlich, um

  • Cultural fit spielt für Arbeitnehmer:innen eine elementare Rolle, aber auch Unternehmen stellen fest: Wenn die Kultur nicht passt, nützt auch die Qualifikation wenig. Wer die passenden Azubis finden und dann vor allen Dingen auch halten und langfristig binden möchte, sollte zusehen, dass es auch kulturell passt. Nicht nur für die jetzige Gen Z ist das wichtig, auch die kommende Azubigeneration Alpha (2010 bis 2025 Geborene) wird großen Wert auf diese Passung legen.

    Cultural fit spielt für Arbeitnehmer:innen eine elementare Rolle, aber auch Unternehmen stellen fest: Wenn die Kultur nicht passt, nützt auch die Qualifikation wenig. Wer die passenden Azubis finden und dann vor allen Dingen auch halten und langfristig binden möchte, sollte zusehen, dass es auch kulturell passt. Nicht nur für die jetzige Gen Z ist das wichtig, auch die kommende Azubigeneration Alpha (2010 bis 2025 Geborene) wird großen Wert auf diese Passung legen.