Website-Icon SAATKORN

How Dangerous Is AI in Recruiting – and What Do We Keep Ignoring, KATHARINA ZWEIG?

Professorin-Katharina-Zweig-SAATKORN-AI-Talk

Professorin-Katharina-Zweig-SAATKORN-AI-Talk

How Dangerous Is AI in Recruiting – and What Do We Keep Ignoring, Katharina Zweig?

In this SAATKORN podcast episode, I’m talking to Katharina Zweig, one of Germany’s most renowned AI experts, professor of computer science and head of the Algorithm Accountability Lab at RPTU. She combines deep technical expertise with societal responsibility – and challenges the hype around AI with refreshing clarity. One statement really stuck with me: “AI does not know that it knows nothing – we just interpret intelligence into it.” Under other topics, we spoke about:

🤖 The Illusion of Intelligence

Why large language models sound like experts – and why that doesn’t mean they understand anything at all.

⚖️ AI, Value Judgments & Discrimination

Why especially in HR we are dealing with value judgments – and why these are exactly the kind of decisions machines are worst at.

💥 Will the LLM Bubble Burst?

Why Katharina Zweig is convinced that the current language model hype will collapse – and why that would be dangerous for the truly valuable AI applications.

The core message: The real risk is not AI itself – it’s our willingness to outsource responsibility for complex human decisions. If you work in HR, leadership or tech and want to understand where AI really helps – and where it absolutely doesn’t – this episode will challenge your thinking.

🎧 Listen now and sharpen your perspective on AI in recruiting and beyond.

Further links:

Katharina Zweig on LinkedIn: go HERE.

Find the books of Katharina Zweig HERE.

#SAATKORN #AI #HRTech #Ethics


Wie gefährlich ist KI im Recruiting – und was blenden wir gerade aus, Frau Professor Zweig?

In dieser SAATKORN Podcast Episode spreche ich mit Katharina Zweig, einer der profiliertesten KI-Expertinnen Deutschlands, Informatikprofessorin und Leiterin des Algorithm Accountability Labs an der RPTU. Sie verbindet technische Tiefe mit gesellschaftlicher Verantwortung – und räumt mit einigen Mythen rund um KI auf. Ein Satz, der hängen bleibt: „Wir interpretieren Intelligenz in die Maschine hinein – dabei hat sie keine.“ Unter anderem haben wir über folgende Themen gesprochen:

🤖 Die Illusion von Wissen

Warum Sprachmodelle klingen wie Expert:innen – aber keine Ahnung haben, was sie da sagen.

⚖️ Werturteile, Diskriminierung und HR-Entscheidungen

Warum gerade Recruiting-Entscheidungen hochkomplexe Werturteile sind – und warum Maschinen dafür nur sehr begrenzt geeignet sind.

💥 Platzt die LLM-Blase?

Warum der aktuelle Sprachmodell-Hype nicht nachhaltig sein könnte – und weshalb das für die gesamte KI-Forschung problematisch wäre.

Die Quintessenz: KI kann Prozesse unterstützen. Aber Verantwortung bleibt menschlich. Wenn Du im HR-Umfeld arbeitest oder Dich mit KI beschäftigst, solltest Du diese Folge unbedingt hören – sie bringt dringend nötige Differenzierung in eine oft überhitzte Debatte.

🎧 Jetzt anhören:

Weitere Links:

Katharina Zweig auf LinkedIn: HIER klicken.

Die Bücher von Katharina Zweig gibt es HIER.

#SAATKORN #KI #HRTech #Ethik

photo: www.felixschmitt.com

Die mobile Version verlassen