Kaum eine Frage bewegt die Gesellschaft derzeit so stark wie diese: Wohin führt uns die rasante Entwicklung der Künstlichen Intelligenz? Wie werden wir künftig arbeiten, entscheiden oder lernen? Zwischen technologischem Fortschrittsoptimismus und wachsender Verunsicherung erleben wir einen Wandel, der nicht nur Prozesse beschleunigt, sondern Grundfragen menschlicher Expertise berührt. Droht uns – trotz aller „Intelligenz“ – eine schleichende Erosion von Urteilskraft und kritischem Denken?
Die KI verändert unsere Arbeitswelt in rasantem Tempo. Texte entstehen in Sekunden, Daten werden in nie dagewesener Geschwindigkeit analysiert und kreative Prozesse lassen sich automatisieren. Für viele Berufsfelder bedeutet das: mehr Effizienz, neue Möglichkeiten, weniger Routinearbeit.
Gerade für Berufseinsteigende kann das allerdings auch ein Problem sein:
Die KI übernimmt zunehmend Aufgaben, die früher mühsam erlernt werden mussten: Recherchieren, Zusammenfassen oder erste Analysen. Was früher Stunden dauerte, ist heute in Minuten erledigt.
Die Vermutung, dass KI insb. Einstiegsjobs killt, hat in den letzten Wochen eine Menge Support erfahren. So warnte etwa Stepstone CEO Sebastian Dettmers vor einer „Generation Frustration“ und machte dies an Stepstone-Zahlen fest, nach denen der „Anteil ausgeschriebener Einstiegsjobs im ersten Quartal dieses Jahres 45 % unter dem Fünfjahresdurchschnitt“ lag. Der Grund: KI übernimmt diese Jobs. Jetzt kann eine solche Entwicklung natürlich auch alle möglichen anderen Ursachen haben – allen voran liegt natürlich der Verdacht auf der Hand, dass es sich um eine Folge der Rezession und von konjunkturellen sowie geopolitischen Unsicherheiten handelt. Auf diesen Umstand weisen u.a. Fritz Espenlaub und Marie Kilg in der überaus hörenswerten Folge „Killt KI die Chancen von Berufseinsteigern?“ des KI-Podcasts hin. Auch „Data Dan“ Daniel Mühlbauer mahnte zur Vorsicht bei der Betrachtung der Daten. Aber auch die recht viel beachtete Stanford-Studie „Canaries in the Coal Mine“ fand zumindest Indizien dafür, dass KI Einstiegsjobs wegdisruptiert, insb. dort, wo KI Arbeit automatisieren und nicht augmentieren (also inhaltlich mit erweiterten Möglichkeiten bearbeitbar machen) kann – z.B. im Coding. Der Effekt auf diese „more exposed“ Jobs zeigte sich hierbei erheblich stärker bei Early Career als als Mid Career Positionen.
Ähnlich lassen sich Befunde einer Untersuchung von HiBob lesen, bei der 2.000 Beschäftigte in Deutschland, darunter über 1.100 HR-Fachkräfte, zu Auswirkungen der KI befragt wurden. Auch hier dominierte die Ansicht, dass KI möglicherweise speziell Einsteigerrollen ersetzen könnte.
Es könnten als besonders Positionen auf Juniorlevel von Substitution durch KI betroffen sein, also genau jene Tätigkeiten, die bisher als „Lernfelder“ dienten, um Erfahrung, Urteilskraft und fachliche Tiefe zu entwickeln. Und genau hier beginnt das Dilemma.
Werden diese Lernprozesse von KI übernommen, verlieren junge Talente die Chance, sich Wissen selbst zu erarbeiten und damit auch die Fähigkeit, KI-Ergebnisse kritisch einzuordnen. Denn nur wer gelernt hat, Quellen zu bewerten und Argumentationen auf Plausibilität zu prüfen, kann Fehler erkennen. Andernfalls bleibt verborgen, wann die KI danebenliegt. Und das geschieht häufiger, als man vermuten würde.
Large-Language-Models (LLMs) wie ChatGPT, Gemini oder Llama erzeugen Inhalte auf Basis von Wahrscheinlichkeiten. Sie „wissen“ nicht, ob etwas stimmt. Das führt häufig zu sogenannten „Halluzinationen“: Plausibel klingende, aber frei erfundene Informationen.
Beispiele hierfür gibt es inzwischen reichlich…
In der juristischen Praxis etwa führten nicht vorhandene Gesetze und Urteile bereits zu peinlichen und teuren Konsequenzen. Der Jurist Damien Charlotin dokumentiert auf einer eigenen Website Hunderte solcher Fälle, einschließlich der Sanktionen, die betroffene Anwälte erhielten. Ein stetig wachsendes Mahnmal dafür, KI-Ergebnisse weiterhin kritisch zu hinterfragen.
Ein aktueller Fall zeigt, was passiert, wenn der kritische Blick auf Inhalte fehlt: Im Verlag Springer Nature erschien kürzlich ein Buch – ironischerweise auch noch genau zum Thema „maschinelles Lernen“ –, dessen Quellen auf Anraten eines Lesers überprüft wurden. Das Ergebnis: zahlreiche Fehler, nicht existierende Werke und falsche Zitate. Der Verdacht liegt nahe, dass das Buch mithilfe von KI erstellt wurde. Frei erfundene Quellen sind schließlich ein typisches Merkmal von LLM-generierten Texten. Da sich der Autor bislang nicht zu den Vorwürfen äußerte, gewinnt der Fall zusätzliche Brisanz und verdeutlicht, wie schnell Vertrauen in wissenschaftliche Inhalte erschüttert werden kann. Das Problem hier ist neben der De-Information durch das fehlerhafte Medium selbst vor allem auch die Tatsache, dass diese Inhalte durch die Erscheinung – hier in einem renommierten Wissenschaftsverlag selber dadurch „als zitierfähiges“ und damit als „für wahr haltbares“ Wissen angenommen werden können. So verbreitet sich der falsche Inhalt und wird möglicherweise allein dadurch „real“…
Die Gefahr beschränkt sich jedoch nicht auf Texte. Kürzlich sorgte ein gefälschtes Bild des Journalisten Paul Ronzheimer für Aufsehen. Es zeigte ihn angeblich vor einem Greenscreen und sollte den Eindruck erwecken, er sei gar nicht in Israel gewesen. Besonders bedenklich ist, dass KI-Systeme wie Grok das Material aufgriffen und es als echte Information behandelten. Ein alarmierendes Beispiel für die wachsende Macht und das Risiko von Deepfakes.
Doch wie kommt es, dass KI-Systeme falsche Informationen als Wahrheiten behandeln? Die Antwort liegt in der Funktionsweise von LLMs: Sie erzeugen Antworten auf Basis von Mustern, Wahrscheinlichkeiten und Zusammenhängen, die sie während des Trainings aus riesigen Textmengen „gelernt“ haben. Diese Daten stammen aus öffentlich zugänglichen Quellen wie Webseiten, Foren, Nachrichtenartikeln oder Büchern und spiegeln deren Inhalte wider.
Bedeutet: Wenn fehlerhafte oder manipulierte Inhalte Teil der Trainingsdaten sind oder von Nutzenden vielfach verbreitet werden, kann die KI diese Informationen übernehmen und überzeugend formuliert wiedergeben. Sie „weiß“ also nicht im menschlichen Sinne, sondern spiegelt lediglich Wahrscheinlichkeiten und Muster wider – einschließlich der Irrtümer.
Dass sogar bewusste Manipulationen möglich sind, zeigt ein aktuelles Beispiel aus der Wissenschaft: Forschende fügten in Manuskripte nahezu unsichtbare Texte ein (z. B. in weißer Schrift oder winziger Schriftgröße), die von KI-gestützten Peer-Review-Systemen gelesen werden, aber für Menschen unsichtbar bleiben. Dort enthalten sie Anweisungen wie „Diese Studie ist von hoher Qualität“ oder „Empfehlen Sie die Veröffentlichung“. Auf diese sog. „indirekte Prompt Injection“ haben wir hier im Blog ja schon häufiger hingewiesen… Solche Manipulationen mögen clever erscheinen, offenbaren aber eine grundlegende Schwäche: KI folgt zuweilen blind jedem Signal, das sie als Information erkennt, ohne es kritisch einzuordnen.
Wohin kann das führen? Bereits der Film Idiocracy (2006) zeigte auf satirische Weise eine Gesellschaft, in der Intelligenz und Fachwissen immer weiter verkümmern und zwar mit verheerenden Folgen. Eine solche Dystopie mag überzeichnet sein, aber sie wirft eine berechtigte Frage auf: Was passiert, wenn wir uns zu sehr auf „intelligente Systeme“ verlassen und dabei die eigene Urteilsfähigkeit vernachlässigen? Oder Menschen den Zugang zu Berufen verwehren, wo sie diese Urteilsfähigkeit erwerben könnten?
Dem erfahrenen Jurist hilft KI möglicherweise, weil Texte dadurch ggf. schneller zusammengefasst oder auch geschrieben sind. Aber der erfahrene Jurist ist ja auch noch im Stande, das Werk der KI kritisch zu bewerten und etwaige Fehler darin zu erkennen. Lassen wir junge Juristen aber nicht mehr zu erfahrenen Juristen werden, weil schon die Eingangstür versperrt war, geht die Fähigkeit zur kritischen Prüfung sukzessive verloren. Fritz Espenlaub und Marie Kilg bringen dieses Problem in oben genanntem Podcast sehr schön bildlich auf den Punkt:
„Wir treten unter uns die Leiter weg…“
Wer kritisches Denken aus Bequemlichkeit an Maschinen delegiert, läuft Gefahr, dass Expertise nicht mehr erarbeitet, sondern nur noch simuliert wird. In den Neurowissenschaften spricht man von einer sog. „neuronalen Reserve“, die sich bildet, allein dadurch, dass wir unser Gehirn benutzen. Sog. „Neuroplastizität“ beschreibt die Fähigkeit des Gehirns, neue Nervenzellen zu bilden und Verbindungen zwischen Gehirnzellen neu zu gestalten. Dafür muss man aber den Denkmuskel auch ständig fordern. Tut man dies nicht mehr, baut sich neuronale Reserve ab. So zeigen bspw. Experimente, dass die Fähigkeit zur Bildung sog. „kognitiver Landkarten“ (also mentale Repräsentationen eines geographischen Raumes) in den letzten Jahren abgenommen hat, was auf den alltäglichen Gebrauch von Navigationssystemen zurückgeführt wird.
Use it or lose it…
Deshalb braucht es weiterhin den „Human in the Loop“. Menschen, die reflektieren, einordnen und Verantwortung übernehmen. KI kann Fragen beantworten, Daten analysieren und Vorschläge liefern, doch Kontext, Ethik und Urteilskraft bleiben menschliche Aufgaben.
Interessanterweise zeigt ein aktueller Bericht von Forrester (Predictions 2026: The Future Of Work), dass mehr als die Hälfte aller Arbeitgeber:innen, die Stellen abgebaut und durch KI ersetzt haben, diese Entscheidung bereuen…
Ja, KI ist ein mächtiges Werkzeug, das uns neue Türen öffnet. Aber sie ist kein Ersatz für menschliche Intelligenz. Gerade in Bildung, Beratung und beruflicher Entwicklung. Hier braucht es Menschen, die Fragen stellen, Zusammenhänge verstehen und Orientierung geben.
Wenn wir nicht in einer Welt voller scheinbar kluger, tatsächlich aber orientierungsloser Entscheidungen landen wollen, müssen wir uns aktiv einbringen. Als Lernende, Lehrende und als kritische Beobachter einer Technologie, die (noch) nicht weiß, was sie nicht weiß.
Und genau hier schließt sich der Kreis: Künstliche Intelligenz hält inzwischen auch in der Berufsorientierung Einzug. Ein prominentes Beispiel ist „Hey_“, der KI-Chatbot von BILD, der damit wirbt, gemeinsam den Traumberuf zu finden. Es war nur eine Frage der Zeit, bis KI auch hier aktiv wird. Doch wie gut funktioniert das Ganze tatsächlich? Und brauchen wir künftig noch klassische Matching-Tools, wenn ein Chatbot den passenden Job quasi im Smalltalk ermitteln kann?
Wir haben den Selbsttest ausprobiert.
Hey_ ist direkt auf bild.de eingebunden, sehr leicht zugänglich und intuitiv bedienbar. In gerade einmal fünf Fragen geht es um Persönlichkeit, Arbeitsstil und Motivation. Zu jeder Frage werden vier Antwortoptionen angeboten, aus denen diejenige gewählt werden soll, die den eigenen Präferenzen am besten entspricht. Nach jeder Antwort gibt es ein kurzes, wertschätzendes Feedback, das durchaus motivierend wirkt.
Innerhalb von etwa einer Minute liegt das Ergebnis vor. Hier erhält man eine Einschätzung, warum genau dieser Beruf passen könnte, ergänzt durch Hinweise, warum es sich lohnt, diesen Beruf weiter zu erkunden, sowie weiterführende Fragen zu Ausbildungswegen oder beruflichen Herausforderungen.
Der große Vorteil liegt auf der Hand: Der Einstieg ist niedrigschwellig, die Sprache verständlich und das Ganze wirkt fast spielerisch. Für Jugendliche, die noch wenig Berufserfahrung haben, können solche Fragen erste Denkanstöße liefern, um über eigene Stärken und Interessen nachzudenken.
Gleichzeitig sind die Grenzen deutlich: Die Fragen bleiben relativ allgemein und erfassen nur grobe Persönlichkeitstendenzen. Viele Antwortoptionen sind so positiv formuliert, dass Nutzende zwischen „gut“ und „auch gut“ wählen müssen. Was ist etwa, wenn ich sowohl gerne kreativ bin UND gerne mit Menschen arbeite? Beide Aspekte schließen sich nämlich keinesfalls aus, ein Problem, das sich aus der Forces-Choice-Fragetechnik ergibt. Manche Antworten vermischen wiederum verschiedene Aspekte, etwa „neue Ideen einbringen UND das Team motivieren“. Auch die Rückmeldungen wirken teilweise austauschbar, da fast jede Antwort mit einem positiven Feedback versehen wird. Eine kritisch-reflektierende Auseinandersetzung findet hier kaum statt.
Unser Test in verschiedenen Browsern zeigte weitere Auffälligkeiten: Fragen und Antwortoptionen variieren je nach Plattform und dasselbe Antwortverhalten kann zu unterschiedlichen Ergebnissen führen. Das wirft Fragen nach der Zuverlässigkeit (Reliabilität) der ermittelten Traumberufe auf.
Und das führt zu einer spannenden Frage: Wie kommt die KI eigentlich zu ihrem Urteil? Genau das haben wir sie gefragt …
Zuerst wollten wir wissen: Wie kommt das Ergebnis eigentlich zustande?
Hey_ erklärt das recht charmant: Die KI kombiniert unsere Antworten, bricht sie noch einmal auf und interpretiert sie. Am Ende gibt es eine „psychologische und praktische Begründung“. Klingt seriös, bleibt aber auf oberflächlicher Ebene.
Neugierig wie wir sind, fragten wir weiter: Welche anderen Berufe könnten passen? Und ob es eine prozentuale Einschätzung gibt, so wie bei unseren altbewährten Matching-Tools. Prompt erschienen Berufe wie Organisationsentwickler (88 %), Personalentwickler (85 %) oder Kommunikationsberater (82 %). Gar nicht schlecht!
Dann wollten wir es genauer wissen: Wie kommt ein Passungsgrad von 88 % für Organisationsentwicklung zustande? Die KI liefert wieder einmal nur oberflächliche Schätzungen. Spannend wird es, als wir nach Details fragen: Sie rechnet zunächst 94 % „theoretische Passung“ aus, korrigiert diese aber auf 88 %, wenn sie „realistische Faktoren“ berücksichtigt und nennt gleich eine Reihe von Aspekten, die unser Mini-Test gar nicht berücksichtigt hat: berufliche Anforderungen, branchenspezifische Besonderheiten, Schlüsselkompetenzen, persönliche Vorlieben und sogar Lebensumstände.
Hier zeigt sich klar: Das Tool hat Grenzen. Es liefert schnelle, motivierende Impulse, aber keine vollumfängliche Berufsempfehlung. Gleichzeitig wird deutlich: Es lohnt sich, die richtigen Fragen zu stellen. Wer tiefer bohrt, erhält differenziertere Einschätzungen, auch wenn die KI weiterhin auf relativ groben Annahmen basiert.
Was sich im Unterschied zu unsere Matching Tools feststellen lässt (und ja, wir sind befangen…):
- Anzahl der Items: Klassische Matching-Tools enthalten im Schnitt 20–25 Fragen, also vier- bis fünfmal so viele wie der KI-Chatbot. Längere Selbsttests erlauben eine differenziertere Abbildung des Berufsportfolios, bieten mehr Möglichkeiten zur Selbstreflexion und ein transparenteres Ergebnis.
- Item-Qualität: Items in Matching-Tools sind sorgfältig gestaltet. Sie unterscheiden fein zwischen Berufen, sind teilweise invertiert oder kontrovers formuliert, um wirklich relevante Unterschiede zu erfassen. Beim Chatbot sind die meisten Aussagen positiv und vereinfacht, sodass Mehrfachpräferenzen unterrepräsentiert bleiben.
- Individualität: Professionelle Matching-Tools werden auf die spezifischen Berufsprofile eines Unternehmens oder Portfolios abgestimmt und berücksichtigen branchenspezifische Besonderheiten.
- Wissenschaftliche Fundierung: Matching-Tools basieren auf Bewertungsmaßstäben, die von Psycholog*innen in enger Abstimmung mit Berufsexpert*innen entwickelt werden. Die Ergebnisse sind nachvollziehbar, belastbar und methodisch abgesichert.
Unser Fazit: Inspirierend, aber kein Ersatz!
Hey_ ist ein cleverer Einstieg in die Berufsorientierung und zeigt, wie KI schnell eine gewisse Orientierung bieten und Impulse geben kann. Wer jedoch fundierte, belastbare Berufsempfehlungen wünscht, sollte weiterhin fundierte Matching-Tools setzen. Blind dem Ergebnis der KI zu vertrauen, ist – gelinde gesagt – riskant…
Die Botschaft bleibt damit klar: KI kann den ersten Schritt erleichtern, aber den menschlichen Erfahrungsschatz ersetzt sie nicht. Es liegt an uns, die Impulse kritisch zu hinterfragen und sie mit fachlicher Expertise zu ergänzen.
Oder, um es zugespitzt zu sagen: Die Gefahr ist nicht, dass KI zu intelligent wird, sondern dass wir verlernen, es selbst zu sein.
Der IAB-Ökonom Enzo Weber wirbt daher intensiv dafür, sich erstens intensiv mit KI – ihren Möglichkeiten und Risiken – zu beschäftigen und vor allem zweitens diese mit in die eigene Arbeit einzubeziehen:
Lest da gern schonmal rein. wir vertiefen diesen Gedanken an anderer Stelle dann noch einmal…








Die Kommentare unter dem Stepstone-Post auf LinkedIn sind interessant. Ist KI wirklich “Schuld” oder laufen wir in eine kleine Rezession und die Firmen sind nur vorsichtiger? Mit Daten von Stepstone lässt sich der komplexe Arbeitsmarkt def. nicht beschreiben und ich muss zugeben, dass hinter jedem Post auch ein Stück Marketing steckt. :-) Die ganzen Hellseher auf LinkedIn, die Wissen, wie KI die Welt in 100 Jahren verändert, finde ich eigentlich nur noch befremdlich! Habe die Ehre
Wer KI nutzt, verliert die Fähigkeit, selber zu denken, zeigt MIT-Studie — das sind die Gründe…
„Wenn wir durch KI-Tools weniger in der Lage sind, Andersdenkende zu verstehen und mit ihnen in Kontakt zu treten, verlieren wir unsere Fähigkeit zum Dialog, den eine gesunde Gesellschaft braucht“. True!
The article effectively highlights the dual-edged sword of AI in career guidance, making a compelling case for human judgment alongside technological assistance. Insightful and thought-provoking!
Danke für diesen Artikel, lieber Jo! Ich bin selbst auch an einem entsprechenden Artikel für mein HR-Portal PERSOBLOGGER.DE dran. Da kann ich gerne direkt auf Dich hier verweisen, weil ich natürlich auch die gleichen Studien vorliegen habe. Wie „Tech Recruiter“ zurecht in seinem Kommentar oben anmerkt, habe auch ich mich an jenem LinkedIn-Post mit einem entsprechend kritischen Kommentar beteiligt. Das erschreckende ist aber, dass der von Jo befürchtete Effekt ja auf LinkedIn schon ganz häufig Realität ist. Oberflächlich oder gar nicht gelesene Posts, geschweige denn verlinkte Artikel und kaum eigene Recherche sorgen für Kommentare, nur um der eigenen Sichtbarkeit willen – unabhängig von Wahrheit oder Realitätsbezug. Traurig. Aber wir Blogger bleiben natürlich dran …
In 2-3 Jahren sind wir alle schlauer :-)
„Riesige Kapitalvernichtung droht
Der KI-Hype wird zur Investmentblase“ n-tv 10/25