22.01.2026

Künstliche Intelligenz im Übergang Schule – Beruf

Chancen, Risiken und Qualitätskriterien

von Julia Hense und Lutz Goertz

Künstliche Intelligenz verändert den Übergang von der Schule in Ausbildung und Beruf – aber wie nutzen Fachkräfte KI verantwortungsvoll? Julia Hense und Lutz Goertz erläutern, wie KI diese unterstützen kann und wo ihre Grenzen liegen. Von der Simulation von Vorstellungsgesprächen über Chatbots zur Berufsorientierung bis zur datengestützten Analyse von Potenzialen: Die praktischen Chancen sind vielfältig. Gleichzeitig braucht es kritische Reflexion und klare Qualitätskriterien, um Diskriminierung zu vermeiden und Vertrauen zu schaffen. Der Basisartikel bietet konkrete Handlungsempfehlungen für Fachkräfte und zeigt: KI ist kein Ersatz für menschliche Beziehungsarbeit, sondern ein hilfreiches Werkzeug – wenn es richtig eingesetzt wird.

KI im Übergang Schule – Beruf: warum jetzt?

Der Übergang von der Schule in Ausbildung und Beruf ist eine zentrale Lebensphase für junge Menschen und junge Erwachsene. Viele Fachkräfte – Coaches, Lehrkräfte, Schulsozialpädagoginnen und Schulsozialpädagogen, Fachkräfte bei Bildungsträgern oder in der Jugendhilfe – begleiten junge Menschen in dieser Phase und unterstützen sie bei wichtigen Weichenstellungen für ihr ganzes Leben. Sie helfen bei der Berufsorientierung, bei persönlichen Herausforderungen, bereiten auf Bewerbungen vor und beraten zu Karrierewegen. Dabei werden sie inzwischen auch immer öfter von KI (Künstliche Intelligenz) unterstützt (vgl. z. B. AGBFN 2024, AgraJo 2025, Bundesagentur für Arbeit 2024).

Bild: irissca/Adobe Stock

KI unterscheidet sich grundlegend von anderen Anwendungen digitaler Technologien. Während bisherige digitale Tools eher spezifische Funktionen erfüllen – ein Verwaltungssystem verwaltet nach bestimmten Vorgaben, eine Lernplattform vermittelt Inhalte in definierter Form – versteht KI erstens natürliche Sprache, kann zweitens komplexe Anweisungen interpretieren und löst drittens vielfältige Probleme aus den verschiedensten Anwendungskontexten – ohne dass es spezifischer Nutzungskompetenzen bedarf. Sie "denkt" in gewisser Weise eigenständig. Damit wird KI sowohl zu einer enormen Chance als auch zu einer Herausforderung für Fachkräfte in der Berufsorientierung, der Berufsvorbereitung und im Übergangsmanagement.

In der Praxis zeigen sich diese Chancen bereits ganz konkret: In Schulen nutzen Lehrkräfte KI-Tools, um Schülerinnen und Schüler beim Schreiben von Bewerbungen zu unterstützen oder Vorstellungsgespräche zu simulieren. In der Berufsorientierung helfen Chatbots wie MIKA KI (vgl. Wirtschaftsverband Emsland 2025) oder BO.AI (vgl. Dein Erster Tag 2025) jungen Menschen dabei, niederschwellig Fragen zu Berufen zu stellen – rund um die Uhr und ohne Hemmschwellen. Bei Bildungsträgern werden KI-Systeme erprobt, um Beratungsprozesse zu strukturieren und Fachkräfte bei der Identifikation individueller Informationsbedarfe zu unterstützen, wie etwa das KI-BEP-Projekt der Hochschule der Bundesagentur für Arbeit zeigt. In der Jugendhilfe, die Jugendliche und junge Erwachsene bei Lebensentwürfen und beruflicher Integration begleitet, zeigen sich erste KI-Ansätze – etwa zur Analyse von Biografien und Potenzialen als Grundlage für tiefere Coaching-Gespräche (vgl. Jugendhilfeportal 2025) – allerdings noch nicht so verbreitet wie in schulischen oder beratenden Kontexten.

Um KI sinnvoll einzusetzen, lohnt es sich, ein grundlegendes funktionales Verständnis zu entwickeln. Das muss nicht technisch detailliert sein – aber es hilft, Chancen realistisch einzuschätzen und Grenzen ihrer Einsatzmöglichkeiten zu kennen.

Was ist KI? – Basics für Fachkräfte

Bild: LAONG/Adobe Stock

KI-Technologien verstehen

Es gibt verschiedene Arten von KI-Systemen. Regelbasierte Systeme funktionieren nach dem Wenn-Dann-Prinzip: Ist die Temperatur über 25 Grad, wird eine Warnung ausgelöst. Sie sind übersichtlich, schnell umgesetzt und brauchen wenig Daten – dafür sind sie aber unflexibel und können nur das, wofür sie explizit programmiert wurden. Ein Beispiel für ein Berufswahlsystem, das nach dem Regel-Prinzip arbeitet: Wenn ein junger Mensch Interesse an Mathematik UND handwerklichen Tätigkeiten angibt, dann wird zum Beispiel Elektrotechnik empfohlen. Das funktioniert für vordefinierte Kombinationen zuverlässig – aber neue oder unerwartete Interessenskombinationen kann ein solches System nicht erfassen.

"Machine Learning"-Systeme lernen hingegen aus den Daten und Interaktionen selbst: Sie erkennen Muster und können so auch auf neue, unbekannte Situationen reagieren. Das ist flexibler, braucht aber große Datenmengen und ist schwerer durchschaubar (vgl. bidt 2025). Eine Sonderform des Machine Learning ist das Deep Learning, das mit künstlichen neuronalen Netzen arbeitet und besonders für komplexe Aufgaben wie Spracherkennung oder Textgenerierung geeignet ist. Hier setzt auch die derzeit im Übergang Schule – Beruf am meisten genutzte Technologie an: Large Language Models (LLM) wie ChatGPT, Mistral, Claude oder Gemini.

Wo und wie kann KI in den Handlungsfeldern im Übergang Schule – Beruf helfen? Die Praxis zeigt bereits vielfältige Anwendungen.

 

Large Language Models und Natural Language Processing

LLMs sind riesige Sprachmodelle, die auf Milliarden von Textdaten trainiert wurden. ChatGPT-3 zum Beispiel wurde mit etwa 560 Gigabyte Textdaten trainiert – das entspricht ungefähr 280 Milliarden Wörtern. Diese Modelle funktionieren nach dem Transformer-Prinzip: Sie nutzen einen sogenannten Selbstaufmerksamkeitsmechanismus, der erfasst, wie Wörter zueinander in Beziehung stehen. So verstehen LLMs nicht nur einzelne Wörter, sondern auch den Kontext und komplexe Bedeutungen (vgl. Fraunhofer IESE 2026).

Natural Language Processing (NLP) ist das Feld, das sich mit der Verarbeitung natürlicher Sprache beschäftigt. Es umfasst Aufgaben wie Textverarbeitung, Stimmungsanalyse, Zusammenfassungen und die Generierung neuer Texte. Das ist genau das, was LLMs können: Sie "verstehen" scheinbar, was man von ihnen verlangt, und können entsprechend antworten – eben nicht nach starren, vorgegebenen Regeln, sondern durch die erlernte Kombination der am wahrscheinlichsten zutreffenden Sinneinheiten (vgl. IBM 2025).

Was KI kann – und was nicht

KI kann vieles gut: Sie kann Informationen schnell recherchieren und zusammenfassen, kann Texte in verschiedenen Stilen generieren, kann Fragen beantworten und mehrere Optionen abwägen. Sie arbeitet 24 Stunden am Tag ohne Müdigkeit. Gleichzeitig gibt es klare Grenzen. KI kann "halluzinieren" – also völlig irreführende und falsche Informationen "erfinden" (vgl. DataCamp 2025). KI "versteht" nicht im eigentlichen Sinn, was sie sagt, sondern sie sagt das, was statistisch am wahrscheinlichsten auf vorhergehende Sinneinheiten folgt. KI kann nicht sehen, fühlen oder verstehen, was es bedeutet, Mensch zu sein. Und – besonders wichtig für Berufsorientierung – KI kann systemische Vorurteile und Wertungen wiedergeben oder verstärken, die in ihren Trainingsdaten stecken (vgl. IONOS 2025).

Daraus resultiert die Frage: Wo und wie kann KI in den Handlungsfeldern im Übergang Schule – Beruf helfen? Und wo eben nicht? Die Praxis zeigt bereits vielfältige Anwendungen.

Einsatzfelder und Chancen von KI im Übergang Schule - Beruf

Bild: nyul/Adobe Stock

Für Fachkräfte: Entlastung und Strukturierung

KI – hier vorrangig verstanden als intelligente Chatbots – kann bei administrativen Aufgaben unterstützen, von der Erstellung von (Bewerbungs-) Anschreiben über die Recherche zu Berufen und Möglichkeiten bis zur Beantwortung häufiger Fragen. Das gibt Fachkräften Zeit für die eigentliche beratende oder pädagogische Arbeit. Auch bei der Strukturierung von Beratungsprozessen kann KI helfen. Das KI-BEP-Projekt der Hochschule der Bundesagentur für Arbeit etwa entwickelt ein System, das Beratende dabei unterstützt, Denk- und Entscheidungsmuster  von Ratsuchenden zu erkennen und deren individuelle Informationsbedarfe zu identifizieren – sogenannte Augmented Intelligence, bei der KI assistiert, der Mensch aber entscheidet (vgl. Hochschule der Bundesagentur für Arbeit 2024).

KI kann bei administrativen Aufgaben unterstützen. Das gibt Fachkräften Zeit für die eigentliche beratende oder pädagogische Arbeit.

 

In Berufsschulen können Lehrkräfte KI nutzen, um Unterrichtsmaterialien vorzubereiten: fiktive Dialogszenen für Vorstellungsgespräche, differenzierte Texte in verschiedenen Schwierigkeitsstufen oder Übungsblätter und Quizzes. Das erspart Zeit und ermöglicht mehr Differenzierung für heterogene Lerngruppen.

Auch in der Jugendhilfe eröffnet sich ein großes Potenzial: Coaches und Fachkräfte können KI-Systeme nutzen, um biografische Informationen junger Menschen strukturiert zu erfassen und zu analysieren – etwa ihre bisherigen Erfahrungen, ihre Stärken und ihre Werte. Das gibt ihnen eine solide Grundlage für tiefere, strategischere Coaching-Gespräche. KI übernimmt hier die zeitintensive Datenerfassung; die Fachkraft übernimmt dann die qualitative, menschliche Begleitung und Beziehungsarbeit. Das ist besonders wertvoll in der Jugendhilfe, wo Zeit oft knapp ist und es um die Förderung junger Menschen mit komplexeren Lebenslagen geht.

KI kann auch bei der Simulation von Vorstellungsgesprächen helfen. Junge Menschen können mit einem KI-Chatbot üben, bekommen Fragen gestellt und erhalten immer ein direktes Feedback auf ihre Antworten. Das ist besonders für Situationen, die neu sind und nervös machen können, wie zum Beispiel das erste Vorstellungsgespräch, eine Möglichkeit, ohne Druck zu üben. Auch bei der Bewerbungsvorbereitung – vom Lebenslauf bis zum Anschreiben – können KI-Systeme schnell erste Entwürfe gestalten, passgenau bisherige Erfahrungen und Interessen der Jugendlichen einbeziehen sowie Feedback zu eigenen Rohfassungen geben.

Für Coaches und Fachkräfte in der Jugendhilfe zeigen sich weitere Potenziale: KI kann dabei helfen, umfassende Analysen von Biografien, Potenzialen und Werteorientierungen durchzuführen. Sie bietet damit eine Grundlage und schafft Anlässe für tiefere Coaching-Gespräche. Die KI beschleunigt die Datenerfassung; der Coach führt dann die strategische und pädagogische Begleitung durch, hilft Ergebnisse zu reflektieren, einzuordnen und zu vertiefen.

Was noch möglich ist, aber noch nicht genutzt wird

In vielen Bereichen sind die Möglichkeiten zur KI-Nutzung noch nicht ausgeschöpft. Lehrkräfte fangen langsam an, KI auch zur Vorbereitung von Unterrichtsmaterial zu nutzen, lassen sich didaktisch ausdifferenzierte Unterrichtsentwürfe von einem Chatbot erstellen und könnten KI perspektivisch sogar nutzen, um fairere Benotungen vorzunehmen – anonymisiert und unabhängig von der eigenen persönlichen Tagesform (vgl. z.B. Schulministerium NRW 2024).

Es ist wichtig zu betonen, dass der Einsatz von KI immer vorbereitet, begleitet und nachbereitet werden muss.

 

KI könnte zum Beispiel durch effizientere Prozesse auch beim Bürokratieabbau helfen, Fachkräfte bei der Datenanalyse für die Jugendhilfeplanung unterstützen oder als diagnostisches Instrument bei der Identifikation von Förderbedarfen eingesetzt werden, immer begleitet und kontrolliert durch menschliches Fachpersonal. Denn: Nicht jedes KI-System ist per se gut. Und selbstverständlich geht es auch nicht darum, Menschen zu ersetzen, sondern Prozesse zu optimieren und Freiräume zu schaffen. Dabei ist jedoch wichtig zu betonen, dass der Einsatz von KI immer vorbereitet, begleitet und nachbereitet werden muss. Es geht nicht um den Abbau von Personal, sondern darum, verloren gegangene Freiräume zurückzugewinnen – um wieder mehr Zeit für die pädagogischen und beratenden Kernaufgaben zu haben. Fachkräfte brauchen dafür aber klare Vorgaben und Kriterien, um bewerten zu können, ob ein KI-System sinnvoll in ihrer praktischen Arbeit eingesetzt werden kann.

Qualitätskriterien für KI-Systeme in der Berufsvorbereitung und Berufsorientierung

Es gibt bereits Qualitätskriterien, die Fachkräfte nutzen, um eine gute Praxis im Übergang von Schule-Beruf zu erkennen und selbst sicherzustellen (vgl. z.B. Bildungsserver Berlin-Brandenburg 2024). Aspekte wie Innovation und Nutzen sowie pädagogische, umsetzungsbezogene und ergebnisorientierte Kriterien sind auch für KI-Systeme gültig. Darüber hinaus braucht es KI-spezifische Qualitätskriterien, welche die besonderen Merkmale dieser Technologie berücksichtigen. Ein gutes KI-System muss aktuell sein, einen erkannten Bedarf aufgreifen, praktischen Nutzen haben und in verschiedenen Kontexten anwendbar sein. Daraus lassen sich KI-spezifische Anforderungen ableiten, die ein KI-System erfüllen sollte, um sich für den langfristigen Einsatz im Übergang von Schule-Beruf zu qualifizieren.

Fairness und Bias-Freiheit

KI-Systeme können einzelne Gruppen systematisch benachteiligen – auch dann, wenn dies nicht beabsichtigt ist. Ein Beispiel aus der Berufsberatung hat gezeigt, dass ein auf ChatGPT basierendes Tool Männer häufiger auf technische Berufe und Frauen eher auf soziale Berufe verwiesen hat. Ursache waren Trainingsdaten, in denen traditionelle Rollenbilder und Stereotype enthalten waren – die KI hat diese unreflektiert fortgeschrieben.

Bild: Seventyfour/Adobe Stock

Für die Praxis bedeutet das: Fairness ist ein zentrales Qualitätskriterium. KI-Systeme müssen regelmäßig daraufhin überprüft werden, ob sie bestimmte Gruppen – etwa nach Geschlecht, Migrationshintergrund oder Behinderung – unterschiedlich behandeln oder benachteiligen. Der EU AI Act verlangt daher, dass Trainings‑, Validierungs‑ und Testdatensätze vielfältig und repräsentativ sind. Anbieter sollten darüber hinaus kontinuierlich systematische Prüfungen (Bias-Audits) durchführen und ihre Verfahren transparent machen, damit Fachkräfte die Ergebnisse einschätzen können.

Transparenz und Explainability

KI-Systeme sind sogenannte "Black Boxes": Niemand kann im Detail erklären, warum eine KI genau diese eine Empfehlung gegeben hat - bisweilen kommen bei ähnlichen Anfragen recht unterschiedliche Empfehlungen heraus. Das ist ein Problem, wenn es um Beratung und Begleitung geht, insbesondere bei weitreichenden Entscheidungen zum beruflichen Werdegang junger Menschen. Explainable AI (XAI) ist der Forschungsbereich, der diese Black Box öffnen will: durch verständliche Erklärungen, grafische Darstellungen von Entscheidungsbäumen und andere Visualisierungen.

Fairness ist ein zentrales Qualitätskriterium. KI-Systeme müssen regelmäßig überprüft werden, ob sie bestimmte Gruppen unterschiedlich behandeln oder benachteiligen.

 

Für Fachkräfte heißt das: Ein gutes KI-System sollte nachvollziehbar sein. Wenn es beispielsweise einen Beruf empfiehlt, sollte es plausibel und nachvollziehbar begründen können, warum. Wenn es Feedback auf eine Bewerbung gibt, sollte transparent sein, auf welchen Kriterien dieses Feedback basiert. Das ist zwar technisch anspruchsvoll, aber für Vertrauen und berufliche Verantwortung essentiell. Besonders wichtig sind in diesem Zusammenhang selbstverständlich auch die Kommunikationsformen zwischen KI und Mensch. Je nach dem, in welcher Weise eine Frage oder eine Aufforderung an die KI gestellt wird, fällt unter Umständen auch die Qualität der Antworten aus ("Prompting", siehe hierzu weiter unten: "Prompting: Wie man KI am sinnvollsten nutzt").

Datenschutz und DSGVO-Compliance

Beratungsgespräche enthalten immer sensible Daten – persönliche Informationen über Träume, Ängste, Fähigkeiten junger Menschen. Diese Daten müssen geschützt sein. Die DSGVO schreibt vor: Es braucht eine klare Rechtsgrundlage für die Datenverarbeitung (meist in Form einer Einwilligung), eine Datenschutzerklärung und eine sogenannte Datenschutzfolgenabschätzung, wenn Hochrisiko-Daten verarbeitet werden.

Konkret bedeutet das für Beratungsinstitutionen: Wenn sie ein KI-System nutzen, brauchen sie einen Auftragsverarbeitungsvertrag mit dem KI-Anbieter, müssen klar regeln, wie lange Daten gespeichert werden und müssen sicherstellen, dass die KI nicht die Daten junge Menschen zur Optimierung des Modells verwendet. Unbegrenzte Speicherung und Weiterverarbeitung müssen ausgeschlossen sein. In der Praxis ist das aktuell noch kaum vollkommen rechtssicher möglich, da viele gängige Systeme (zum Beispiel große US-amerikanische Anbieter) die Anforderungen der DSGVO nicht vollständig erfüllen.

Bild: monticellllo/Adobe Stock

Viele KI-Systeme sind in den USA beheimatet. US-amerikanische Anbieter unterliegen nicht dem europäischen Datenschutzrecht. Auch speichern manche Anbieter Daten, um ihre Modelle zu trainieren. Fachkräfte im Übergang Schule-Beruf müssen genau hinschauen: Wo liegen die Daten? Wo sind die Server gehostet? Wer hat Zugriff? Und für wie lange werden Daten gespeichert? Das zu recherchieren, kann zu einer Sisyphos-Aufgabe werden. Aktuell ist eine entsprechend eingeschränkte Nutzung von Services deshalb häufig (leider) noch die praktikablere Lösung (vgl. z.B. AI-Laws 2024, HeyData 2025, ZDH 2025). Grundsätzlich ist die Nutzung von europäischen KI-Angeboten empfehlenswert, da diese den Vorgaben der DSGVO unterliegen – etwa Lösungen, die auf Servern innerhalb der EU betrieben werden oder von Anbietern wie Aleph Alpha, Mistral oder europäischen Cloud-Diensten bereitgestellt werden.

Technologische Resilienz

Ein KI-System ist nur sinnvoll, wenn es zuverlässig funktioniert – auch über einen langen Zeitraum hinweg. Das bedeutet: Es sollte gar nicht oder möglichst selten ausfallen. Es sollte nicht abhängig machen von einem einzelnen Anbieter (sogenanntes Vendor Lock-in). Und es sollte regelmäßig gewartet und aktualisiert werden. Es sollte nicht aufgrund von Updates und Überarbeitungen ständig divergente Ergebnisse liefern und es sollte langfristig nutzbar sein. Etablierte Anbieter sind damit vorzuziehen. Die Gefahr, dass ein neuer Anbieter schnell wieder vom Markt verschwindet und eine bestimmte Technologie beziehungsweise eine bestimmte Dienstleistung nicht mehr nutzbar ist, ist sonst zu groß.

KI-Kompetenzentwicklung für Fachkräfte

Eine der unterschätzten Herausforderungen: Viele Fachkräfte haben noch wenig Erfahrung mit KI. Um KI verantwortungsvoll zu nutzen, braucht es kompetente Aufsicht. Das bedeutet Schulung – nicht nur technisch, sondern auch ethisch. Dies betrifft unter anderem das weiter unten genauer beschriebenene "Prompting". Fachkräfte sollten vor allem auch verstehen, wo die Grenzen der KI liegen. Die Systeme gaukeln systematisch "Allwissenheit" vor – doch wo enden ihre Möglichkeiten? Wo können Fehler entstehen? Wie erkenne ich, dass KI "Unsinn erzählt"? Wie gehe ich damit sinnvoll um? Auch bei KI gilt: Die Technologie ist immer nur so gut wie der Mensch, der mit ihr umgeht!

Partizipation und Nutzer:innenbeteiligung

Zu guter Letzt: Die jungen Menschen, um die es geht, sollten nicht nur Objekte von KI-Systemen sein, sondern mitgestalten können. Das heißt konkret: Sie sollten verstehen, dass und wie KI sie berät. Sie sollten Feedback geben können, wenn ein System nicht gut funktioniert – zum Beispiel unzutreffende oder unplausible Antworten liefert, nicht kultur- oder geschlechtersensibel ist, diskriminierende Antworten gibt. Und bei der Gestaltung von KI-Systemen sollten ihre Perspektiven berücksichtigt werden. Das erfordert Beteiligungsprozesse, die realistisch möglich werden durch die Entwicklung von KI-Angeboten, die sich auf den Kontext Übergang Schule-Beruf fokussieren.

Risiken und Herausforderungen

Trotz der anhaltenden Euphorie um KI sind mit ihrer Anwendung reale Risiken verbunden, die Fachkräfte kennen sollten.

Bias und systematische Diskriminierung

Wie bereits bei den Qualitätskriterien angesprochen: KI kann systematisch diskriminieren. Das Problem liegt in den Trainingsdaten. Wenn ein LLM auf Textdaten trainiert wird, die historische Vorurteile enthalten – und das tun fast alle großen Datensätze – dann lernt die KI diese Vorurteile quasi "automatisch" mit. Das Tückische dabei ist: Das System funktioniert aus technischer Sicht perfekt. Es macht einfach das, was seine Trainingsdaten ihm beigebracht haben. Dieses Problem lässt sich von Endnutzerinnen und -nutzern nicht lösen. Es lässt sich lediglich durch Reflexion adressieren – oder durch die perspektivische Entwicklung einer eigenen spezialisierten KI-Fachanwendung. Allerdings ist hierzu anzumerken, dass auch menschliche Beraterinnen und Berater selbstverständlich nicht frei von Vorurteilen und prägendem Vorwissen, Wertungen oder auch diskriminierenden Reaktionen sind – nicht immer wird dies in Kommunikationssituationen ausreichend reflektiert (vgl. z.B. Deutschlandfunk 2025, Mebis Magazin 2024, SECJUR 2026).

Trotz der anhaltenden Euphorie um KI sind mit ihrer Anwendung reale Risiken verbunden, die Fachkräfte kennen sollten.

 

Unzureichende wissenschaftliche Evaluation

Viele KI-Tools werden programmiert und ausgerollt, aber kaum systematisch evaluiert. Wie wirken sich diese Tools wirklich auf Beratungsprozesse aus? Wo helfen sie und wo schaffen sie vielleicht mehr Komplexität als Lösungen? Gibt es unerwünschte Nebenwirkungen? Hier gibt es oft noch zu wenig Forschung, die selbstverständlich erst durch die Nutzung von KI im Übergang Schule-Beruf überhaupt erst möglich wird – ein Henne-Ei-Problem.

Handlungsempfehlungen für Fachkräfte

Wie können Beratende, Lehrkräfte und Fachkräfte aus Jugendhilfe und Bildungsträgern KI verantwortungsvoll nutzen? Viele Fragen sind aktuell noch offen. Dennoch etabliert sich langsam eine auf Erfahrungen basierende gelebte Handlungspraxis. Daraus und auf der Basis ethisch-moralischer Überlegungen lassen sich einige Handlungsempfehlungen ableiten.

Bild: Valerii Honcharuk/Adobe Stock

"Human in the Loop": KI assistiert, Menschen entscheiden

Das zentrale Prinzip lautet: KI assistiert, der Mensch hat das letzte Wort. Das ist nicht nur eine Frage der Verantwortung, sondern auch der Qualität. Junge Menschen brauchen keinen Chatbot, der ihnen sagt, welchen Beruf sie ergreifen sollen. Sie brauchen eine Fachkraft, die gemeinsam mit ihnen Optionen erkundet, ihre Träume und Wünsche versteht und sie dabei unterstützt, gute Entscheidungen zu treffen. KI kann dabei hilfreich sein – die Recherche übernehmen, Optionen strukturieren, erste Fragen beantworten. Aber die Beratung muss auf der Basis menschlicher Beziehungen beruhen. Das bedeutet auch: Nicht jede Aufgabe im Beratungskontext ist für KI geeignet. Administrative Aufgaben: ja. Recherche: ja. Diskussion, Reflexion und Erörterung: ja. Aber existenzielle Entscheidungen? Die sollten weiterhin in einer menschlichen Interaktion entwickelt werden, in der auch kulturelle, soziale und psychologische Aspekte und Wahrnehmungen reflektiert und einbezogen werden.

Ein KI-System beurteilen: Checkliste für Fachkräfte

Wie können Fachkräfte bewerten, ob ein KI-System zu ihrer Praxis passt? Einige Leitfragen können hier helfen. Nicht jede Frage wird sich aktuell schon für jedes System vollständig zufriedenstellend beantworten lassen – wir befinden uns noch im Experimentierstadium. Sie können jedoch helfen und eine Orientierung für die eigene Entscheidung geben:

  • Fairness: Wurde das System darauf getestet, ob es bestimmte Gruppen oder Einstellungen systematisch bevorteilt/benachteiligt? Gibt es regelmäßige Bias-Audits?
  • Transparenz: Kann das System plausibel begründen, warum es etwas empfiehlt?
  • Datenschutz: Wo laufen die Daten? Gibt es einen Auftragsverarbeitungsvertrag? Werden Daten für Training genutzt? Welche?
  • Zuverlässigkeit: Funktioniert das System stabil? Was passiert, wenn es ausfällt?
  • Nutzen: Hilft es wirklich bei meiner Arbeit, erleichtert es und eröffnet es neue Potenziale oder macht es Prozesse einfach nur komplizierter – ohne Zusatznutzen?
  • Kosten: Passt es ins Budget, auch langfristig?

Eine solche Checkliste hilft, nicht unkritisch einem Hype zu folgen, sondern eine informierte Entscheidung zu treffen.

Prompting: Wie man KI am sinnvollsten nutzt

Wenn Fachkräfte KI-Systeme nutzen – etwa ChatGPT zur Materialerstellung oder einen Berufsorientierungs-Chatbot – dann ist die Qualität der Anleitung entscheidend. Das nennt sich "Prompting". Es bedeutet, Anfragen so zu formulieren, dass die KI präzise und nützliche Antworten gibt (vgl. IT-Fitness 2024).

Ein schlecht formulierter Prompt würde zum Beispiel lauten: "Ich brauche Material zu Berufen für meine Schüler." Ein besser formulierter Prompt wäre deutlich präziser: "Erstelle eine 30-minütige Unterrichtseinheit zum Thema Handwerk für Schüler der 8. Klasse. Sie sollen verstehen, welche Handwerkberufe es gibt, wie die Ausbildung abläuft und welche Chancen es nach der Ausbildung gibt. Nutze konkrete Beispiele und mache das Material interaktiv."

Ein guter Prompt ist detailliert, konkret, gibt der KI eine Richtung und bettet die Anfrage in einen Kontext ein.

 

Für junge Menschen, die eine KI nutzen möchten, um sich mit ihrer Berufswahl zu beschäftigen, könnte ein erster Prompt so aussehen: "Ich bin kreativ und mag praktische Arbeit mit Menschen, aber ich will nicht 40 Jahre lang die gleiche Routine machen. Ich habe Angst vor Arbeitslosigkeit und suche Sicherheit. Welche Berufsfelder passen zu mir? Und welche Berufe ermöglichen es mir, mich auch nach der Erstausbildung weiter zu qualifizieren?"

Ein guter Prompt ist detailliert, konkret, gibt der KI eine Richtung und bettet die Anfrage in einen Kontext ein. Ein guter Prompt beschreibt konkret, wer fragt, mit welchem Interesse, aus welchem Hintergrund heraus und was das gewünschte Ergebnis kennzeichnet. Das braucht – gerade am Anfang – etwas Übung, kann aber auch ein Teil des eigenen Reflexions- und Entwicklungsprozesses sein.

Fachkräfte qualifizieren – und ihre Erkenntnisse ernst nehmen

Fachkräfte brauchen die Gelegenheit, KI selbst zu erproben und zu verstehen. Hier geht es nicht nur um technisches Wissen, sondern auch um kritisches Denken, ein aktives sich Einbringen und Mitgestalten. Fortbildungen sollten nicht einfach Tools vorstellen, sondern Fachkräfte ermutigen, zu experimentieren, Fehler zu machen und dann gemeinsam zu reflektieren: Wo hilft KI wirklich? Wo brauchen wir Vorsicht? Freilich ist das ein reziproker Prozess: die Erkenntnisse, die auf diese Weise entstehen, sollten ernst genommen werden und in die (Weiter-) Entwicklung von KI-Anwendungen für den Kontext Schule-Beruf genutzt werden (vgl. Hochschule Bielefeld 2024).

Ausblick: Zukunft der KI im Übergang Schule - Beruf

KI-Technologien entwickeln sich rasant. Trends und Verfahren von heute können morgen schon der Vergangenheit angehören. Doch einige Aspekte dürften auch langfristig Bestand haben.

Bild: ipopba/Adobe Stock

Multimodale KI

Bislang verarbeiten die bekannten Sprachmodelle vor allem Text. Zukunfts-Systeme werden gleichzeitig mit Text, Bildern, Audio und Video umgehen können. Das eröffnet neue Möglichkeiten: Etwa kann ein System, das Bewerbungsvideos analysiert, nicht nur auf Inhalt, sondern auch auf Körpersprache und Ausstrahlung achten oder einen Lehrfilm zu einem Beruf mit persönlichen Anpassungen generieren. Fachkräfte könnten dies nutzen, um junge Menschen gezielt auf Bewerbungsgespräche vorzubereiten und ihnen nicht nur individuelles Feedback zu geben, sondern sogar visuell zu generieren – in Form eines Videos, das konkret für eine Person zeigt, wie sich zum Beispiel ihre Ausstrahlung ändern würde, wenn sie eine andere Körperhaltung einnähme.

Agentic AI: Autonome KI-Systeme

Bislang sind LLMs reaktiv: Sie beantworten eine Frage, die man ihnen stellt. Die nächste Generation – sogenannte Agentic AI oder KI-Agenten – wird proaktiver. Sie kann selbst Ziele setzen, mehrere Prozess-Schritte planen, dabei verschiedene Systeme nutzen (etwa: zuerst in der Arbeitsmarktdatenbank recherchieren, dann im Bewerbungssystem einen Stellenvormerk setzen, dann eine Erinnerung schreiben) und autonom handeln. Das eröffnet Chancen – stellt aber auch höhere Anforderungen an Kontrolle und Transparenz.

In der Jugendhilfe könnten solche Agenten beispielsweise dabei unterstützen, passende Fördermaßnahmen vorzuschlagen und deren Umsetzung zu koordinieren. Ein KI-Agent könnte etwa Informationen aus der bisherigen Biografie eines jungen Menschen strukturieren, verfügbare Ausbildungsplätze in der Region recherchieren, an Fristen oder Termine erinnern und im Hintergrund Vorbereitungen für erforderliche Anträge treffen oder Kontakte zu relevanten Stellen herstellen. Dabei ersetzt die KI jedoch nicht die pädagogische Einschätzung: Die Auswahl und Bewertung einer geeigneten Fördermaßnahme bleibt ein reflexiver Prozess, der fachliche Abwägung und individuelle Beurteilung durch die Fachkraft erfordert. So können Fachkräfte entlastet werden, ohne dass pädagogische Verantwortung abgegeben wird. Je autonomer solche Systeme künftig werden, desto wichtiger ist es, dass Fachkräfte nachvollziehen können, was geschieht und warum – um bei Bedarf korrigierend eingreifen zu können.

Responsible AI als Trend

Ein erfreulicher Trend: KI-Systeme werden bewusster und ethischer entwickelt. Der Begriff Responsible AI oder Trustworthy AI wird wichtiger. Das heißt: Erklärbarkeit (Explainability) ist kein optionales Zusatzfeature mehr, sondern wird von Beginn an in die Systeme integriert. Ebenso wird Fairness von Anfang an mitgedacht und es wird selbstverständlich, dass Menschen die Kontrolle behalten. Für die Handlungsfelder im Übergang Schule – Beruf heißt das: Es werden in den nächsten Jahren bessere, transparentere, sicherere KI-Systeme speziell für diesen Bereich entwickelt – nicht einfach generische Tools wie ChatGPT, sondern spezialisierte Systeme, die die Besonderheiten von Beratung verstehen.

Fazit

Es genügt nicht, dass Fachkräfte KI nutzen – dessen sind wir uns alle bewusst. Sie müssen auch ihre Chancen und Risiken verstehen, ihre Funktionsweise kritisch hinterfragen und ihrerseits "intelligent" mit der KI interagieren können. Das heißt: Beratungseinrichtungen und Schulen sollten das Prompting in den Unterricht einbauen. Beratungsstellen sollten transparent machen, wo sie KI nutzen und wo sie das bewusst nicht tun. Und Forschung sollte verstärkt untersuchen, wie KI Beratungsprozesse wirklich verändert – zur Stärkung der Reflexions-, Entscheidungs- und Handlungsfähigkeit beiträgt oder diese vermindert.

Künstliche Intelligenz ist nicht zu stoppen – und das muss auch nicht sein. Sie kann Fachkräfte im Übergang Schule-Beruf effektiv entlasten: bei Recherche, Prozessen, Organisation, Dokumentation und Kommunikation. Aber nur wenn Fachkräfte sie verantwortungsvoll einsetzen – mit klaren Qualitätskriterien und mit dem fundamentalen Verständnis, dass KI ein mächtiges Werkzeug ist, aber nicht ein Ersatz für menschliches Verständnis.

Es geht nicht darum, KI zu fürchten oder zu verdammen. Die Aufgabe für Fachkräfte besteht vielmehr darin, sie zu verstehen, ihre Chancen zu nutzen, ihre Risiken zu minimieren, und dabei eines nie aus dem Auge zu verlieren: Junge Menschen und junge Erwachsene im Übergang von der Schule in den Beruf befinden sich in einer sensiblen und oft unsicheren Lebensphase. Sie reagieren aufmerksam auf Zwischentöne, auf Authentizität, auf Nähe oder Distanz in der Kommunikation. Deshalb brauchen sie eine menschliche Begleitung, die zuhört, mitdenkt, Orientierung bietet und inspiriert – jemanden, der Vertrauen schafft und individuelle Entwicklung ermöglicht.

Literatur

AGBFN (2024). Roundtable: Einsatz von KI in der Berufsberatung.   (14.01.2026)

AgraJo (2025). Von der KI beraten: Wie ChatGPT zur Berufsberatung der Jugend wird.    (14.01.2026)

AI-Laws (2024). KI-Verordnung trifft Datenschutz-Compliance.   (14.01.2026)

Bildungsserver Berlin-Brandenburg (2024). Ethische Leitlinien für Lehrkräfte zur Auswahl und Nutzung von KI-Systemen.   (14.01.2026)

Bundesagentur für Arbeit (2024). KI in der Berufsorientierung und Ausbildung – Workshops und Präsentationen. Schulewirtschaft Baden-Württemberg.   (14.01.2026)

DataCamp (2025). AI Halluzinationen: Ein Leitfaden mit Beispielen.   (14.01.2026)

Dein erster Tag / BO.AI (2026). KI-Chatbots – Sichere KI in der Berufsorientierung.   (14.01.2026)

Deutschlandfunk (2025). KI und Sexismus: Gefahr für die Gleichberechtigung.   (14.01.2026)

Fraunhofer IESE (2026). Was sind Large Language Models? Und was ist bei der Verwendung zu beachten?   (14.01.2026)

HeyData (2025). So machst Du KI-Agenten DSGVO-konform.   (14.01.2026)

Hochschule Bielefeld (2024). Fit für KI - Genderspezifische Unterschiede in der Wahrnehmung, dem Verständnis und in den Weiterbildungswünschen bezüglich Künstlicher Intelligenz.
  (14.01.2026)

Hochschule der Bundesagentur für Arbeit (2024). Künstliche Intelligenz (KI) für berufliche Entscheidungsprozesse (BEP).   (14.01.2026)

IBM (2026). Was ist NLP (Natural Language Processing)?   (14.01.2026)

IONOS (2025). KI-Ethik: Verantwortung im Zeitalter von Künstlicher Intelligenz. (14.01.2026).

IT-Fitness (2024). Prompt Engineering für Lehrkräfte. ~https://www.it-fitness.de/lernen/ki-fuer-lehrkraefte/prompt-engineering~  (14.01.2026)

Jugendhilfeportal (2023). Kinder- und Jugendhilfe im KI-Zeitalter – Chancen und Herausforderungen.   (14.01.2026)

Mebis Magazin (2024). KI – Verzerrungen und Fairness.   (14.01.2026)

Schulewirtschaft Baden-Württemberg (2024). Künstliche Intelligenz in Berufsorientierung und Ausbildung.   (14.01.2026)

Schulministerium NRW (2024). Beispiele für den lernförderlichen Einsatz von KI im Mathematik- und Deutschunterricht.   (14.01.2026)

SECJUR (2026). EU AI Act: Daten-Bias bei Hochrisiko-KI nachweisen.   (14.01.2026)

Wirtschaftsverband Emsland (2026). MIKA – Dein KI-Chat für Berufsberatung und Karriereplanung.   (14.01.2026)

ZDH (2024). Datenschutz bei künstlicher Intelligenz. Zentralverband des Deutschen Handwerks.   (14.01.2026)