Literaturnachweis - Detailanzeige
Autor/in | Straub, Sebastian |
---|---|
Titel | Künstliche Intelligenz in der beruflichen Bildung. Rechtliche Anforderungen nach der KI-Verordnung. |
Quelle | Berlin: VDI/VDE Innovation + Technik GmbH (2025), 13 S.
PDF als Volltext (1); PDF als Volltext (2) |
Sprache | deutsch |
Dokumenttyp | online; Monografie |
DOI | 10.25656/01:33695 |
URN | urn:nbn:de:0111-pedocs-336953 |
Schlagwörter | Künstliche Intelligenz; Rechtsgrundlage; Verordnung; Berufsbildung; Risikomanagement; Grundrechte; Risiko; Regulation |
Abstract | Der Einsatz von Künstlicher Intelligenz (KI) in der beruflichen Bildung eröffnet neue Möglichkeiten: Lernverläufe können algorithmisch erfasst, Rückmeldungen individualisiert und Lehrprozesse gezielter gesteuert werden. In der Praxis reicht das Spektrum von adaptiven Lernsystemen bis hin zu automatisierten Prüfungsumgebungen. Richtig eingesetzt kann KI Lehrkräfte entlasten und Lernende gezielt fördern. Mit diesen Potenzialen gehen jedoch rechtliche Herausforderungen einher. KI-Systeme wirken zunehmend auf Bildungsentscheidungen ein. Sie ermöglichen zwar passgenaue Lernempfehlungen, bergen aber zugleich Risiken, etwa durch fehlerhafte Bewertungen, Intransparenz oder diskriminierende Effekte. Die Frage, unter welchen Bedingungen solche Systeme verantwortungsvoll und rechtssicher genutzt werden können, stellt sich auch in der beruflichen Bildung zunehmend. Die KI-Verordnung (KI-VO) der Europäischen Union schafft erstmals verbindliche Anforderungen für die Entwicklung und Nutzung von KI-Systemen. Besonders relevant für Bildungseinrichtungen sind Anwendungen, die als „Hochrisiko-KI-Systeme“ eingestuft werden, darunter Systeme zur Bewertung von Lernergebnissen oder zur Prüfungsüberwachung. Ihr Einsatz ist nur unter bestimmten Voraussetzungen zulässig und mit umfangreichen technischen, organisatorischen und dokumentationsbezogenen Pflichten verbunden. Der Beitrag gibt einen Überblick über die zentralen Anforderungen der KI-VO im Kontext der beruflichen Bildung. Im Fokus stehen die Vorgaben zu Hochrisiko-KI-Systemen, aber auch ergänzende Pflichten zur Transparenz sowie zur Sicherstellung grundlegender Kompetenzen im Umgang mit KI. (DIPF/Orig.) The use of artificial intelligence (AI) in vocational training opens up new possibilities: Learning progressions can be recorded algorithmically, feedback can be individualized and teaching processes can be controlled in a more targeted manner. In practice, the spectrum ranges from adaptive learning systems to automated examination environments. Used correctly, AI can relieve the burden on teachers and provide learners with targeted support. However, these potentials are accompanied by legal challenges. AI systems are increasingly influencing educational decisions. Although they enable tailored learning recommendations, they also harbor risks, such as incorrect assessments, a lack of transparency or discriminatory effects. The question of the conditions under which such systems can be used responsibly and with legal certainty is also becoming increasingly important in vocational education and training. The EU AI Act creates binding requirements for the development and use of AI systems for the first time. Applications that are classified as “high-risk AI systems” are particularly relevant for educational institutions, including systems for assessing learning outcomes or monitoring examinations. Their use is only permitted under certain conditions and is associated with extensive technical, organizational and documentation-related obligations. This article provides an overview of the central requirements of the AI Regulation in the context of vocational education and training. The focus is on the requirements for high-risk AI systems, but also on additional obligations regarding transparency and ensuring basic skills in dealing with AI. (Author) |
Erfasst von | DIPF | Leibniz-Institut für Bildungsforschung und Bildungsinformation, Frankfurt am Main |