Schule und Studium mit KI, das ist längst Realität. Bereits ein Viertel aller Studenten benutzt KI-Systeme für Hausarbeiten.
Künstliche Intelligenz beginnt zum festen Bestandteil in Ausbildung und Prüfung an Schulen und Hochschulen zu werden. Laut einer Studie des Digitalverbands Bitkom zu Hochschulen arbeiten 65 Prozent der Studierenden mit ChatGPT. 22 Prozent können sich die Nutzung vorstellen. KI kann als Lernpartner, als wissenschaftlicher Mitarbeiter oder Tutor dienen. Sie kann professorale Aufgaben übernehmen und Lehrpläne konzeptionieren. Sie kann als Copilot Ideen für Studium und Lehre einwerfen.
Hochschulen: KI als Lernpartner und HiWi
Laut Bitkom nutzen 26 Prozent der Studierenden die Angebote bei Hausarbeiten, neun Prozent bei Abschlussarbeiten und vier Prozent setzen die Technik sogar während einer laufenden Prüfung ein.
Befragt man die Studierenden allerdings nach der Zulässigkeit des Prüfungseinsatzes, plädiert knapp die Hälfte für ein Verbot von ChatGPT bei Haus- und Abschlussarbeiten. Mehr als die Hälfte räumt ein, dass der Bot unzulässige Vorteile verschaffen könne. Allerdings sind sich drei Viertel der Studierenden einig, dass man an der Hochschule lehren soll, wie man KI richtig einsetzt.
Schulen: KI zur Unterrichtsgestaltung
Auch in Schulen arbeitet man mit KI. Das gilt sowohl für Schüler als auch für Lehrende, die sie bei Unterrichts- und Prüfungsgestaltung sowie organisatorischen Aufgaben wie Stunden- und Raumplanung verwenden. Software für das Lehrpersonal macht Vorschläge für die Unterrichtsgestaltung und erstellt Lernvideos. Darüber hinaus wird KI dort bereits bei der Notenvergabe eingesetzt.
Als Korrekturhilfe ermöglicht es KI, ein erwartetes Leistungsspektrum für bestimmte Aufgaben und Bewertungskriterien festzulegen. Wird die Software mit der Arbeit eines Schülers "gefüttert", werden Verbesserungsvorschläge für Schüler und Benotungsvorschläge für Lehrer unterbreitet, unter anderem aufgefächert nach der Notenskala von eins bis sechs.
Hohes Risiko: Noten per KI
Noten per KI? Darf das sein? Wenn KI bestimmungsgemäß für die Bewertung von Lernergebnissen verwendet werden soll, dann lässt die KI-Verordnung, die im Sommer in Kraft treten wird, das zwar zu.
Sie stellt aber enorme Anforderungen für den Einsatz auf, etwa für alle Behörden eine aufwändige Grundrechteprüfung vor dem Einsatz und vieles mehr. Das ergibt Sinn. Die Ausbildung in Schulen und Hochschulen ist schließlich eine staatliche Aufgabe in der Keimzelle der Demokratie.
Bildungseinrichtungen in der Verantwortung
Bildungseinrichtungen müssen für generative KI-Systeme, die sie einsetzen, einstehen. Dazu müssen sie diese aktiv in ihre Anwendungen integrieren. Zunächst ist es dabei wichtig, sich bewusst und aktiv für Angebote zu entscheiden und diese zu lizenzieren, anstatt den "wilden" Einsatz über private Accounts zu dulden. Öffentliche Vergaben müssen gut abgewogen sein.
Der Markt wächst und Angebote aus Europa sind möglicherweise eine bessere Alternative als die der Tech-Giganten. Je nach Einsatzzweck können sich hier erhebliche Unterschiede ergeben. Um KI-Systeme zu implementieren, müssen Bildungseinrichtungen diese Systeme, deren Zusammenhänge und das komplexe und in großen Teilen nicht einsehbare Gefüge der Sprachassistenten verstehen und ihr Wissen sowie Nichtwissen transparent vermitteln.
Weniger strenge Regeln: KI-Einsatz in der Lehre
Wenn man KI nicht für den spezifischen und hochriskanten Zweck der Leistungsbewertung nutzt, sind die Anforderungen geringer. Die KI-Verordnung stellt für den Einsatz von Sprachbots ohne spezifische Zweckbestimmung eine Kennzeichnungspflicht und die Pflicht zur Vermittlung von KI-Kompetenz auf. Der Einsatz von ChatGPT in der Lehre durch die Hochschule und selbst die Nutzung des Bots von Studierenden in der Prüfung gilt nicht als riskant im Sinne der KI-VO.
Solange die Bildungseinrichtung sicherstellt, dass niemand über die Stränge schlägt und dass es nicht zur Verwendung zur Leistungsbewertung kommt, ist der Pflichtenkreis nach der KI-VO noch überschaubar. Es gilt also sicherzustellen, dass kein Missbrauch über den erlaubten Zweck hinaus erfolgt. Geschieht das doch, wird es ernst, denn dann greifen nämlich automatisch die strengen Pflichten für die riskante Nutzung.
Datenschutzrecht gilt zusätzlich
Mit den Regeln der KI-VO ist es aber nicht getan. Es muss etwa zusätzlich das geltende Datenschutzrecht beachtet werden. Das wird vor allem beim Einsatz zur Leistungsbewertung wichtig. Lehrpersonal muss darüber aufgeklärt werden, was es datenschutzrechtlich bedeutet, persönliche Daten über Namen und Leistungsstand von Studierenden und Schülern sowie Mailadressen und vieles mehr in KI-Prompts zu verwenden.
Der Europäische Gerichtshof verlangt auch, dass bei KI-gestützten Bewertungen mit rechtlicher Relevanz, also bei der Notenvergabe in Schule und Hochschule, die Maßgeblichkeit der menschlichen Entscheidung für das Ergebnis gewahrt bleibt.
Bildungseinrichtungen müssen – wie die Schufa bei der Prüfung der Bonität – rechtssichere Kriterien für den Nachweis entwickeln, warum sich der Mensch und nicht der Notenvorschlag der KI durchgesetzt hat. Gelingt das nicht, können Schüler und Studierende, die sich vor Verwaltungsgerichten gegen KI-Notenvergaben wenden, das Bildungssystem an den Rand des Kollapses bringen.
Es besteht also Handlungsbedarf bei Bildungseinrichtungen in Sachen KI und man kann aus der Bitkom-Studie zwei sinnvolle Anregungen ableiten.
- Fazit 1: Zurückhaltung bei KI in Prüfungen: Beim Einsatz der KI zur Bewertung wird es brenzlig und bei der Zulassung von KI in Prüfungen sollte größte Zurückhaltung gelten, schon um den Grundsatz der Chancengleichheit in der Prüfung nicht über Bord zu werfen.
- Fazit 2: Bildungseinrichtungen müssen Regeln vorgeben: In Schule und Hochschule muss der verantwortungsvolle Einsatz generativer KI gelehrt und gelernt werden. Die Einrichtungen müssen allerdings Verantwortung für den Einsatz der neuen Technik übernehmen.
Luft nach oben
Laut Bitkom geben gut ein Drittel der Hochschulen ihren Lehrenden und Lernenden Verhaltensregeln für die Nutzung der KI an die Hand. Nur 17 Prozent der Studierenden kennen zentrale Regeln ihrer Hochschule für die Nutzung von ChatGPT und Co.
In einem Fünftel der Fälle gäben die Lehrenden dezentral Regeln vor. Das ist schlecht, wenn man als Bildungseinrichtung das Heft in der Hand behalten möchte, um Verantwortung übernehmen zu können.
Verwendete Quellen
- bitkom.org: KI oder Kreide im Hörsaal – so digital sind Deutschlands Hochschulen
- tagesspiegel.de: Lernen mit KI, der große Wandel
- tagesspiegel.de: Wenn die KI Schulleistungen bewertet
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.