Die Ständige Wissenschaftliche Kommission der Kultusministerkonferenz hat am 17.01.2024 ein Impulspapier zu Large Language Models (LLMs) und ihrer Potenziale im Bildungssystem veröffentlicht. Wir werfen in diesem Beitrag einen Blick auf die Schlüsselelemente des Papiers und diskutieren deren Bedeutung für die Zukunft der Bildung.

Einleitung

Ende letzten Jahres wurde es kurz still um das Thema KI in Schulen, nachdem einige kritische Stimmen laut wurden, die den Datenschutz der ersten Landes-Lösungen von generativer KI diskutierten. Daneben rückten die PISA-Ergebnisse und Nachrichten zu Schwedens Abkehr von ihrer Digitalstrategie eher altbewährte Bildungsthemen in den Fokus.

Während es in den ersten beiden Januarwochen noch offen blieb, wie viel Raum das Thema KI 2024 einnehmen wird, hat die SWK mit ihrem Impulspapier zu LLMs die grundsätzliche Diskussion eines Für und Wider erneut aufgegriffen und sich vergleichsweise stark für einen Einsatz von LLMs ausgesprochen.

Potenziale und Grenzen im Bildungsbereich

Die SWK nimmt aufbauend auf den ersten Umfragen zum Einsatz von LLMs im Schulkontext gleich mehrere Handlungsfelder in den Blick. Strukturell sieht man die Umsetzung eigener Systeme als Auftrag, um v.a. datenschutzrechtliche und lizenzrechtliche Fragen zu adressieren, gleichzeitig nimmt man sich der Nutzung im und für den Unterricht an. Hierunter fallen sowohl die Nutzung durch Lehrkräfte als auch Schüler:innen.

Mutig und positiv ist das Aufgreifen der Thematik der Prüfungskultur zu bewerten. Zusammen mit dem Verweis auf das eigene Ergänzungspapier der SWK zur “Digitalisierung im Bildungssystem” kommt auch das Thema des formative assessment, also lernbegleitenden Überprüfens, erneut auf den Tisch. Das ist zum einen schlüssig, da die Diskussion um intelligente tutorielle Systeme gerade durch die Zielsetzung individueller Lernpfade diesen Vorzug hervorhebt, zum anderen bringt es aber auch ein zukünftiges Problem der Bildungsstruktur auf den Punkt.

(Wie) nämlich verändern sich Prüfungen durch den zunehmenden Einsatz von KI-Werkzeugen in Schule? Wer auf eine Antwort hofft, wird bereits zuvor ausgebremst, denn empirische Forschung findet die SWK bereits bei der Frage nach Lernförderlichkeit nicht:

Auch wenn es noch keine gesicherten empirischen Befunde darüber gibt, wie sich LLM auf Lehr-Lernprozesse auswirken werden, braucht es eine Orientierung, wie LLM in der Bildungspraxis zu verorten sind: Welche Potenziale bieten sie? Welche Beschränkungen sind zu berücksichtigen und welche Aufgaben stellen sich mittel- bis langfristig für Praxis und Wissenschaft?

Seite 12

Kompetente Nutzung von LLMs

Zurück bleibt eine große Liste an ToDos für die kommenden Monate und Jahre. Diese reicht von den bereits genannten Punkten über die Verbindung von ITS und generativer KI, über die Potenziale für benachteiligte Schüler:innen (z.B. Barrierefreiheit durch Gebärden Avatare) bis hin zur Frage, welche Rolle das sog. Prompting in der Schule spielen wird. 

Der letzte Punkt überrascht dann doch auch aufgrund seiner sehr spezifischen Verortung in eigenen Prüfungsformaten: 

Da eine versierte Koaktivität mit LLM eine wichtige Zukunftskompetenz darstellen wird, müssen in den Fächern Prüfungsformate entwickelt werden, in denen Lernende diese Kompetenz unter Beweis stellen können und Aufgaben bereitgestellt werden, die sie darauf vorbereiten. Solche Aufgabenformate könnten projektartig und prozessorientiert angelegt sein und besondere Anforderungen an das Prompting oder die kritische Reflexion des LLM-Outputs stellen.

Seite 16-17

Mit Blick auf die schnelle Entwicklung unterschiedlicher Prompting-Strategien, die Veränderung der Funktionsweise innerhalb der Systeme und teils automatisierten Tunings durch Systeme, ein gewagt konkreter Vorschlag.

Die größte Herausforderung des Dokumentes an die Bildungspolitik liegt aber wahrscheinlich in einem Nebensatz zur zielgerichteten Bedienung der generativen Systeme: 

Prompt-Tuning setzt damit kritisches und analytisches Denken voraus und Lernende benötigen breites fachliches Wissen, um die Glaub- und Vertrauenswürdigkeit der LLM-generierten Inhalte einschätzen können. Dies ist gerade im Bildungskontext eine besondere Herausforderung, wo bei schwächeren Lernenden diese Kompetenzen eher nicht vorausgesetzt werden können.

Seite 14

Nimmt man bereits bestehende medienpädagogische Aspekte rund um z.B. Deepfakes hinzu, ergibt sich ein Horizont an (neuen) Aufgaben und Herausforderungen, die neben inhaltlichen Kompetenzen auch “metakognitives Wissen” und die ebenfalls erwähnten “Selbstregulationskompetenzen” erfordern. Es wird immer schwieriger, im vorherrschenden dynamischen und komplexen Informationsangebot alle Schüler:innen auf ein Leben außerhalb schulischer Diskursräume und gesellschaftlicher Teilhabe vorzubereiten. Schule allein wird diese Herausforderung nicht lösen können und muss sich anschlussfähig für die Mithilfe externer Partner zeigen (Elternarbeit / Außerschulische Lernorte). 

Es bleibt zu befürchten, dass die Aussagen der SWK nicht konkret genug sind, um direkte Auswirkungen z.B. auf Verordnungen in der Prüfungskultur der Länder zu bewirken. Sie können gleichwohl Anlass sein, bei bestehendem Willen zur Änderung die Argumente der SWK als Verstärkung im Handlungsspielraum zu nutzen. Eines wird man kaum von der Hand weisen können: Die SWK fordert die Länder auf sich aktiv in einem Explorationsrahmen an der Schnittstelle zwischen Wissenschaft und Praxis mit LLMs auseinanderzusetzen. 

Rechtliche Aspekte – Allgemeinplatz statt Impuls?

Wenig überraschend kommt die SWK zu dem Schluss, dass die Nutzung von LLM-Tools mit urheber- und datenschutzrechtlichen Herausforderungen verbunden sein kann. Im Bereich des Urheberrechts sind die Ausführungen eher allgemein gehalten. Es wird u.a. auf die Verwendung urheberrechtlich geschützter Nutzerdaten zum Training von KI-Systemen eingegangen. Dass viele der am Markt verfügbaren Lösungen jedoch gar keine Nutzerdaten für das Training verwenden, wird nicht thematisiert. Unklar bleibt auch, ob und wenn ja, worin die SWK ein Risiko für Lehrende und/oder Lernende bei KI-generierten Inhalten sieht, die nicht die für ein Urheberrecht erforderliche Schöpfungshöhe erreichen und daher gemeinfrei sind.

Auch die Ausführungen zum Datenschutzrecht sind pauschal und im Ergebnis zu negativ. Es ist zwar grundsätzlich richtig, dass die Verarbeitung personenbezogener Daten durch KI-Systeme ein datenschutzrechtliches Spannungsfeld eröffnet. Es gibt aber keinen Grund, aus datenschutzrechtlichen Gründen auf den Einsatz von KI zu verzichten. Werden die bestehenden Risiken durch technische und organisatorische Maßnahmen hinreichend minimiert, kann KI auch in sensiblen Bereichen wie dem schulischen Kontext eingesetzt werden. Zu Recht kommt daher auch die Datenschutzaufsichtsbehörde Baden-Württemberg in ihrem Tätigkeitsbericht für das Jahr 2023 zu dem Ergebnis, dass der Einsatz der KI-Lösung „fAIrchat“ in Schulen und der damit realisierte Zugriff auf ChatGPT aus datenschutzrechtlicher Sicht vertretbar ist, wenn folgende Bedingungen eingehalten werden:

  • Es werden keine Metadaten an den Betreiber OpenAI von ChatGPT übermittelt.
  • Die eingegebenen Daten werden nicht zur Weiterentwicklung oder Verbesserung des Dienstes verwendet.
  • Die Nutzung personenbezogener Daten ist durch eine Nutzungsordnung untersagt.
  • Die Lehrkraft klärt die Schüler:innen ausdrücklich und für sie verständlich darüber auf, dass keine personenbezogenen Daten in das System eingegeben werden dürfen.
  • Die Lehrkraft kann die Eingaben der Schüler:innen nachträglich kontrollieren und entsprechende Kontrollen finden risikoangemessen zumindest stichprobenartig statt.

Im Ergebnis kommt im Papier der SWK zu kurz, dass es für die vielfältigen rechtlichen Herausforderungen beim Einsatz von LLM-Tools in Schulen etablierte Methoden zur Risikobewertung und Ermittlung von Abhilfemaßnahmen gibt. Weder das Urheber-, noch das Datenschutzrecht stehen einer Nutzung von LLM-Tools in Schulen im Weg.

Schlussfolgerungen und Ausblick

Auch die Anknüpfung an informatische Aspekte des Themas sowie die Wahrnehmungsproblematik der LLM als “die KI” im derzeitigen Diskurs werden nur am Rande thematisiert. Am Ende hat das Dokument aber auch nicht den Anspruch einer Gesamt-Einordnung. Umso wichtiger wird es sein, ein “Gesamtkonzept KI” für die Fort- und Weiterbildung als auch die Schulentwicklungs- und Unterrichtsentwicklungsperspektive zu entwickeln. 

Ohne das wird es kaum möglich sein, im existierenden System konkrete Veränderungsprozesse zu initiieren. Das zeigt sich beispielhaft an den Nebenschauplätzen Umweltschutz und Ethik, die es nur als Randnotiz ins Papier geschafft haben, die im Bildungskontext als Inhalt aber stärker mitgedacht werden sollten.

Glossar

Large Language Models (LLMs): Sprachmodelle, die große Mengen an Textdaten verarbeiten, um “menschenähnliche” Texte zu generieren.

Ständige Wissenschaftliche Kommission der Kultusministerkonferenz (SWK): Ein Gremium, das wissenschaftliche Beratung für die Kultusministerkonferenz bietet.

Bandwagon-Effekt: Ein Phänomen, bei dem Menschen etwas tun, weil andere es auch tun, unabhängig von ihren eigenen Überzeugungen.

PISA-Ergebnisse: Ergebnisse des Programme for International Student Assessment der OECD, einer weltweiten Studie, die die Fähigkeiten und Kenntnisse 15-jähriger Schüler:innen in ausgewählten Fachbereichen in den Blick nimmt.

Formative Assessment: Bewertungsmethode zur Überwachung und Verbesserung des Lernprozesses während des Lernvorgangs. (z. B. mehrschrittig überprüfte Projektarbeit)

Summatives Assessment: Bewertungsmethode, die am Ende einer Lerneinheit oder eines Kurses durchgeführt wird, um den Lernerfolg oder die Leistung der Lernenden insgesamt zu messen und zu bewerten. (z.B. eine Kursarbeit / Klausur)

Intelligente tutorielle Systeme (ITS): Computergestützte Lernsysteme, die personalisierte Anleitung und Feedback an Lernende bieten. Teilweise verknüpft mit Diagnosefunktionen für eine Lehrkraft.

Prompting: Die Praxis, einem generativen KI-System spezifische Anweisungen zu geben, um gewünschte Antworten oder Funktionsweisen zu erhalten.

Prompt-Tuning: Eine Technik zur Feinabstimmung der Eingabeaufforderungen eines KI-Systems, um genauere oder spezifische Antworten zu erhalten.

Metakognitives Wissen: Bewusstsein und Verständnis der eigenen Gedanken- und Lernprozesse.

Selbstregulationskompetenzen: Fähigkeiten, die es einem Individuum ermöglichen, z. B. eigene Lernprozesse durch Planung, Überwachung und Anpassung zu steuern.

Deep Fake: Künstlich erzeugte Video- oder Audioaufnahme, die mit manipulativer Absicht erstellt / gefälscht wurde.