ChatGPT in der Schule

Das gilt es bei der Verwendung von künstlicher Intelligenz zu beachten

Mit ChatGPT ist künstliche Intelligenz definitiv im Klassenzimmer angekommen. Der Chatbot kann hilfreich sein, der Umgang mit ihm birgt aber auch Gefahren. Fünf Punkte sind bei der Nutzung zu berücksichtigen.

Auf einem Smartphone sind drei Apps sichtbar: ChatGPT, Bing und Google.
Viele nutzen bereits täglich KI, ohne es zu bemerken. Gängige Tools wie die Suchmaschine Google setzen auf die Technologie. Foto: iStock / Kenneth Cheung

Spätestens seit ChatGPT ist künstliche Intelligenz (KI) in aller Munde. Forschung dazu gibt es aber bereits seit den 1950er-Jahren. Heute nutzen viele von uns KI-Technologien bereits täglich – oft ohne es zu merken: etwa Sprachassistenten wie Siri oder Alexa, Übersetzungsprogramme wie DeepL, Konsumempfehlungen bei Amazon, Vorschläge bei Netflix oder Suchmaschinen, die ihre Suchresultate dynamisch anpassen. Die neueste Generation von KI gehört zur Kategorie der «generativen» KI, die nicht nur Daten analysieren, sondern auch neue Texte, Bilder, Töne oder Videos erzeugen können.

Für Schulen wirft der Einsatz generativer KI-Systeme einige Fragen auf, etwa zu Leistungsmessung und Plagiaten, aber auch zu Datenschutz und der Rolle der Lehrperson. Wie jedes Werkzeug bieten generative KI-Systeme wie ChatGPT Chancen und Risiken. Im Folgenden werden fünf Risiken näher betrachtet.

1. Eigenleistung lässt sich einfach vortäuschen

Generative KI erleichtert das Vortäuschen von Eigenleistungen massiv. Texte können mit wenigen Klicks und ohne echtes Verständnis produziert werden. Das stellt Schulen vor neue Herausforderungen der Leistungsmessung und -anerkennung. Bisherige Prüfungsformate und Hausaufgaben verlieren an Aussagekraft, wenn Texte einfach von KI generiert werden. Neue, eigenleistungszentrierte Formate sind gefragt. Viele Schulen setzen wieder vermehrt auf mündliche Prüfungen sowie Prozessbegleitung, wo Zwischenschritte erläutert werden müssen.

Gleichzeitig muss Eigenleistung neu gedacht werden: Warum Texte mühsam selbst schreiben, wenn KI das übernehmen kann? Hier ist die Schule gefordert, die Bedeutung von Denk- und Schaffensprozessen zu verdeutlichen. Sonst besteht die Gefahr, dass Schülerinnen und Schüler KI blind vertrauen und eigene Urteilskraft einbüssen.

2. Ohne Faktencheck und Quellenkritik haben Fake News leichtes Spiel

Generative KI-Systeme wie ChatGPT machen keine Faktenchecks oder verlässliche Quellenangaben. Sie können falsche Informationen (auch «Halluzinationen» genannt) und Falschnachrichten (Fake News) produzieren und verbreiten. Das erfordert von Schülerinnen, Schülern und Lehrpersonen viel mehr Quellenkritik und hinterfragendes Denken.

Zudem sinkt die Hemmschwelle, KI gezielt für Desinformationskampagnen und Propaganda zu nutzen. Schon heute werden KI-generierte Fake News eingesetzt, um demokratische Wahlen und die öffentliche Meinung zu beeinflussen. Schulen müssen Schülerinnen und Schüler dringend zum kritischen Umgang mit generativer KI befähigen.

3. Sowohl Datenschutz als auch Transparenz fehlen

Viele KI-Systeme zeichnen umfangreiche Daten von Nutzerinnen und Nutzern auf, um daraus zu «lernen». Oft fehlt Transparenz, was mit diesen Daten geschieht. ChatGPT etwa speichert alle eingegebenen Daten sowie die Metadaten unverschlüsselt in seiner stetig wachsenden Datenbank. Daher sollten Lehrpersonen keine Personendaten von Schülerinnen und Schülern bei ChatGPT-Anfragen eingeben, insbesondere keine sensitiven Daten. Dazu gehören psychologische, sonderpädagogische oder medizinische Gutachten, Lernberichte oder Klassenlisten. Zudem sind viele KI-Systeme in ihrer Funktionsweise für Aussenstehende nicht nachvollziehbar. Warum generiert KI bestimmte Inhalte? Nach welchen Kriterien trifft sie Entscheidungen? Diese Intransparenz erschwert eine kritische Reflexion und die Kontrolle.

Lehrpersonen müssen sich der Risiken bewusst sein und vom Bildungsträger klare Regeln einfordern, bevor sie KI-Anwendungen einsetzen. Der Schutz persönlicher Daten von Schülerinnen und Schülern hat oberste Priorität.

4. Die Abhängigkeit nimmt zu, die Expertise nimmt ab

Je mehr Aufgaben KI übernimmt, desto abhängiger werden wir von den Systemen und ihren Betreibern. Expertise könnte abgewertet werden, wenn menschliche Urteilsfähigkeit und Erfahrungswissen durch KI scheinbar ersetzt werden können. Welche Motivation sollen Schülerinnen und Schüler haben, noch etwas zu erlernen, was eine KI oder ein Roboter schneller und besser kann? Ein blindes Vertrauen in KI-generierte Antworten vermindert die eigene Kompetenzentwicklung und die Motivation, Inhalte und Fertigkeiten vertieft erlernen zu wollen. Die Begründung, warum etwas erlernt werden muss, erfordert eine neue vertiefte Diskussion im Bildungswesen.

5. Unterschiede bei Chancengleichheit werden möglicherweise grösser

Der Einsatz von KI in der Schule wirft auch Fragen zur Chancengerechtigkeit auf. Nicht alle Schülerinnen und Schüler haben gleichermassen Zugang zu leistungsstarker KI-Technologie, insbesondere zu lizenzpflichtigen Pro-Versionen. Dies kann bestehende Bildungsungleichheiten weiter verstärken. Auch die Kompetenz für eine gezielte, kritische Anwendung von KI ist ungleich verteilt. Erfahrungsgemäss fällt es leistungsstarken Schülerinnen und Schülern leichter, Technologien wie generative KI-Systeme unterstützend für ihren Lernprozess einzusetzen. Zudem erhöht die Verfügbarkeit von KI-Textgeneratoren das kognitive Anspruchsniveau an Schülerinnen und Schüler. Wenn nicht mehr das Erstellen von Texten, sondern die kritische Textanalyse und Überarbeitung im Zentrum steht, wird die zusätzliche Komplexität dieser Aufgaben für Schülerinnen und Schüler mit Leistungsschwächen und/oder mit nicht-deutscher Erstsprache schwer zu meistern sein.

Fazit: Es braucht eine systematische Auseinandersetzung mit KI

Damit KI unsere Schule und Gesellschaft positiv mitgestaltet statt destabilisiert, bedarf es weitsichtigen Handelns aller Beteiligten. Nur so werden wir den Herausforderungen einer zunehmend algorithmisch geprägten Welt gerecht. Ohne ethische Leitplanken und kritischen Umgang könnte diese Technologie die Verbreitung von Desinformation, Intransparenz und Abhängigkeit fördern, die Chancengerechtigkeit verschlechtern sowie unser Vertrauen in menschliche Expertise untergraben. Es braucht daher eine langfristige und systematische Auseinandersetzung mit KI.

 

Weiter im Netz

Warum Beat A. Schwendimann, Leiter Pädagogik beim Dachverband Lehrerinnen und Lehrer Schweiz LCH, trotzdem gegen ein KI-Verbot an Schulen ist, können Sie hier auf LCH.ch in seinem Kommentar lesen. 

Autor
Beat A. Schwendimann

Datum

01.11.2023

Themen