Skip to main content Skip to main navigation

Chancen, Potenziale und Grenzen von ChatGPT in der Bildung – Stellungnahme des DFKI Labor Berlin

| Lernen & Bildung | Sprache & Textverstehen | Educational Technology Lab | Speech and Language Technology | Berlin

Der potenzielle Einsatz von ChatGPT in der Bildung wird aktuell kontrovers diskutiert. Das DFKI Labor Berlin plädiert für eine sachliche Einschätzung und warnt vor Software, die vorgibt, von ChatGPT-generierte Texte automatisch erkennen zu können.

ChatGPT ist in der Lage, viele Übungs- und Prüfungsaufgaben korrekt zu beantworten. Dies hat bei vielen Stakeholdern in der Bildung zu Sorge vor künstlich generierten Lösungen geführt. Das DFKI Labor Berlin plädiert dafür, Potenziale und Grenzen der Technologie sachlich einzuschätzen und warnt vor Software, die vorgibt, von ChatGPT-generierte Texte automatisch erkennen zu können. 

Was ist ChatGPT? 

Der Kern von ChatGPT ist ein so genanntes Sprachmodell (aus der GPT-3-Familie der Firma OpenAI), das darauf trainiert wurde, Texte zu vervollständigen. Das heißt: Gegeben ein Textfragment, setzt GPT-3 dieses Textfragment beliebig fort. Als Trainingsdaten wurde eine gewaltige Menge größtenteils englisch-sprachiger Texte aus dem Internet der vergangenen Jahre verwendet. ChatGPT ist eine Erweiterung von GPT-3 und wurde mit menschlichem Feedback darauf trainiert, Texte zu erzeugen, die wie hilfreiche Antworten auf eingegebene, menschliche Gesprächsbeiträge wirken. Dies leistet das System auch bei vielen Anfragen sehr gut. Trotzdem bleibt ChatGPT im Kern eine Maschine zur wahrscheinlichkeitsbasierten, syntaktischen Vervollständigung von Texten. Diese Maschine modelliert keine Denkprozesse, hat kein Bewusstsein, kein Urteilsvermögen bezüglich wahrer oder falscher Aussagen und keinen (expliziten) Sinn für die Bedeutung dessen, was eingegeben oder generiert wird. 

Welches Potenzial hat ChatGPT für die Bildung? 

ChatGPT kann vielfältig im Bildungsbereich eingesetzt werden, zum Beispiel zum Paraphrasieren, Erweitern oder Kürzen von selbst verfassten Texten (sowohl Lehrmaterial als auch Texte von Lernenden). Interessant ist das unterliegende Sprachmodell GPT-3 auch als Modul für Tutoring-Programme, die das Lernen unterstützen sollen. Sprachmodelle können etwa dabei helfen, unter mehreren möglichen Hilfestellungen die richtige auszuwählen oder Lerninhalte zu finden, die zu einem Thema passen. Auch kann mit ChatGPT ein individueller Dialog zwischen Lernenden und Lernsystem entstehen, um zur intensiven Beschäftigung und zum Hinterfragen des Themas zu animieren. Solche Potenziale erforscht das Educational Technology Lab aktiv in Forschungsprojekten wie tech4compKIKIPerWeb oder KI Campus 2.0. Das DFKI ist ebenfalls am Projekt OpenGPT-X beteiligt, um frei verfügbare und mehrsprachige Sprachmodelle zu entwickeln – als Alternativen zum proprietären Modell GPT-3. 

Was sind die Grenzen von ChatGPT? 

Das DFKI Labor Berlin warnt davor, ChatGPT direkt und unreflektiert zur Erzeugung von Text im Bildungsbereich zu verwenden. Die generierten Texte wirken oberflächlich plausibel, können aber „Plagiate“ aus den Trainingsdaten sein, können Biases aus den Trainingsdaten reproduzieren und enthalten häufig subtile, manchmal auch schwerwiegende Fehler. Ein kürzlich erschienenes Preprint [1] etwa weist darauf hin, dass Menschen beim Programmieren mit Hilfe von Werkzeugen wie ChatGPT Code erzeugen können, der mehr Sicherheitslücken enthält, gleichzeitig aber glauben, weniger Sicherheitslücken verursacht zu haben. Auch eine Quellenarbeit ist mit ChatGPT aktuell nicht möglich. Die generierten Texte bedürfen deshalb einer sorgfältigen, menschlichen Prüfung. 

Wie wird sich die Bildung mit ChatGPT verändern?

 

Wie sich das Bildungswesen mit neuen Technologien verändert, ist keine allein technische Frage, sondern sollte in interdisziplinären Runden mit allen Beteiligten und Betroffenen erarbeitet werden. Das DFKI Labor Berlin warnt aber davor, Maßnahmen zu ergreifen, die das Vertrauensverhältnis zwischen Lernenden und Lehrenden untergraben. Insbesondere bitten wir um Vorsicht im Hinblick auf Software, die vorgibt, durch ChatGPT erzeugte Texte automatisch zu erkennen. Solche Software könnte dazu führen, viele Lernende zu Unrecht zu verdächtigen.
 

Ein Rechenbeispiel: Selbst der Detektor des Herstellers openAI erkennt nur 26% der künstlich generierten Texte und verdächtigt fälschlicherweise 9% der menschlich generierten Texte [2]. Wenn tatsächlich 10% der Lernenden künstlich generierte Texte einreichen, wären weniger als 25% der durch die „Erkennungssoftware“ verdächtigten Texte auch wirklich von ChatGPT geschrieben.

 

Verfasst von:

  • Prof. Dr. Niels Pinkwart – Forschungsbereichsleiter Educational Technology Lab
  • Dr. Benjamin Paaßen – Stellv. Forschungsbereichsleiter Educational Technology Lab
  • Dr. Aljoscha Burchardt – Principal Researcher Speech & Language Technology

 

[1] Perry, N.; Srivastava, M.; Kumar, D.; Boneh, D. (2022). Do Users Write More Insecure Code with AI Assistants? https://arxiv.org/abs/2211.03622

[2] OpenAI (2023). New AI classifier for indicating AI-written text  https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/

Kontakt:

Prof. Dr. Niels Pinkwart

Forschungsbereichsleiter, Educational Technology Lab

Pressekontakt:

Andreas Schepers, M.A.

Leiter Unternehmenskommunikation, DFKI Labor Berlin