ChatGPT und andere Anwendungen, die auf künstlicher Intelligenz (KI) basieren, erfahren aktuell große öffentliche Aufmerksamkeit. Eine von vielen offenen Fragen, die mit dieser neuen Technik einhergeht, ist, inwieweit Large Language Models (LLM) die Hochschullandschaft zukünftig verändern werden und wie es um den Einsatz von ChatGPT im Studium bestellt ist.
Was ist ChatGPT?
ChatGPT (Generative Pre-trained Transformer) ist ein Chatbot, der künstliche Intelligenz einsetzt, um mit Nutzern über textbasierte Nachrichten und Bilder zu kommunizieren. Er nutzt moderne maschinelle Lerntechnologie, um Antworten zu generieren, die natürlich klingen und für das Gespräch relevant sein sollen. Den Chatbot entwickelte das US-amerikanische Unternehmen OpenAI mit Sitz in Kalifornien, das ihn im November 2022 veröffentlichte.
Was ist ein Large Language Model (LLM)?
A large language model (LLM) is a language model characterized by its large size. Its size is enabled by AI accelerators, which are able to process vast amounts of text data, mostly scraped from the Internet. LLMs are artificial neural networks which can contain a billion to trillion of weights, and are (pre-)trained using self-supervised learning and semi-supervised learning.
Darf ich ChatGPT im Studium nutzen?
ChatGPT steht seit etlichen Monaten kostenlos zur Verfügung. Die Nutzung ist kinderleicht und setzt lediglich eine einmalige Registrierung voraus. Es wäre naiv anzunehmen, dass ChatGPT nicht bereits von Studierenden genutzt wird und von zukünftigen Generationen von Studierenden genutzt werden wird. Die vielleicht dringendste Frage ist somit, inwieweit ChatGPT im Studium genutzt werden darf?
Die kurze und eindeutige Antwort auf diese Frage lautet: Nein.
Jeder Hausarbeit und Bachelorarbeit ist eine unterschriebene Eigenständigkeitserklärung beizufügen. Eine eigenständige Bearbeitung liegt jedoch nicht vor, sofern auf die Hilfe einer künstlichen Schreibintelligenz zurückgegriffen wurde. Nun ließe sich natürlich spitzfindig fragen, warum man nicht einfach ChatGPT im Quellenverzeichnis anführen kann. Dann ließe sich doch guten Gewissens auch eine eigenständige Bearbeitung erklären.
Der Einsatz von ChatGPT im Studium ist jedoch mit den Qualitätsanforderungen wissenschaftlichen Arbeitens nicht zu vereinbaren und insofern keine zulässige Quelle im wissenschaftlichen Sinne.
Dies wird deutlich, wenn man sich die Arbeitsweise der LLM anschaut.
Die künstliche Intelligenz von ChatGPT und anderen LLMs basiert auf Millionen und Abermillionen von eingelesenen Textquellen. Welche Quellen genau zum Trainieren der Software verwendet wurden, ist jedoch nicht bekannt und genau hier liegt das Problem: Grundsätze wissenschaftlichen Arbeitens sind unter anderem Überprüfbarkeit und Nachvollziehbarkeit. Beides ist jedoch nicht gewährleistet, da ChatGPT selbst keine Quellen angibt, auf denen die Antworten beruhen. Der Dienst weist sogar selbst darauf hin, dass die gegebenen Informationen falsch sein können (siehe „Warnung“ von ChatGPT).
Handelt es sich bei Texten von ChatGPT denn um Plagiate?
Wenn ChatGPT keine Quellen anführt, handelt es sich dann automatisch um Plagiate? Nein – vermutlich nicht, aber auszuschließen ist es nicht.
Auch hier hilft ein Blick auf die Arbeitsweise der LLM. Sprache folgt grammatikalischen und stilistischen Regeln und Gesetzmäßigkeiten. Das machen sich LLMs zunutze. Die erzeugten Texte basieren auf Wahrscheinlichkeiten und Mustererkennung. Die Software hat gelernt, dass auf das Wort X oder die Formulierung Y meistens Z folgt. Anstatt für jede denkbare Anfrage eine vorgefertigte Antwort bereitzuhalten, wird jede Antwort immer wieder neu und individuell erstellt. Diese Funktionsweise lässt sich leicht überprüfen, indem man ChatGPT mehrmals die gleiche Frage stellt. Die Antworten sind inhaltlich sehr ähnlich, unterscheiden sich aber sprachlich deutlich voneinander. Es kann jedoch nicht ausgeschlossen werden, dass genau diese von ChatGPT gewählte Formulierung auch in einem wissenschaftlichen Aufsatz verwendet wird. Da das LLM eben keine Quellen angibt, käme eine Überprüfung einer Suche nach der Nadel im Heuhaufen gleich. Es besteht aber durchaus die Gefahr, dass einem Betreuer eine Formulierung bekannt vorkommt und hier den Studierenden eine Täuschungsabsicht unterstellt wird.
Nachteile von ChatGPT
Neben der beschriebenen Gefahr unwissentlich die eigene Arbeit mit plagiierten Textstellen zu versehen, weist ChatGPT noch andere Nachteile auf. Die aktuell kostenlos nutzbare Version 3.5 basiert auf einem Wissensstand von 2021. Aktuellere Nachrichten und Wissensbestände kennt das System nicht.
Ein vielleicht schwerwiegenderes Problem ist, dass manche Antworten, die ChatGPT ausliefert, schlichtweg falsch sind. Gerade in Bezug auf weniger rezipierte Theorien, die im angloamerikanischen Raum weniger bekannt sind, bestehen größere Wissenslücken. Allerdings ist ChatGPT selten um eine Antwort verlegen und präsentiert selbstbewusst irrelevante oder gar falsche Antworten. Da als Trainingsbasis für LLMs öffentlich zugängliche Datenquellen dienen, wird dieses Problem z.B. verstärkt auftreten, wenn Themen als Verschlusssache eingestuft sind.
Schließlich ergibt sich aus der Verbreitung von LLMs und ihrer potentiellen Nutzung noch ein grundlegendes Problem: Die Systeme werden nur dann brauchbare Antworten liefern, wenn entsprechend gute Fragen gestellt werden. Zum einen setzt dies technische Kenntnisse voraus, welche Anfragen das System versteht und welche Formulierungen zu den besten Ergebnissen führen (das sog. Prompt-Scripting).
Andererseits kann ich nur dann die „richtigen“ und klugen Fragen stellen, wenn ich bereits über Vorwissen verfüge. So großartig und beeindruckend die Ergebnisse von LLMs auch sein mögen, sie stehen im Widerspruch zur Idee des eigenständigen und kritischen Denkens. Die Aufgabe der Wissenschaft ist es, neues Wissen zu schaffen, indem bestehende Wissenssysteme erweitert und Ideen miteinander verknüpft werden. Wenn wir uns aber in Zukunft auf ChatGPT und seinen Wissensbestand von 2021 verlassen, werden wir immer nur Altbekanntes und Triviales neu verpackt serviert bekommen, ohne die Kompetenz zu besitzen, Dinge kritisch zu hinterfragen und über eine den Algorithmen immanente Logik hinaus zu reflektieren. Schließlich ist das Ziel einer akademischen Ausbildung neben der Wissensvermittlung vor allem die Befähigung zu kritischem Denken und wissenschaftlichem Arbeiten. Ohne in Kulturpessimismus verfallen zu wollen, sehe ich diese wissenschaftliche Kernkompetenz gefährdet, wenn wir in Zukunft aus Bequemlichkeit das kritische Denken an Maschinen und Algorithmen delegieren.
Was passiert, wenn ich ChatGPT im Studium verwende?
Einige Studierende plagiieren wissentlich in ihren schriftlichen Arbeiten, andere schummeln bei Prüfungen und wieder andere nehmen „Schreibhilfen“ in Anspruch und lassen ihre schriftlichen Arbeiten gegen Bezahlung von Ghostwritern verfassen. Es ist daher davon auszugehen, dass es auch Studierende gibt, die Texte von LLMs erstellen lassen und diese als ihre eigenen ausgeben. In allen genannten Fällen sollten sich die Betroffenen jedoch darüber im Klaren sein, dass ihr Verhalten nicht nur einen eklatanten Verstoß gegen wissenschaftliche Qualitätsstandards darstellt, sondern auch zum Nichtbestehen einer Prüfung und gegebenenfalls zur Exmatrikulation führen kann. Wer also heute seine Haus- oder Bachelorarbeit per ChatGPT „zusammenklickt“, muss damit rechnen, von der Universität verwiesen zu werden. Ob sich dieses Risiko lohnt, muss jeder für sich entscheiden.
Können Korrektoren einen Text erkennen, der von ChatGPT verfasst wurde?
Kann ein Gutachter/eine Gutachterin erkennen, ob ein Text von ChatGPT stammt? Um es mit den Worten der Hamburger Hip-Hop-Band Fettes Brot zu sagen: JEIN!
Wer schon einmal mit ChatGPT experimentiert hat, weiß, dass die generierten Texte in der Regel stilistisch gut sind. Zudem kann das Textniveau per Prompt angepasst werden (z.B. „Erkläre die Relativitätstheorie kindgerecht, so dass der Text von einem Viertklässler verstanden wird“; „Schreibe einen wissenschaftlichen Fachartikel zum Thema X“). Die Texte aus ChatGPT sind zudem frei von Rechtschreibfehlern. Das können die meisten studentischen Arbeiten nicht von sich behaupten. Es ist daher wahrscheinlich, dass in einer studentischen Arbeit, in der Passagen aus der Feder von ChatGPT übernommen wurden, stilistische Brüche auftreten, die zumindest Nachfragen provozieren. Auch der typische Aufbau einer ChatGPT-Antwort (Paraphrasierung der Frage, Auflistung der Antwortmöglichkeiten, Zusammenfassung und Relativierung/Ausblick) ist sehr speziell und würde einem Korrektor vermutlich auffallen.
Ein deutliches Indiz dafür, dass ein Text ganz oder teilweise von einem Chatroboter verfasst wurde, ist das Fehlen von Quellenangaben. Eine solche Arbeit würde schon aus formalen Gründen nicht angenommen.
Erste Firmen bieten Software an, die angeblich in Analogie zur automatisierten Plagiatsprüfung erkennt, ob ein Text mit Hilfe von ChatGPT erstellt wurde. Ob dieses Versprechen eingehalten wird, kann ich nicht beurteilen. Ich bezweifle aber, dass derzeit viele Bildungseinrichtungen über eine solche Prüfsoftware verfügen.
Nutzen von ChatGPT im Studium
Kann und darf ChatGPT jetzt also gar nicht im Studium verwendet werden?
Auf jeden Fall. In vielerlei Hinsicht ist ChatGPT das bessere Google und die komfortablere Wikipedia. Die Möglichkeit eine passgenaue Antwort auf eine spezifische Frage zu erhalten sind großartig und können im Studium von großem Nutzen sein. So ließe sich in kurzer Zeit ein Überblick über einen neuen Themenbereich gewinnen. Auch bei der Nachbereitung von Lehrinhalten kann ein LLM hilfreich sein, wenn ein Vorlesungsskript oder die eigenen Unterrichtsnotizen ergänzt werden.
Beim Verfassen einer wissenschaftlichen Arbeit ist der Einsteg in ein Thema oftmals am schwierigsten. Ist die „Angst vor dem weißen Blatt“ einmal überwunden und die ersten Absätze geschrieben, fällt das Schreiben der weiteren Arbeit zumeist leichter. Hier kann ChatGPT eine gute Hilfe sein, um Schreibblockaden zu überwinden und einem Text eine vorläufige Grobstruktur zu geben. Entscheidend ist hier, dass die anfänglich übernommenen Textpassagen später sprachlich überarbeitet, durch Quellenangaben ergänzt und der Gesamtstruktur der Arbeit angepasst werden.
Der Graubereich – KI als Schreibhilfe
Aus den oben angeführten Gründen ist von der Nutzung von ChatGPT zur Erstellung von Prüfungsleistungen abzuraten. Allerdings gibt es andere Systeme und Software-Produkte, die das Verfassen wissenschaftlicher Texte vereinfachen. Ob der Einsatz dieser Dienste im Einklang mit der Prüfungsordnung der jeweiligen Bildungseinrichtung steht, wäre im Vorfeld zu prüfen. Klar ist, dass bei den nachfolgenden Hinweisen eine eigenständige Leistung erbracht werden muss und keine Texte auf „Knopfdruck“ generiert werden.
DeepL ist vielen Menschen vermutlich als Übersetzungsdienst bekannt. Die KI von DeepL kann seit kurzer Zeit jedoch auch Texte stilistisch überarbeiten. Wird beispielsweise der katastrophale Satz: „Die bolizeiliche Griminalstatitik tut Fälle zählen die wo aufgeklärt und die wo nicht aufgeklärt sind.“ an das System von DeepL Write übermittel, wird folgende Formulierung vorgeschlagen: „In der Polizeilichen Kriminalstatistik werden die aufgeklärten und die nicht aufgeklärten Fälle erfasst.„. DeepL Write wird damit zur Alternative vom Microsoft Office Thesaurus und automatisiert das Korrekturlesen.
Andere KI-Anwendungen versprechen Unterstützung bei der Lektüre von Fachartikeln. Explainpaper, Scispace oder Chat with any PDF beantworten Fragen zu einer beliebigen PDF, die Nutzer einmal hochgeladen haben. Die Dienste versprechen, dass sich so komplizierte und komplexe Fachaufsätze schneller erfassen lassen, indem z.B. Zusammenfassungen der Kernaussagen automatisch generiert werden. Die eigenständige Bearbeitung eines plagiatsfreien Textes wird durch die Nutzung dieser Dienste nicht eingeschränkt. Sofern die automatisiert erstellten Paraphrasierungen nicht unverändert in die eigene Arbeit übernommen werden, spricht nichts gegen die Nutzung dieser Systeme.
Der Dienst jenni verspricht „to supercharge your writing“ und bietet einen Online-Schreibeditor mit einer Schnittstelle zur aktuellsten Version von ChatGPT. Damit sollen Schreibblockaden leichter überwunden werden können. In der kostenlosen Version des Programms können allerdings nur 200 von der KI generierte Wörter pro Tag in den eigenen Text übernommen werden. Wer diese Beschränkung aufheben möchte, muss ein kostenpflichtiges Abonnement abschließen. Zusätzlich zu dieser „Schreibhilfe“ können die Nutzerinnen und Nutzer PDFs hochladen und sich zu den entsprechenden Textstellen passende Quellen und Zitate vorschlagen lassen. Diese können dann im gewünschten Zitationsstil übernommen werden. Damit ist jenni eindeutig die bessere Wahl für das Schreiben wissenschaftlicher Texte. Im Gegensatz zur Kernfunktion von ChatGPT können auch aktuelle Fachartikel, die nach 2021 erschienen sind, verarbeitet und Aussagen mit Quellen belegt werden. Allerdings kann hier nur sehr eingeschränkt von einer eigenständigen Bearbeitung gesprochen werden.
Zukunft der schriftlichen Leistungsnachweise im Bildungsbereich
Künstliche Intelligenz ist eine disruptive Technologie, die die universitäre Lehre in ihrer heutigen Form nachhaltig verändern wird. Bereits in der ersten Programmversion 3.5 (bzw. 4.o als kostenpflichtige Version) sind die Ergebnisse von ChatGPT beeindruckend. Es ist zu erwarten, dass spätere Programmversionen oder alternative KI-Modelle noch bessere Antworten liefern, Daten in Echtzeit verarbeiten und noch spezifischer auf bestimmte Aufgabenbereiche zugeschnitten werden können.
Der Einsatz von ChatGPT im Studium macht eine objektive Bewertung eines schriftlichen Leistungsnachweises unmöglich und läutet insofern das Ende der Prüfungsleistung „Hausarbeit“ ein. Gleiches gilt natürlich auch für umfangreichere schriftliche Abschlussarbeiten. Hier könnte allenfalls eine enge Betreuung durch die Gutachterinnen und Gutachter den Denk- und Schreibprozess begleiten und insofern zumindest teilweise eine eigenständige Bearbeitung des Themas sicherstellen. Auch die Verpflichtung, im Rahmen umfangreicherer Bachelor- und Masterarbeiten empirisch zu arbeiten und eigene Daten zu erheben, wäre eine Lösung, um eine erbrachte Eigenleistung sicherzustellen. Auch eine stärkere Gewichtung einer Disputation/Kolloquium, in der die schriftlich erbrachte Leistung erläutert und verteidigt wird, würde Raum für eine objektive Bewertung der individuell erbrachten Leistung lassen.
Mittelfristig ist davon auszugehen, dass die klassische Hausarbeit aus den Lehr- und Prüfungsplänen verschwindet und mündliche Prüfungen an Bedeutung gewinnen.
Langfristig ist das Verfassen wissenschaftlicher Texte keine notwendige Kompetenz, die allen Studierenden vermittelt werden muss. Spätestens dann, wenn KI viele Arbeitsbereiche durchdrungen hat, stellt sich die Frage, warum Studierende überhaupt lernen sollen, einen Text zu verfassen, der von einer KI auf Knopfdruck in ähnlicher oder gar besserer Form und in deutlich kürzerer Zeit erstellt werden kann. Stattdessen könnte darüber nachgedacht werden, alternative Kompetenzen zu vermitteln, die auf einen sicheren Umgang mit KI-Systemen abzielen (z.B. rechtliche, moralische, ethische Fragen adressieren) oder solche, die bis auf weiteres nicht durch eine KI ersetzt werden können (z.B. Kommunikationstraining).
Nachtrag vom 07.10.2023
Die Deutsche Forschungsgemeinschaft hat Leitlinien zum Umgang mit KI in den Wissenschaften formuliert. Die Pressemitteilung ist hier zu finden: KI, ChatGPT und die Wissenschaften – DFG formuliert Leitlinien für Umgang mit generativen Modellen zur Text- und Bilderstellung