Brownbag Session zum Thema ChatGPT

In dieser Brownbag-Session informierte Prof. Dr. Doris Weßels über tiefergehende Strukturen von ChatGPT und unter anderem über Konsequenzen für die Arbeit der Lehrenden an Hochschulen bezüglich ChatGPT.
Zu Beginn erläuterte Prof. Weßels die Historie und die Grundlagen von ChatGPT.

ChatGPT wurde von OpenAI aus San Francisco entwickelt und am 30. November letzten Jahres veröffentlicht. Das Ziel von ChatGPT ist es, menschenähnliche Gespräche zu führen und dem Benutzer das Gefühl zu geben, mit einer realen Person zu sprechen. Dazu passt der Chatbot seine Antworten und seinen Schreibstil an den des Benutzers an und versucht, eine natürliche Konversation zu führen.

Dieses für Dialoge optimierte KI-System ist eine neue Form von Benutzerschnittstelle zu dem Sprachmodell GPT-3.5, das aus dem Basismodell GPT-3 durch ein Spezialtraining mit menschlichen Testern weiterentwickelt wurde, dem sogenannten „Reinforcement Learning with Human Feedback (RLHF)“. Das dahinter liegende Modell GPT-3 verfügt über 175 Milliarden Parameter und zeigt eine beeindruckende Leistungsstärke und Einsatzvielfalt, was es zu einem der weltweit führenden Sprachmodelle macht. Das Funktionsprinzip basiert darauf, dass derartige KI-Sprachmodelle durch maschinelles Lernen auf großen Mengen von Texten trainiert werden, um Muster in der Sprache zu erkennen und diese hinterher eigenständig bei der Generierung von Texten umsetzen zu können.

Der Chatbot nutzt diese Fähigkeit, um auf Fragen oder Aussagen von Benutzern zu reagieren, indem er eine „angemessene Antwort“ auf Basis seines KI-Sprachmodells generiert. Um eine Antwort zu generieren, verwendet ChatGPT über den Gesprächsverlauf hinweg kontextbezogene Informationen aus der Frage oder dem vorherigen Dialogverlauf, um eine passende Antwort zu generieren. Der Chatbot ist wie ein Tausendsassa und kann für unterschiedlichste Themenbereiche eingesetzt werden. Obwohl ChatGPT vor allem auf Antworten in englischer Sprache trainiert wurde, ist das Tool multilingual und soll insgesamt 95 Sprachen beherrschen.

Wie genau werden die Texte von ChatGPT erstellt?
Die Sätze, die von ChatGPT generiert werden, basieren auf der Fähigkeit des Modells, Sprachmuster und -strukturen zu erkennen und zu reproduzieren. Wenn eine Frage oder Aussage an den Chatbot gerichtet wird, analysiert das Modell den Kontext und verwendet das Wissen, das es durch das Training auf großen Mengen von Texten erworben hat, um eine passende Antwort zu generieren.  Prof. Dr. Doris Weßels zeigte live auf dem Playground von OpenAI diesen statistischen Auswahlprozess, bei dem das KI-System Texte in kleinen Einheiten (sogenannten Tokens) nach und nach autoregressiv generiert. Wichtig dabei ist, dass die auf diese Weise generierten Texte keine Plagiate sind, sondern einzigartige Texte und somit Unikate darstellen.

Ist ChatGPT „intelligent“, hat es ein eigenes Bewusstsein?
ChatGPT ist keine tatsächliche "Intelligenz", sondern nur eine „maschinelle Intelligenz“, d.h. ohne ein Bewusstsein wie bei uns Menschen. Der zugrundeliegende Mechanismus, mit dem generative Sprachmodelle wie GPT-3 bzw. GPT-4 (veröffentlicht am 14.03.2023) plausibel wirkende Texte generieren können, besteht darin, dass sie ohne jegliches semantisches Textverständnis und nur aufgrund der erlernten statistischen „Plausibilitäten“ immer umfangreichere und qualitativ hochwertiger anmutende Texte generieren können.

Inwieweit ist ChatGPT ein Problem für Hochschulen?
Die Verwendung von ChatGPT zur Erstellung von akademischen Arbeiten führt zu vielfältigen rechtlichen Fragestellungen (Urheber-, Haftungs-, Strafrecht) bis hin zu neuen Fragestellungen der akademischen Integrität (z.B. neuen Formen der Kennzeichnungspflichten und Eigenständigkeitserklärungen). Prof. Dr. Doris Weßels hat nach der Veröffentlichung von ChatGPT bereits am 20. Dezember letzten Jahres für die Fachzeitschrift „Forschung und Lehre“ auf neue Herausforderungen hingewiesen und zugleich Zukunftsthesen formuliert. Die am 23. März mit 250 angemeldeten Bildungsexpert*innen durchgeführte Gründungskonferenz des neuen KI-Kompetenzzentrums hat das Spektrum von Potenzialen und Herausforderungen gleichermaßen widergespiegelt.

Wenn Studierende oder Forschende künstliche Intelligenzen wie ChatGPT verwenden, um automatisch Texte zu generieren oder Aufgaben auszuführen, ist die fehlende Faktentreue noch immer ein großes Problem. Generiert ChatGPT auf Anwenderwunsch z.B. eine Literaturliste, sind die dort genannten Quellen in der Regel fiktiver Natur. Das bedeutet, dass alle von ChatGPT generierten Texte und Angaben derzeit unbedingt überprüft werden müssen. 

Bieten Entwicklungen wie ChatGPT auch Chancen für Hochschulen?
Prof. Dr. Doris Weßels betonte die Ambivalenz dieser Entwicklung: „Diese Technologie hat zwei extrem stark ausgeprägte Seiten der Medaille. Neben den neuartigen Herausforderungen und Risiken bieten sich uns auch neue Formen für Lehre und Lernen, die wir in der Form vorher nicht hatten“. Sie zeigte durch Eingabe einfacher „Prompts“ (Benutzereingaben), wie einfach es ist, sich mit ChatGPT z.B. den eigenen Vokabel-, Mathematik- oder auch Verhandlungstrainer zu generieren und mit diesen digitalen ChatGPT-Trainern selbstbestimmt und eigenständig zu trainieren. Perspektivisch können nahezu alle Schulfächer durch diese neue Form des Lernens unterstützt werden. Gleiches trifft für unsere Module im Hochschulbereich zu. Damit geht ein Rollenwechsel einher und wird die Lehre und das Lernen der Zukunft gravierend verändern.

Worin sehen die Menschen grundsätzlich eine reelle Gefahr durch die Anwendung von ChatGPT?
 

  1. Fehlinformationen und Manipulation: ChatGPT könnte verwendet werden, um falsche Informationen oder Propaganda zu verbreiten, indem es automatisierte Antworten generiert, die Menschen dazu bringen, Fehlinformationen zu glauben oder eine bestimmte Meinung zu unterstützen.
  2. Datenschutz und Sicherheit: Da ChatGPT und ähnliche Modelle auf großen Mengen von Textdaten trainiert werden, können sie möglicherweise auch auf private und vertrauliche Informationen zugreifen. Wenn diese Informationen in die falschen Hände geraten, kann dies zu schwerwiegenden Datenschutzverletzungen führen.
  3. Arbeitsplatzverluste: ChatGPT und ähnliche Technologien könnten Arbeitsplatzverluste verursachen, da sie in der Lage sind, menschliche Arbeit in Bereichen wie Kundenservice, Übersetzung und Schreibarbeit zu automatisieren.
  4. Künstliche Intelligenz Bias: ChatGPT und ähnliche Technologien könnten vorhandene Vorurteile und Stereotypen aus den Trainingsdaten übernehmen und diese verstärken. Dies kann zu diskriminierenden oder ungerechten Entscheidungen führen, wenn diese Technologien bei der Entscheidungsfindung eingesetzt werden.
  5. Abhängigkeit von Technologie: ChatGPT und ähnliche Technologien könnten dazu führen, dass Menschen zunehmend von Technologie abhängig werden, um Entscheidungen zu treffen oder Probleme zu lösen, anstatt selbst kritisch zu denken oder unabhängig zu handeln.

Text und Bild: Matthias Dressler
(veröffentlicht: 17.04.2023-ra)