5 Fragen zu ChatGPT
Wie funktioniert das Sprachmodell ChatGPT?
Prof. Dr. Achim Rettinger (Computerlinguistik)
Schon vor ChatGPT kannte jeder Sprachmodelle, zum Beispiel als Autovervollständigung beim Schreiben von Textnachrichten. Mit Verfahren des maschinellen Lernens wird versucht, aus der Analyse von großen Sammlungen von Texten die Wahrscheinlichkeiten des Auftretens von Wörtern in einer Sequenz möglichst exakt zu schätzen. Hierfür
gibt es verschiedene informatische Methoden.
ChatGPT gehört zu den so genannten Transformern. In einem Transformer wird jedes Wort eines Textes zuerst durch eine Reihe aus Zahlen ersetzt.Diese werden dann in hunderten von Schritten immer weiter „transformiert“, bis sie Werte enthalten, aus denen der Computer die Wahrscheinlichkeit des nächsten Wortes im Satz treffsicher berechnen kann. Jeder Transformationsschritt wird schrittweise so angepasst, dass die Vorhersage des wahrscheinlichsten nächsten Wortes aus einem bekannten Text dem tatsächlichen Wort in dem Text entspricht. Dieser Vorgang wird als „Trainieren“ bezeichnet. Bekommt der Transformer danach den Beginn einer unbekannten Wortfolge, kann er dank der so von ihm „gelernten“ Transformationsfunktionen auch unbekannte Wortfolgen vervollständigen.
Das „Chat“ in ChatGPT benötigt noch einen weiteren Trainingsschritt. Damit man mit einem Sprachmodell Konversationen betreiben und sich Fragen beantworten lassen kann, muss es noch „instruction tuned“ werden. Dabei wird das auf Wortvorhersage optimierte Modell weiter verfeinert, um auf Nutzereingaben so zu reagieren, wie Menschen es erwarten. Dazu werden wieder enorme Datenmengen aus bestehenden Konversationen zwischen Menschen als Trainingsmaterial verwendet und letztlich auch Antworten des Modells auf menschliche Anfragen manuell bewertet, um zum finalen Optimieren eingesetzt werden zu können.
Muss ChatGPT stärker reguliert werden?
Benjamin Raue, Yvone Düpre, Antje von Ungern-Sternberg (Institut für Recht und Digitalisierung Trier)
ChatGPT ist von den Daten abhängig, mit denen der Chatbot trainiert wird. Deswegen können Informationen fehlerhaft oder verzerrt (biased) sein, was wiederum die Verbreitung von Fake News und Diskriminierung zur Folge haben kann. Außerdem wird bereits kontrovers diskutiert, wie es um die Rechte etwaiger Urheber der Ausgangsdaten (Texte, Bilder) bestellt ist. Ein weiteres Problem ist die Erkennbarkeit von KI-Erzeugnissen, was nicht nur für Prüfungen und Hausarbeiten, sondern auch darüber hinaus von Interesse ist.
Daher stellt sich die Frage, in welchem Umfang ChatGPT und andere generative KI-Modelle reguliert werden müssen. Sogar OpenAI-Chef Sam Altman hat sich für eine strikte Regulierung von KI-Systemen ausgesprochen. Dieser Ansicht ist auch die Europäischen Union, weshalb die Kommission den Entwurf eines KI-Gesetzes auf den Weg gebracht hat, den sogenannten „AI-Act“. Rat, Kommission und Parlament handeln den finalen Verordnungstext aus.
Der Entwurf des „AI-Act“ sieht vor, dass eingesetzte KI in Risikogruppen eingestuft werden, woran das Ausmaß der gesetzlichen Regulierungen bemessen wird. So treffen Nutzer, die Hochrisiko-KI verwenden (zum Beispiel KI bei kritischer Infrastruktur) höhere Auflagen als Verwender von KI mit begrenztem Risiko. Ziel ist es, dass die in der EU eingesetzte KI vertrauenswürdig, transparent, replizierbar, sicher und nichtdiskriminierend ist.
Das Europäische Parlament hat bei seinen Vorschlägen zum AI-Act bereits das Thema generative KI, die wie ChatGPT neue Texte, Bilder, Musik oder andere Inhalte erstellen kann, im Blick und will mit entsprechenden Verpflichtungen der Entwickler und Anbieter Grundrechtsschutz und Nichtdiskriminierung, Urheberechtsschutz und Transparenz gewährleisten (Art. 28 b AI Act-E).
Sollte die Weiterentwicklung von ChatGPT (für eine gewisse Zeit) gestoppt werden?
Dr. Asadeh Ansari-Bodewein (Philosophie)
Vermehrt werden Rufe nach einem Moratorium für die Entwicklung KI-basierter Anwendungen laut; neben den Warnungen prominenter Unternehmer, deren Motive undurchsichtig bleiben, sind seit dem Sommer – endlich – Stimmen aus Wissenschaft und Politik sowie Proteste von Autorinnen und Autoren, die durch ChatGPT ihr Urheberrecht bedroht sehen, zu vernehmen. Im Grunde kommen sie zu spät, hinken sie doch der rasanten Entwicklung stets hinterher; der derzeitige KI-Hochsommer, dessen Ende nicht absehbar ist, hat ja nicht erst im letzten Jahr begonnen.
Schleichend sieht sich die gesamte Gesellschaft mit einer Entwicklung konfrontiert, die bis vor kurzem nur von Spezialistinnen und Spezialisten wahrgenommen wurde. Was nun? Lassen wir Szenarien des Trans- und Posthumanismus sowie einer nahenden Superintelligenz beiseite (deren Zeitalter in den letzten Jahrzehnten schon mehrfach angekündigt wurde), so muss man trotzdem feststellen, dass die Gefahr, die vom Menschen ausgeht, um eine Variante reicher geworden ist: mit Hilfe von KI können Individuen, Gruppen oder Staaten einzelne Personen, Gruppen oder ganze Nationen in ihrer Sicherheit und in ihrer Freiheit bedrohen. Andererseits birgt KI enorme Möglichkeiten zum Wohl der Menschen und zur Lösung ihrer Probleme. Es kommt auf diejenigen an, in deren Händen sie sich befindet und die sie entwickeln bzw. ihre Programme schreiben; hier bedarf es schnellstens rechtlicher Regulierungen.
Was ChatGPT betrifft: wünschenswert wäre ein neues Bewusstsein für die Bedeutung der Kulturtechnik des Schreibens. Wie aber lernt man, gut zu schreiben? Zunächst einmal, indem man liest. Das aber braucht Zeit und Interesse; beides zu befördern ist nicht Sache der Universität (es wird von ihr vielmehr vorausgesetzt), sondern ein Kernauftrag an Elternhäuser und Schulen, wo Lese- und Schreibbiografien beginnen.
Wie verändert ChatGPT die Arbeitswelt?
Prof. Dr. Katrin Muehlfeld (Betriebswirtschaftslehre)
In der Vergangenheit hatten technische Innovationen wie der Computer typischerweise drei zentrale Wirkungen auf die Arbeitswelt: (1) Veränderung von Tätigkeitsinhalten und Arbeitsprozessen, (2) Wegfall bestehender Berufsbilder, (3) Entstehung neuer Berufsbilder (die oft höherwertiger, weniger anstrengend, eintönig oder gefährlich waren). Dass das grundsätzlich auch für ChatGPT – wie auch andere Chatbots auf Basis von Large Language Models – gelten wird, ist weitgehend unstrittig.
Diskutiert wird dagegen (1) die Geschwindigkeit der Veränderungen, (2) ihre inhaltlichen Schwerpunkte und – besonders kontrovers – (3) der „Nettoeffekt: Überwiegt die Schaffung neuer das Verschwinden alter Berufsbilder und Arbeitsplätze? Zunächst: Die Geschwindigkeit beeindruckt: Nur wenige Wochen, nachdem ChatGPT Ende 2022 frei zugänglich gemacht worden war, wurde bereits das „Prompt Engineering“ als neues Berufsbild diskutiert; wurden mit ChatGPT verfasste Bewerbungsschreiben verschickt; hatten sich erste Werbetexterinnen und -texter neue Jobs suchen müssen. Die inhaltlichen Schwerpunkte überraschen ebenfalls: Sie betreffen Bereiche, die noch vor Kurzem als „sichere Häfen“ menschlicher Arbeitskraft angesehen wurden: Kreativität und zwischenmenschliche Interaktion.
Die langfristigen Effekte lassen sich derzeit noch kaum prognostizieren. Einzelne Studien, die eine Annährung versuchen, sehen zum Beispiel bis zu ein Viertel aller Jobs in Europa und den USA als durch generative KI wie ChatGPT gefährdet. Aktuelle Klagen von Kulturschaffenden signalisieren die Besorgnis der Arbeitskräfte in kreativen Sektoren (zum Beispiel Autorinnen und Autoren). Andererseits zeigen sie aber auch, dass es rechtlich-regulatorische Gestaltungsspielräume gibt, wofür Chat GPT auf dem Arbeitsmarkt eingesetzt werden soll.
Wie sehr können wir ChatGPT vertrauen?
Prof. Dr. Thomas Ellwart (Wirtschaftspsychologie)
Die Antwort wird je nach Anwendungsfall unterschiedlich ausfallen. Vertrauen steht für die Bereitschaft, situativ Kontrolle an Technik wie ChatGPT zu geben und somit Risiken und Abhängigkeiten einzugehen. Es kann zwischen „blindem“ Übervertrauen und überkritischem Misstrauen liegen. Bei der Reflexion darüber, ob das eigene Vertrauen in ChatGPT gut kalibriert ist, helfen drei zentrale Vertrauensfaktoren:
Zuverlässigkeit. Menschen vertrauen Systemen, die zuverlässig korrekte Ergebnisse erzeugen. Hier überzeugt ChatGPT beispielsweise bei der Zusammenfassung eines gut dokumentierten Themas. Doch gibt es technische Grenzen und Fehler, die Nutzern bewusst sein sollten und menschliche Kontrolle erfordern. Dies gilt beispielsweise bei Antworten von ChatGPT zu komplexen Fragen.
Transparenz. Menschen vertrauen Systemen, die transparent und erklärbar agieren. Doch leider ist die Datenbasis von ChatGPT nicht transparent und Verarbeitungsprozesse sind kaum nachvollziehbar. Das Programm hat (nach eigener Aussage) „keinen direkten Zugriff auf spezifische Quellen.“
Nützlichkeit. Menschen vertrauen Systemen, die eine hohe persönliche Nützlichkeit aufweisen. Die Anwendungsbreite und Leistungsfähigkeit von ChatGPT trifft hier auf dankbare Nutzer, die Semesterarbeiten oder Vorträge bisher mit viel Aufwand selbst verfassten und dies jetzt kinderleicht im Chat erledigen. Dieser hohe Nutzen von ChatGPT steigert jedoch die Risikobereitschaft und das Übervertrauen.
Wir können ChatGPT also als technisches Werkzeug vertrauen, wenn wir als Nutzer die Expertise besitzen, Ergebnisse kritisch zu reflektieren, die Informationsbasis nachzuprüfen und neben positivem Nutzen auch unbeabsichtigte kritische Nebenwirkungen ausreichend beachten.