KI-ForschungKünstliche Intelligenz: Systeme wie ChatGPT an der Universität Hamburg
8. Juni 2023, von Marie Schlicht
Foto: Esfandiari/ Ethikrat/ privat (2)/ Sarah Buth
Seit November 2022 ist das Sprachmodell ChatGPT für die Öffentlichkeit zugänglich und Künstliche Intelligenz mehr denn je Gegenstand öffentlicher Debatten. Mittlerweile hat das US-amerikanische Unternehmen OpenAI die vierte Version, ChatGPT-4, auf den Markt gebracht. An der Universität Hamburg wird seit einigen Jahren zu diesem und ähnlichen KI-basierten Modellen geforscht. Fünf Wissenschaftlerinnen und Wissenschaftler erzählen von ihrer Arbeit zu ethischen, technischen und juristischen Gesichtspunkten und warum ChatGPT zu Rassismus neigt.
Fragt man ChatGPT selbst, handelt es sich bei dem System um „ein fortschrittliches Sprachmodell, das in der Lage ist, menschenähnliche Antworten auf natürliche Spracheingaben zu generieren.“ (Abgefragt am 13.04.2023) Das Modell ist ein digitales Tool, das auf Künstlicher Intelligenz basiert und mit Menschen interagieren kann. Zu seinen automatisierten Funktionen gehören beispielsweise Texte zusammenfassen oder vervollständigen, Software-Code schreiben und Übersetzungen erstellen.
Doch wie funktioniert ChatGPT?
Um Spracheingaben zu verstehen und beantworten zu können, wurde ChatGPT mit unzähligen Daten aus dem Internet trainiert. Bei diesem Training werden die Daten in einzelne Wörter („Token“) zerlegt und das System lernt aus den Mustern, in denen sie vorkommen: Wie sind Sätze strukturiert? Was bedeuten Wörter in unterschiedlichen Kontexten? Durch das Erlernte kann das Modell Wahrscheinlichkeiten für einen nächsten Token errechnen und passende Antworten erstellen.
An der Universität Hamburg wird sich schon lange mit den Funktionsweisen, ethischen Hürden und rechtlichen Rahmenbedingungen von Sprachmodellen und Künstlicher Intelligenz im Allgemeinen beschäftigt. Fünf Forscherinnen und Forscher erzählen von ihren Forschungsschwerpunkten, wie Künstliche Intelligenz die Forschung verändern wird und was derzeit die größten Hindernisse sind.
Forschungsfelder der Professorinnen und Professoren
- Name: Prof. Dr. Chris Biemann
- Fachbereich: Informatik
- Professur: Professor für Language Technology
„Als Sprachtechnologe forsche ich daran, wie man Computern Sprache beibringen kann. Ziel meiner Arbeit ist es, das Sprachverstehen von KI-Systemen zu erhöhen um sie damit für verschiedene Aufgaben nutzbar zu machen. Durch Modelle wie ChatGPT hat sich das Feld in kurzer Zeit rapide entwickelt.
Früher haben Sprachmodelle so funktioniert, dass Texte aufgrund von Wahrscheinlichkeiten auf sehr begrenztem Kontext entstanden sind: Ein System bekam die ersten beiden Wörter eines Satzes und konnte dann über eine Wahrscheinlichkeitsverteilung errechnen, wie das dritte Wort lauten soll. Mit ChatGPT kam dann ein Durchbruch. Neue Systeme können nicht mehr nur zwei Wörter, sondern ganze Texte in Betracht ziehen, wenn sie ihren Output generieren. Auch zwischen gleichen Wörtern, die in unterschiedlichen Kontexten verschiedene Bedeutungen haben, wie etwa ,Jaguar‘ können die neuen Systeme problemlos unterscheiden.
Die Zukunft sehe ich in KI-Systemen, die bestehende Verfahren automatisieren. Diese wird grundlegend verändern, wie wir Forschung betreiben – man wird beispielsweise qualitative Methoden quantitativ unterstützen können und somit beide Methoden synergetisch weiterentwickeln. Mit dem Projekt D-WISE wird jetzt bereits erforscht, inwiefern digitale Verfahren in qualitativen diskursanalytischen Wissensproduktionen sinnvoll sind.“
- Name: Prof. Dr. Eva Bittner
- Fachbereich: Informatik
- Professur: Professorin und Leiterin der Forschungsgruppe für „Information Systems and Socio-Technical Design"
„Ich möchte Systeme entwickeln, die reale Probleme lösen. Dabei fokussiere ich mich auf die Felder, in denen hybride Intelligenz eine Rolle spielt, also bei denen sich Mensch und Maschine in der Zusammenarbeit ergänzen. Das funktioniert beispielsweise besonders gut in der Kreativarbeit oder bei der Lösung komplexer Probleme, denn Systeme wie ChatGPT sind wirkungsvolle Hilfen auf der Suche nach Inspiration. Bei diesen Aufgaben gibt es meist keinen klar definierten Lösungsraum, nicht unbedingt ein ,Richtig‘ und ein ,Falsch‘. Umso wichtiger ist es, alle Antworten kritisch zu hinterfragen, denn die Systeme machen nach wie vor Fehler. Die Qualität der Antworten ist gerade bei komplexen Aufgaben nur begrenzt automatisiert überprüfbar und erfordert menschliche Urteilsfähigkeit.
Momentan experimentieren mein Team und ich daran, wie ChatGPT für kreatives Brainstorming eingesetzt werden kann. Wie verhalten sich Menschen eigentlich mit solchen Systemen? Welche Informationen sind sie bereit preis zu geben? Welche Prompting-Strategien führen zu besseren Ideen? Bisher gibt es erst anekdotische Erkenntnisse. Zum Beispiel: Je präziser gefragt wird, desto besser werden die Antworten.
Wir arbeiten auch daran, wie man die Systeme in der Lehre einsetzen kann. Es wird ja vor allem darüber diskutiert, was für eine Bedrohung sie darstellen, vor allem für Prüfungen. Man kann die Systeme jedoch auch sinnstiftend verwenden, zum Beispiel um in begrenzter Zeit tiefer in Themen und Methoden einsteigen zu können oder um die kompetente und kritische Nutzung von KI-Werkzeugen selbst zu trainieren.“
- Name: Prof. Dr. Tilo Böhmann
- Fachbereich: Informatik
- Professur: Professor für IT-Management und -Consulting (ITMC)
„Ich interessiere mich als Wirtschaftsinformatiker vor allem für den Einsatz innovativer Technologien in Wirtschaft und Verwaltung. Durch solch große Sprachmodelle wie ChatGPT werden sich viele Prozesse in Wirtschaft und Verwaltung neu erfinden müssen. Darum befasse ich mich mit drei Fragestellungen: Welche Anwendungsfälle gibt es in Wirtschaft und Verwaltung, die zu wirksamen Verbesserungen für die Organisationen, Mitarbeitenden und Kunden führen? Wie muss der regulatorische Rahmen dafür ausgestaltet sein? Und wie verändert KI die Aufgaben- und Verantwortungsbereiche im Unternehmen? Langfristig wird es wohl darauf hinauslaufen, dass sich KI-Systeme immer mehr in bestehende Softwareanwendungen wie Microsoft Teams integrieren werden. Dadurch wird KI immer personalisierter und unsichtbarer werden. Eine Frage, die wir uns dann stellen sollten, ist: Wollen wir das so?
Ein anderes Projekt, an dem ich gerade arbeite, ist durch unseren Prompt-a-thon an der Uni Hamburg entstanden. Der Prompt-a-thon war ein Event, bei dem viele verschiedene Menschen aus der Stadt mithilfe von ChatGPT an den Lösungen von unterschiedlichen Aufgaben gearbeitet haben. Mithilfe der Daten arbeiten die Forschungsgruppen von meiner Kollegin Eva Bittner und mir nun an einer Publikation. Es wird darum gehen, wie sich die verschiedenen Gruppen den Lösungen angenähert haben und was dabei gut und was nicht so gut funktioniert hat. Der Kreativität sind dabei keine Grenzen gesetzt: Eine Gruppe hat es sogar geschafft einen Popsong zu schreiben – allerdings nicht nur mit ChatGPT.“
- Name: Prof. Dr. Anne Lauscher
- Fachbereich: Data Science
- Professur: Professorin für Data Science
„In dem breiten Feld Data Science beschäftige ich mich mit unstrukturierten Daten und der Frage der Kommunikation von morgen. Dabei liegt mein Fokus auf KI-Systemen wie ChatGPT, mit denen Menschen interagieren können. Ziel meiner Forschung ist es, diese neue Art der Kommunikation effektiv zu gestalten. Das bedeutet aber nicht nur, dass sie technisch funktionieren soll (zum Beispiel arbeiten wir in diesem Kontext daran, Systeme mit mehr Wissen zu ,versorgen‘), sondern vor allem, dass sie fair und inklusiv sein soll – denn noch stecken die Systeme beispielsweise voller Stereotype.
Das hat folgenden Grund: Die Modelle lernen ihr Sprachverstehen und ihre Sprachgenerierung durch die große Menge von Daten, die ihnen gezeigt werden. Das sind zum Beispiel Daten aus dem Internet, wie Wikipedia-Einträge. Doch auch die stecken voller Stereotype. Darum haben die Modelle gelernt, Frauen eher mit Wörtern wie ,Familie‘, Männer eher mit Wörtern wie ,Karriere‘ zu assoziieren. Ähnliches gilt für Rassismus, Antisemitismus oder Homophobie. Eine Möglichkeit das zu beheben, ist beispielsweise, die Systeme mit neutralisierenden Daten zu weiter zu trainieren (Data-based Bias Mitigation). Eine andere Möglichkeit ist es, die Trainingsziele des Modells anzupassen (Loss-based Bias Mitigation), das heißt, die Modelle werden ,bestraft‘, wenn sie Stereotype generieren. Eines meiner Ziele ist es also, zukünftige KI-basierte Kommunikation vorurteilsfreier zu gestalten.“
- Name: Prof. Dr. Judith Simon
- Professur: Professorin für Ethik in der Informationstechnologie
„Als Professorin für Ethik in der Informationstechnologie beschäftige ich mich mit ethischen, erkenntnistheoretischen und politischen Fragen rund um digitale Technologien und da ist KI natürlich ein wichtiges Thema. Rund um Systeme wie ChatGPT gibt es eine ganze Reihe von ethischen Fragen, die für unterschiedliche Akteurinnen und Akteure wichtig sind. Nutzerinnen und Nutzer zum Beispiel dürfen es nicht zu täuschenden Zwecken verwenden – also nicht so tun, als hätten sie ihre Hausarbeit selber geschrieben, aber dabei war es ChatGPT. Und sie dürfen auch nicht darüber getäuscht werden, dass sie mit KI interagieren oder über die Grenzen dieser Tools im Dunkeln gelassen werden.
Bis vor kurzem habe ich außerdem die Arbeitsgruppe ,Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz‘ des Deutschen Ethikrates geleitet. Dort haben wir untersucht, was passiert, wenn man Tätigkeiten, die zuvor Menschen ausgeführt haben, nun an Maschinen delegiert und das wiederum auf den Menschen zurückwirkt. Ist solch eine Delegation eine gute Idee? Oder wird die Freiheit des Menschen zu sehr eingeschränkt? Ist die Privatsphäre der Menschen ausreichend geschützt? Dies haben wir in den Bereichen Bildung, Medizin, der öffentliche Verwaltung und sowie der öffentlichen Kommunikation und Meinungsbildung untersucht. Eine zentrale Einsicht ist: Der Teufel steckt oft im Detail. Man muss sehr genau überprüfen, wie KI-Systeme genau funktionieren und in welchen Kontexten sie eingesetzt werden können.“