News

ChatGPT: Einschätzungen von LMU-Forschenden

20.02.2023

Was kann das Modell ChatGPT und welche Herausforderungen wirft die Technologie auf? Antworten aus verschiedenen Fachrichtungen.

Was ist vom Textroboter ChatGPT zu halten? Ein Medieninformatiker, eine Informatikerin, ein Pädagoge und ein Jurist geben Antwort

Neue KI-Werkzeuge sinnvoll einsetzen

Prof. Albrecht Schmidt

Albrecht Schmidt ist Inhaber des Lehrstuhls für Human-Centered Ubiquitous Media der LMU. | © LMU

Frage an Medieninformatiker Albrecht Schmidt: Wie sollten wir mit einer KI wie ChatGPT umgehen?

Menschen erschaffen und nutzen Werkzeuge. Menschen entwickeln immer neue Ideen, wie sich Aufgaben durch Hilfsmittel vereinfachen lassen. Die heutige Gesellschaft ist ohne umfassende und allgegenwärtige Nutzung von technologischer Innovation unvorstellbar.

Durch Künstliche Intelligenz (KI) werden unterschiedlichste Werkzeuge für die kognitive Unterstützung von Menschen möglich. In vielen Lebensbereichen wird in Zukunft KI Menschen beim Lösen von kognitiven Aufgaben unterstützen.

Der bevorstehende Entwicklungsschritt lässt sich durchaus mit der Erfindung der Schrift vergleichen. Die Nutzung von Schrift hat die Gesellschaften verändert. Viele schwierige kognitive Aufgaben wurden trivial. Das hat den Wert von intellektuellen Fähigkeiten verändert. Entwicklungen wie die Schrift oder der Buchdruck haben auch Lernen und Lehren in einer Gesellschaft verändert. Durch KI wird die kognitive Unterstützung von Menschen durch digitale Werkzeuge massiv verstärkt. Menschen erhalten neue Fähigkeiten, die vor wenigen Jahren kaum vorstellbar waren. ChatGPT oder DALL-E sind der rudimentäre Anfang solcher neuen Werkzeuge, die aber zum ersten Mal viele Menschen erahnen lassen, welche Möglichkeiten sich eröffnen. Wir werden in den nächsten Jahren rasante Fortschritte in Bezug auf die Nutzbarkeit und Nützlichkeit sehen.

Als Gesellschaft sollten wir verstehen, wie diese neuen kognitiven Werkzeuge sinnvoll eingesetzt werden können und wie wir damit unsere intellektuellen Fähigkeiten verbessern können.

Als Einzelne sollten wir neugierig sein, wie wir diese Werkzeuge kreativ nutzen können, was wir damit Neues tun können und wie wir uns damit intellektuell weiterentwickeln können. Es ist wichtig zu lernen, wie man KI sinnvoll nutzt – als Individuum und als Gesellschaft. Im Gegensatz zum Schreiben und Lesen, was über lange Zeit Wenigen vorbehalten war, sollten wir KI von Anfang an für möglichst viele Menschen in der Gesellschaft nutzbar machen.

Veranstaltung zu ChatGPT: Zur Aufzeichnung bei Youtube

„ChatGPT ist der Beginn einer neuen NLP-Ära – aber es ist noch ein langer Weg“

Prof. Barbara Plank

Barbara Plank ist Inhaberin des Lehrstuhls Chair for AI and Computational Linguistics am Center for Information and Language Processing der LMU. | © Jan Greune

Frage an Professorin für NLP und Informatikerin Barbara Plank: Was kann das Sprachmodell ChatGPT und wohin werden sich die Textroboter entwickeln?

„ChatGPT ist ein Beispiel eines Sprachverarbeitungsmodells aus der Computerlinguistik (auch: NLP). Es kann vieles, zum Beispiel Fragen beantworten, Texte generieren und auch Softwarecode schreiben. Texte aus Daten zu generieren, wie zum Beispiel Wetter- oder Sportberichte, ist einfach und weit verbreitet, Associated Press setzt sie bereits seit circa zehn Jahren ein. ChatGPT ist der Beginn einer neuen Ära im NLP: Modelle, die längere, flüssigere Texte produzieren können; Technologie, die mit dem Menschen interagiert und Texte produziert, die bemerkenswert redegewandt aussehen.

Aber Fragen sachlich richtig zu beantworten, da stößt man an seine Grenzen. ChatGPT versteht die Essenz einer Frage nicht. Ein großes Problem bleibt auch das Vermeiden von Bias, und die sogenannte Halluzination. Halluzination bezieht sich auf das Phänomen, dass ein KI-Modell eine Antwort generiert, die nicht sinnvoll, unlogisch oder nicht relevant ist. Das kann sogar gefährlich werden, wenn man einem generierten Text blind vertraut. Eine weitere Herausforderung: Es ist zunehmend schwieriger, KI-generierten Text von menschlichem Text zu unterscheiden.

News

Zum vollständigen Beitrag von Prof. Barbara Plank

Weiterlesen

Ist ChatGPT neu? Nein. ChatGPT wurde vor Kurzem veröffentlicht, ein ähnliches Modell gibt es bereits seit einem Jahr (InstructGPT, Januar 2022). Ein großer Unterschied zwischen den beiden ist der öffentliche Zugang: OpenAI hat ChatGPT auf seiner Plattform für die breite Öffentlichkeit zugänglich gemacht.

Im Vergleich zu älteren Modellen zeichnen sich neue Modelle wie ChatGPT durch die zunehmende Kohärenz und sprachliche Gewandtheit aus. Sie werden mit Unmengen an Textdateien aus dem Internet gefüttert, und bei ChatGPT anschließend mit sehr viel zusätzlichen Daten verfeinert, um sie für den Menschen interessanter und durch Filter auch sicherer zu machen, wofür es Stunden von menschlicher Arbeitskraft braucht.
ChatGPT und ähnliche Sprachverarbeitungsmodelle werden bleiben und die Zukunft mitgestalten, in vielen Bereichen. Sie zu verbessern und sicherer zu machen, hierfür sind Forschung und viele Ressourcen nötig.

Eine besondere Herausforderung ist das Lernen von Sprachvarianten, für die es wenig digitale Daten gibt. Daran arbeiten wir zurzeit auch in meinem vor Kurzem gestarteten ERC-Projekt „Natural Language Understanding for non-standard languages and dialects”.

ChatGPT und Co werden sich in Zukunft verbessern, sachlich korrektere Antworten,wahrscheinlich auch Quellenangaben liefern, die bei ChatGPT heute fehlen. Dafür braucht es meiner Meinung nach aber eine starke Verknüpfung mit Wissensdatenbanken und die Kooperation von Mensch und Maschine, denn ohne Kooperation kann die Maschine nur bis zu einem gewissen Grad Sprache verstehen und Aufgaben lösen.“

„ChatGPT wird die Bildungsarbeit fundamental verändern“

Porträt von Dr. Florian Schultz-Pernice

Dr. Florian Schultz-Pernice koordiniert das DigiLLab der LMU.

Frage an den Pädagogen Florian Schultz-Pernice: Was könnte ChatGPT dazu beitragen, Lehren und Lernen zu verbessern?

In der öffentlichen Diskussion zu ChatGPT geben sich Begeisterung und Befürchtungen die Hand. Wenn ein Konsens vorherrscht, ist es der, dass derartige Anwendungen die Bildungsarbeit an Schulen, Hochschulen und anderen Institutionen fundamental verändern wird – und zwar sowohl im Hinblick auf das Lernen wie das Lehren.

Lernenden steht mit einer Anwendung wie ChatGPT ein enorm leistungsfähiges Tool zur Verfügung: Geht es zum Beispiel darum, aus Texten zu lernen, so lassen sich mithilfe einer solchen KI etwa auf einfache Weise die Zusammenfassung einer Quelle, Quiz oder Tests erstellen, mit denen sich das eigene Verständnis überprüfen lässt.

Und was das eigene Schreiben angeht: Mithilfe derartiger Anwendungen lässt sich zum Beispiel Feedback zu dem eigenen Geschriebenen einholen, um dieses dann orthographisch, grammatikalisch oder stilistisch zu überarbeiten. Auch für die Seite der Lehre ergeben sich vielfältige Potenziale über alle Phasen lehrbezogener Aktivitäten hinweg, also von der Planung über die Durchführung bis zum Assessment und der Evaluation von Unterricht.

So kann KI auf der Basis von Large Language Models etwa bei der Planung von Lehre Vorschläge zur Auswahl und Strukturierung von Lehrinhalten generieren und dazu passende Aufgabenstellungen unterschiedlicher Schwierigkeitsgrade für die Differenzierung im Unterricht entwickeln. Wenn es um das Assessment geht, so kann eine Anwendung wie ChatGPT die Auswertung und Korrektur der Textproduktionen der Lernenden wirkungsvoll unterstützen und damit Zeitressourcen schaffen, die Lehrende dann für solche besonders anspruchsvollen Tätigkeiten verwenden, welche die KI (noch) nicht übernehmen kann.

News

Zum vollständigen Beitrag von Dr. Schultz-Pernice

Weiterlesen

Für beides, Lernen wie Lehren, gilt dabei jedoch zweifellos, dass der Nutzen von ChatGPT & Co. im Bildungsbereich umso größer sein wird, je kompetenter Lehrende wie Lernende mit dieser neuartigen Technologie umgehen können. Und dazu ist zweierlei notwendig:

Erstens erfordert die optimale Nutzung von Systemen wie ChatGPT digitalisierungsbezogene Kompetenzen. Zweitens ist zur produktiven Nutzung solcher Anwendungen für die eigene Bildung die souveräne Beherrschung der grundlegenden Kulturtechniken sowie auf das jeweilige Thema bezogene Fachkompetenz unabdingbar. Verbunden mit dem Willen, die Technologie nicht zur Vermeidung von Lernen, sondern als Instrument zur Förderung zu nutzen können sich ChatGPT und verwandte Anwendungen höchstwahrscheinlich als wertvolle Kooperationspartner in Bildungsprozessen erweisen.

Forschende der LMU, TU und Universität Tübingen haben einen Artikel über die Rolle sogenannter Large Language Models im Bildungsbereich veröffentlicht:

ChatGPT for good? On opportunities and challenges of large language models for education. In: Learning and Individual Differences April 2023

„Ein Computer – und sei es eine KI – kommt als Urheber nicht in Betracht“

Matthias Leistner ist Inhaber des Lehrstuhls für Bürgerliches Recht und Recht des Geistigen Eigentums mit Informationsrecht und IT-Recht.

Frage an Jurist Matthias Leistner: Welche Urheberrechtsfragen wirft der Textroboter ChatGPT auf?

Aus urheberrechtlicher Sicht sind mehrere Ebenen zu unterscheiden. Zuerst stellt sich die Frage nach der Inhaberschaft an Texten, die von ChatGPT produziert werden. Die Antwort fällt nach derzeit geltendem Recht mit gewissen Nuancierungen praktisch weltweit ähnlich aus: Ein menschlicher Urheber muss vorhanden sein, ein Computer – und sei es eine KI – kommt als Urheber nicht in Betracht.

Natürlich können Menschen durch ihre Steuerung der Algorithmen oder die aufwendige Auswahl und Nachbearbeitung letztlich veröffentlichter Texte zu Urhebern werden. Aber der bloße Anstoß durch Formulierung einer Frage oder Aufgabe an eine KI-Anwendung, wie ChatGPT, genügt hierfür nicht.

Das derzeit wesentlichere urheberrechtliche Problem liegt auf einer anderen Ebene: Kann ich mich als Nutzer auf die Urheberrechtsfreiheit der von der KI produzierten Texte im Hinblick auf die von den Algorithmen genutzten, im Netz zugänglich gemachten Ausgangsmaterialien verlassen? In dieser Frage ist Vorsicht geboten. Die unterliegende Software erstellt ihre Texte offenbar durch Einsatz probabilistischer Algorithmen auf der Grundlage mehr oder weniger direkt ausgewerteter Ausgangsmaterialien, die sie im Netz gescraped hat. Die Entwickler versichern, sämtliche insoweit verwendeten Materialien hätten in öffentlichen Quellen frei zur Verfügung gestanden und seien daher insoweit urheberrechtlich frei. So einfach liegen die Dinge aber – gerade im deutschen und kontinentaleuropäischen Urheberrecht – nicht unbedingt.

News

Zum vollständigen Beitrag von Prof. Matthias Leistner

Weiterlesen

Alleine die Tatsache, dass Texte im Netz zur Verfügung stehen, bedeutet nicht automatisch, dass sie auch flächendeckend für das Training oder den Einsatz im Rahmen von KI-Anwendungen weiterverwendet werden dürfen. Sind also insoweit verwendete Textversatzstücke umfänglich genug, um ihrerseits urheberrechtlich geschützt zu sein, könnte das „Produkt“ von ChatGPT doch Urheberrechte Dritter verletzen. Der Verwender, also der Nutzer der Software, haftet dann mit, wenn er die produzierten Texte urheberrechtsrelevant (also insbesondere außerhalb des rein privaten Bereichs) nutzt.

Aus wissenschaftlicher und rechtspolitischer Sicht stellen sich für die Zukunft ganz andere, grundlegendere Fragen. Um nur ein einziges Beispiel zu nennen: Wie sorgen wir künftig im Interesse einer dynamischen, innovativen Entwicklung im Bereich der Künstlichen Intelligenz dafür, dass die hierfür notwendigen Ausgangsmaterialien – also insbesondere Trainingsdaten jeglicher Couleur, die hier das wesentliche Bottleneck bilden – in hinreichendem Umfang unkompliziert zur Verfügung stehen? Erste Anfänge sind gemacht. Aber an dieser Stelle muss und wird die Diskussion in Europa und weltweit weitergehen."

Newsletter LMU aktuell

Der Newsletter „LMU aktuell“ erscheint monatlich und informiert über Aktuelles aus Forschung sowie Uni&Campus:
Newsletter abonnieren: Zur Abomaske

Wonach suchen Sie?