Um diese Frage zu beantworten, hat Teresa Staiger für change – das Magazin der Bertelsmann Stiftung – dem viel diskutierten Chatbot eine Aufgabe gestellt – und deren Erledigung geprüft und bewertet. Immer wieder zeigt sich: Der Einsatz von ChatGPT kann hilfreich sein, sein Output muss aber stets kritisch reflektiert werden.

 

Was ist ChatGPT?

ChatGPT ist ein Chatbot, der von dem US-amerikanischen Unternehmen OpenAI entwickelt und im November 2022 veröffentlicht wurde. Der Chatbot basiert auf einem komplexen Sprachmodell namens GPT-3 (Generativ Pre-trained Transformer 3), das kontinuierlich weiterentwickelt wird. Es basiert auf maschinellem Lernen, bei dem Algorithmen darauf trainiert werden, natürliche Sprache zu generieren und zu „verstehen“. Das Modell analysiert dabei Texte, um per Wahrscheinlichkeitsrechnung Vorhersagen über das nächste Wort oder die nächste Phrase zu treffen, und erzeugt dann auf dieser Grundlage einen neuen Text. Es versteht dabei aber nicht den Kontext des Textes. GPT-3 ist leistungsfähiger als vorherige Modelle, da es 175 Milliarden Parameter verarbeitet. Die Vorgängerversion GPT-2 konnte 2019 nur 1,5 Milliarden Parameter verarbeiten – ein gewaltiger Sprung in der Komplexität.

ChatGPT hat viele Stärken, wie zum Beispiel die Fähigkeit, kohärente Antworten auf eine Vielzahl von Themen geben, und kann in vielen Bereichen ein nützlicher Alltagshelfer sein. Es kann das E-Mail- Schreiben erleichtern, Wissen kompakt zusammenfassen oder als Inspirationsquelle dienen. Ein großes Problem ist, dass es ungenaue oder unpassende Antworten geben kann, weil es sich auf die Daten verlässt, mit denen es trainiert wurde. Diese Daten sind häufig verzerrt oder unvollständig, und so kann es Antworten liefern, die diese Verzerrungen oder Ungenauigkeiten widerspiegeln, wie etwa dass gute Wissenschaftler ausschließlich männlich sind. Auch kann das Modell so trainiert werden, dass es Desinformationen, Propaganda oder andere manipulative und falsche Inhalte generiert, die dann schnell und skaliert verbreitet werden können, ohne dass die Nutzer:innen die wahren Absichten oder Quellen erkennen können. OpenAI versucht, das mit Filtern zu unterbinden, in der Praxis erweisen sich diese Filter aber oftmals als fehlerhaft oder sie lassen sich mit ein paar Kniffen umgehen.

Fazit:

Anhand des analysierten Textes wird deutlich, dass die von ChatGPT generierten Texte zwar auf den ersten Blick meistens sinnvoll klingen, bei genauerem Hinsehen aber nicht immer fachlichen Ansprüchen genügen. Das bedeutet aber nicht, dass wir ChatGPT deshalb nicht nutzen sollten. Wichtig ist, die generierten Informationen stets kritisch zu reflektieren und sich im Zweifel auf das eigene Wissen und wissenschaftliche Quellen zu verlassen. Folgende Fragen sollte man sich stellen: Spielt es eine Rolle, ob der Output wahr ist? Verfügen Sie über das notwendige Fachwissen, um zu überprüfen, ob der Output korrekt ist? Sind Sie in der Lage und bereit, die volle moralische und rechtliche Verantwortung für übersehene Ungenauigkeiten zu übernehmen? Können diese Fragen mit einem Ja beantwortet werden, ist es möglich, ChatGPT zu nutzen – sofern man jedes ausgegebene Wort und jeden Satz auf Richtigkeit und gesunden Menschenverstand überprüft.

 

Der Artikel wurde zuerst im change-Magazin der Bertelsmann Stiftung veröffentlicht.


Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.