Der „stochastische Papagei“: Über ChatGPT und die Grenzen der Sprachmodelle

Als #KI Sprachmodell ist #ChatGPT in der Lage, eine Vielzahl von Aufgaben auszuführen, z.B. Texte zu übersetzen, Fragen zu beantworten und sogar Programmcode zu erstellen. Aufgrund seiner beeindruckenden Fähigkeiten wurde ChatGPT schnell zu einem beliebten Werkzeug, von Chatbots bis hin zur Erstellung von Inhalten. Doch trotz seiner Fähigkeiten ist ChatGPT nicht ohne Einschränkungen. ChatGPT hat Schwächen und Herausforderungen, die seine Leistung und Genauigkeit beeinträchtigen. Passend dazu hat mir der Youtube-Algorithmus kürzlich ein Video empfohlen, dessen Inhalt ich künftig in meinen Unterricht einbauen werde und den ich hier kurz vorstellen möchte.

In seinem Video „What Are The Top 10 Limitations Of ChatGPT?“ listet Bernard Marr die seiner Meinung nach zehn grössten Einschränkungen von ChatGPT auf. Diese gelten mehr oder weniger für alle aktuellen Sprachmodelle. Die ersten neun Einschränkungen betreffen die Fähigkeiten von ChatGPT, die letzte betrifft die Wirtschaftlichkeit bzw. die Umweltverträglichkeit grosser Sprachmodelle. Der letzte Punkt dürfte in absehbarer Zeit nicht mehr zutreffen, Sprachmodelle werden bald auch auf handelsüblicher Consumer-Hardware laufen. Das macht sie aber nicht unbedingt besser.

Sprachmodelle und ihre Einschränkungen

  1. ChatGPT kann unsinnige oder ungenaue Antworten geben, da ihm gesunder Menschenverstand und Hintergrundwissen fehlen.
  2. ChatGPT hat keine echte emotionale Intelligenz und ist nicht in der Lage, subtile emotionale Hinweise zu erkennen oder auf komplexe emotionale Situationen angemessen zu reagieren.
  3. ChatGPT hat Schwierigkeiten, Sarkasmus, Humor und feine Nuancen menschlicher Kommunikation zu erkennen.
  4. ChatGPT hat Schwierigkeiten, lange, strukturierte Inhalte zu erzeugen.
  5. ChatGPT ist am effektivsten, wenn es sich auf eine einzelne Aufgabe konzentriert, hat aber Schwierigkeiten, mehrere Aufgaben gleichzeitig zu bearbeiten.
  6. ChatGPT kann unbeabsichtigt voreingenommene oder diskriminierende Antworten erzeugen, da es auf einer grossen Menge von Textdaten trainiert wurde, die Verzerrungen oder Vorurteile enthalten können.
  7. ChatGPT hat ein begrenztes Wissen und kann möglicherweise Fragen zu sehr spezifischen oder Nischenthemen nicht beantworten.
  8. ChatGPT ist empfindlich gegenüber Tippfehlern, grammatikalischen Fehlern und Rechtschreibfehlern und kann technisch korrekte Antworten generieren, die jedoch in Bezug auf Kontext oder Relevanz nicht ganz korrekt sind.
  9. ChatGPT kann für bestimmte Anwendungen eine Feinabstimmung erfordern, um die Leistung für eine bestimmte Aufgabe oder ein bestimmtes Ziel zu optimieren.
  10. ChatGPT erfordert erhebliche Rechenressourcen und kann auf Low-End-Hardware oder Systemen mit begrenzter Rechenleistung zu Leistungsproblemen führen. Organisationen sollten ihre Computerressourcen und -fähigkeiten sorgfältig prüfen, bevor sie ChatGPT einsetzen.

Sprachmodelle sind wie Papageien, sie plappern nach, was sie hören

Zusammengefasst kann man sagen, dass Sprachmodelle wie ChatGPT weder intelligent sind noch über Wissen verfügen. Sie erzeugen Text, indem sie auf eine antrainierte Datenbasis zurückgreifen und rechnerische Verfahren der Datenauswertung anwenden. Dabei berücksichtigen sie statistische Wahrscheinlichkeiten und setzen eine Verteilung von Zeichen und Zeichenketten (Buchstaben, Wörter) aufgrund von Häufigkeiten in Sprache um. Man kann sie daher auch als „stochastische Papageien“ bezeichnen.


Disclaimer Teile dieses Texts entstanden mithilfe der beiden KI-Tools Deepl Übersetzer (Übersetzung einzelner Teile des Beitrags) und Deepl Write (Korrektorat und Lektorat). Das Titelbild wurde mit Midjourney mit dem Prompt „a dreamy robot looking into a circuit board that looks like a futuristic city, cinematic lighting, 8k, 4k ––ar 7:4 ––c 25 ––no windows“ erstellt.

Bildquellen 1. Michael Gisiger, CC BY-NC-SA 4.0, via PixelFed

Topic #Kommerz