Auch wenn es die unflätige Überschrift nicht direkt vermuten lässt, steckt dahinter etwas mehr. Eine vor kurzem erschienene Abhandlung "ChatGPT is Bullshit" analysiert die Begriffe Wahrheit, Lüge und eben Bullshit im Kontext der vieldiskutierten Large Language Modelle (LLMs).
Zurück geht der Begriff "Bullshit" ursprünglich auf Frankfurts Abhandlung "On Bullshit", die sich mit der Frage beschäftigt, ob es neben der Lüge eine weitere Kategorie der Unwahrheit gibt (Frankfurt 2005). Frankfurt argumentiert, dass eine Lüge immer die Täuschung des Gegenübers als Ziel hat, während Bullshit als Sprechakt zu verstehen ist, bei dem die Wahrheit schlichtweg egal ist. Das bedeutet jedoch nicht, dass Bullshit immer unwahr ist. Er kann ebenso wahre Anteile enthalten.
Diese Begriffsherleitung greifen Hicks, Humphries und Slater (2024) nun für eine Argumentation auf, die letzten Endes das Konzept von Halluzinationen von ChatGPT und Co. in Frage stellen soll. Aber folgen wir der Argumentation einmal von Anfang an:
Menschliches Sprechen oder Schreiben dient als Mittel zum Zweck. Der Zweck kann unterschiedliche Züge annehmen: So können wir versuchen, Wahrheiten zu erörtern, Lügen zu vermitteln oder bisweilen selbst Unsinn zu reden. Sprache dient der Vermittlung der eigenen Motivation.
Stark vereinfacht funktionieren LLMs hingegen so, dass das nächste zu erzeugende Wort entsprechend der Wahrscheinlichkeit für sein Vorkommen im jeweiligen Kontext ist. Das bedeutet, dass die Funktion eines LLMs die Erzeugung einer grammatikalisch korrekten Wortkette ist. Die grammatikalische Korrektheit sagt jedoch nichts über den Wahrheitsgehalt aus.
An diesem Punkt setzen Hicks, Humphries und Slater an: Wenn die Funktion eines LLMs Sprache nicht als Vermittlung einsetzt, sondern einzig und allein halbwegs zusammenhängende Sätze erzeugt, so befasst es sich weder mit Wahrheiten noch mit Lügen. Damit ist es per Definition ein Bullshitter.
Ausgehend von dieser Argumentation wenden sich die Autoren "Halluzinationen" zu. Als Halluzinationen werden allgemein unwahre Aussagen eines LLMs bezeichnet. Den Autor*innen nach vermenschlicht zum einen der Begriff ein rein technisches System ohne menschliche Eigenschaften. Da LLMs aufgrund ihrer Funktion als Textgenerator nicht wahrnehmen können, können sie folglich auch nicht einer Fehlwahrnehmung, sprich einer Halluzination, unterliegen. Zum anderen impliziert "Halluzination" eine Abweichung vom Standard. Das ist hier allerdings nicht der Fall, da immer der gleiche Prozess durchgeführt wird, unabhängig davon, ob der resultierende Text wahr oder falsch ist. Dementsprechend schlagen Hicks, Humphries und Slater "Bullshit" vor. Das würde allerdings nicht nur für „Halluzinationen“ gelten, sondern für sämtliche Ausgaben von LLMs.
Was sagt uns das alles? Je nachdem, welche Begriffe wir für Technologien verwenden, beeinflusst das ebenfalls unsere Interpretation jener und deren Outputs. Gerade im Kontext von LLMs erscheint es sinnvoll, diese Prämisse zumindest ernst zu nehmen und unsere Erwartungen und Vorstellungen entsprechend anzupassen.
Literatur
Frankfurt, Harry G. 2005. On bullshit. Princeton, NJ: Princeton University Press.
Hicks, Michael Townsen, James Humphries, and Joe Slater. 2024. “ChatGPT Is Bullshit. Ethics and Information Technology 26 (2): 38. https://doi.org/10.1007/s10676-024-09775-5.
09.09.24