Large Language Modelle (LLM) bringen neben all den neuen Möglichkeiten zur Unterstützung des Schreibprozess auch Risiken für die NutzerInnen mit sich. Eine interessante Anwendungsmöglichkeit von LLMs wie ChatGPT besteht darin, dass sie NutzerInnen beispielsweise bei der Entwicklung ihrer Schreib-, Lese- und Problemlösungsfähigkeiten unterstützen können. Gleichzeitig besteht aber auch die Gefahr, dass sich die NutzerInnen zu sehr auf die Ergebnisse und den Output solcher Modelle verlassen und somit ihr kritisches Denken beeinträchtigt wird. Ein Problem von LLMs ist, dass sie halluzinieren, d.h. sie erfinden Fakten oder Quellen und integrieren diese in die generierten Texte ohne, dass es für die NutzerInnen ersichtlich ist. Übernimmt nun der Textautor den LLM generierten Text ungelesen, kann es sein, dass der Text falsche Fakten oder Logikfehler enthält. Dies ist besonders kritisch in Fällen, in denen der Autor für den Textinhalt rechtlich verantwortlich ist, wie z.B. bei einem Vertrag, einer Doktorarbeit, oder einem wichtigen Brief. Daher kann zusammenfassend gesagt werden, LLMs können den Schreibprozess revolutionieren und gleichzeitig neue Chancen und Risiken für NutzerInnen mit sich bringen.
Seit Jahrzehnten wird an automatisierten Systemen, zu denen Autopiloten aber auch LLMs gehören, und deren Auswirkungen auf die Wahrnehmung und das Verhalten von Menschen geforscht. Die Theorie des Situationsbewusstseins wird bei automatisierten Systemen häufig verwendet, um Mensch-Maschinen-Interaktion zu untersuchen. Situationsbewusstsein ist das bewusste Wissen über die unmittelbare Umgebung und die darin stattfindenden Ereignisse. Es umfasst die Wahrnehmung der Elemente in der Umgebung, das Verständnis ihrer Bedeutung und ihrer Beziehungen zueinander sowie die Projektion ihrer zukünftigen Zustände. In der Ergonomie bezieht sie sich beispielsweise auf das Bewusstsein des Bedieners über den aktuellen und den erwarteten zukünftigen Zustand eines Systems. In jüngster Zeit hat in der Forschung zur Mensch-KI-Interaktion das Situationsbewusstsein zunehmend an Bedeutung gewonnen, z. B. beim automatisierten Fahren. Situationsbewusstsein ist eine vielversprechende Theorie für das Verständnis und die Gestaltung der Mensch-KI-Interaktion im Allgemeinen und intelligenter Schreibassistenten, die auf LLM basieren, im Besonderen. Im Kontext des Verfassens wissenschaftlicher Arbeiten oder Verträgen beispielsweise werden Autoren für den Text verantwortlich gehalten, der von KI-Sprachwerkzeugen generiert und in die Arbeit integriert wird. Daher ist Situationsbewusstsein entscheidend für die Erkennung von Fehlern und Halluzinationen im LLM generierten Text.
Traditionell wurde Situationsbewusstsein mithilfe von wissenschaftlichen Fragebögen, wie SAGAT, SPAM und SART gemessen. Diese Ansätze sind jedoch aufgrund ihres unterbrechenden und diskreten Charakters für den praktischen Einsatz ungeeignet. Eye-Tracking-Technologie bietet jedoch eine vielversprechende Alternative, um das Situationsbewusstsein in Echtzeit kontinuierlich zu bewerten. Da das Situationsbewusstsein auf der Informationsverarbeitungs- und Aufmerksamkeitstheorie beruht, wird die Aufmerksamkeitsverteilung als eine der physiologischen Messgrößen des Situationsbewusstseins vorgeschlagen. Eye Tracking ist eine Technologie, mit der die visuelle Aufmerksamkeit und die kognitiven Prozesse des Menschen erfasst werden können. Jüngste Forschungsarbeiten haben das Potenzial der Eye-Tracking-Technologie zur Erkennung von Situationsbewusstsein anhand von Augenbewegungen im Kontext des automatisierten Fahrens, aber auch in vielen anderen Anwendungsbereichen wie Luftfahrt, Gesundheitswesen und Bauwesen gezeigt. Die Eye-Tracking-Technologie wird immer billiger und robuster, und immer mehr Geräte (z. B. Autos, Laptops und Smartphones mit Infrarotkameras, smarte Brillen) sind von Haus aus mit Eye-Tracking-Funktionen ausgestattet. Die Eye-Tracking-Technologie ist daher eine vielversprechende Lösung für die kontinuierliche Bewertung des Situationsbewusstseins in Echtzeit.
28.03.23