Warum eine verantwortliche Gestaltung von Sprachmodellen nottut
Prof. Dr. Peter Dabrock, Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied in der Plattform Lernende Systeme
Große Sprachmodelle wie ChatGPT werden als technischer Durchbruch der KI gefeiert – ihre Auswirkungen auf unsere Gesellschaft mal sorgenvoll diskutiert, mal verteufelt. Selten zeichnet das Leben schwarz-weiß, sondern meistens grau in grau. Den Korridor eines verantwortlichen Einsatzes der neuen Technologie gilt es kriterienbasiert und partizipativ auszuloten.
Mit dem Einsatz von Sprachmodellen sind eine Vielzahl ethischer Fragen verbunden: Bewirken die Systeme für (alle oder bestimmte Gruppen von) Menschen inakzeptable Schäden? Meint man dauerhafte, irreversible, sehr tiefgehende oder leichte Schäden? Ideelle oder materielle? Sind die Sprachmodelle quasi unabhängig von ihrem jeweiligen Einsatz problematisch? Oder sind nur in bestimmten Anwendungskontexten gefährliche Konsequenzen in den Blick zu nehmen, bspw. wenn eine medizinische Diagnose automatisiert erstellt wird? Die ethische Beurteilung der neuen Sprachmodelle, insbesondere von ChatGPT, hängt davon ab, wie man die technische Weiterentwicklung der Sprachmodelle sowie die Eingriffstiefe unterschiedlicher Einsätze einschätzt. Zudem spielt immer auch eine Rolle, welche Möglichkeiten man Technik für den Umgang mit gesellschaftlichen Problemen zutraut und wie man ihren Einfluss auf das menschliche Selbstverständnis einschätzt: Können oder sollen technische Möglichkeiten gesellschaftliche Probleme lösen oder verstärken sie sie, und wenn ja, in welchem Ausmaß?
Diskriminierungsfreie Sprachmodelle?
Für die verantwortliche Gestaltung von Sprachmodellen müssen diese ethischen Grundsatzfragen berücksichtigt werden. Im Falle von ChatGPT und verwandten Lösungen sind wie bei KI-Systemen generell die Erwartung an die technische Robustheit eines Systems in den Blick zu nehmen sowie vor allem sogenannte Biases kritisch zu betrachten: Bei Programmierung, Training oder Verwendung eines Sprachmodells können voreingenommene Haltungen in den zugrunde liegenden Daten übernommen und sogar verstärkt werden. Diese gilt es möglichst zu minimieren.
Man mache sich nichts vor: Vorurteile lassen sich nicht vollständig eliminieren, weil sie auch Ausdruck von Lebenseinstellungen sind. Und die soll man gar nicht komplett löschen. Aber sie müssen kritisch immer neu darauf hin überprüft werden, ob und wie sie mit ganz grundlegenden ethischen und rechtlichen Normen wie Menschenwürde und Menschenrechten, aber auch – jedenfalls in breiten Teilen vieler Kulturen gewünscht – mit Diversität vereinbar sind und nicht Stigmatisierung und Diskriminierungen legitimieren oder fördern. Wie dies technisch, aber auch organisatorisch möglich sein wird, ist eine der größten kommenden Herausforderungen. Sprachmodelle werden zudem der Gesellschaft den Spiegel vorhalten und – wie auch schon bei Social Media – verzerrend, aber eben doch entlarvend, gesellschaftliche Brüche und Spaltungen aufdecken und verstärken können.
Wenn man von Disruption sprechen will, dann zeichnet sich solches Potential beim verstärkten Einsatz von Sprachmodellen ab, die weit intensiver als die gegenwärtigen Modelle mit Daten gefüttert werden können, um solides Wissen zu kombinieren. Auch wenn sie selbstlernend nur ein neuronales Netzwerk entfalten, wird der Effekt so erheblich sein können, dass die generierten Texte echte menschliche Aktivität simulieren. Damit dürften sie die üblichen Formen des Turing-Tests bestehen. Bibliotheken von Reaktionen werden verfasst werden, was dies für Mensch, Maschine und ihre Interaktion bedeutet.
Abpfiff für kreatives Schreiben?
Ein sorgsam zu beobachtender Effekt könnte darin bestehen, dass die basale Kulturtechnik des individuellen Schreibens unter massiven Druck gerät. Warum soll das anthropologisch und ethisch besorgniserregend sein? Kürzlich wurde darauf verwiesen, dass die Ausbildung des individuellen Subjekts und die Entstehung romantischer Briefliteratur in einem konstitutiven Wechselverhältnis standen. Man muss deshalb zwar nicht gleich mit dem kaum vermeidbaren Abpfiff für Überblicksessays oder Proseminararbeiten, die Grundkenntnisse im Grundstudium dokumentieren sollen und mit ChatGPT leicht zu erstellen sind, zugleich das Ende des neuzeitlichen Subjekts heraufbeschwören. Aber klar ist, dass eigenständiges kreatives Schreiben anders geübt und internalisiert werden musss – und dies ist von erheblicher ethischer Relevanz, wenn die Ausbildung einer selbstbewussten Persönlichkeit für unsere komplexe Gesellschaft entscheidend ist.
Zudem müssen wir als Gesellschaft lernen, mit der erwartbar von Sprachmodellen erzeugten Überflut an Texten umzugehen. Dies ist nicht nur eine Frage der persönlichen Zeithygiene. Vielmehr droht eine neue Form von sozialer Ungleichheit – nämlich wenn Bessergestellte sich von Texten inspirieren lassen können, die weiterhin von Menschen geschrieben werden, während bildungsfernere und finanzschwächere Personen sich mit den durch ChatGPT erzeugten literarischen Brosamen zufrieden geben müssen.
Technisch disruptiv oder gesellschaftlich spaltend?
Nicht per se drohen mit der technischen Disruption von ChatGPT automatisch gesellschaftliche Fissuren. Aber sie werden nur vermieden, wenn wir zügig Gewohntes – gerade im Bildungsbereich – auf den Prüfstand stellen und uns auf die neuen Möglichkeiten einstellen. Wir haben nicht nur eine Verantwortung für unser Tun, sondern auch für das Unterlassen sinnvollen Tuns: Deshalb sind die neuen Sprachmodelle nicht zu verteufeln oder generell zu verbieten. Vielmehr gilt es, nüchtern ihre Weiterentwicklung zu beobachten, aber dies als Einzelne beherzt und als Gesellschaft mit Förderungen und Forderungen mitzugestalten – und dabei möglichst alle mitzunehmen, um ungerechtfertigte Ungleichheit zu verhindern. So lässt sich ChatGPT verantworten.