Interview
Jessica Heesen:
Was macht Künstliche
Intelligenz human?
Zur Person
Die Philosophin und Medienethikerin Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen und lehrt als Privatdozentin am dortigen Philosophischen Seminar. In verschiedenen Forschungsprojekten befasste sie sich mit Fragen nach einer wertorientierten Entwicklung von Künstlicher Intelligenz. Heesen wurde an der Universität Stuttgart promoviert und erhielt mit ihrer Habilitation am Karlsruher Institut für Technologie (KIT) die Lehrbefugnis für das Fach Philosophie. Sie ist Mitglied des „Forums Privatheit und selbstbestimmtes Leben in der digitalen Welt“ (BMBF) und des Netzwerks Medienethik sowie Leiterin der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der BMBF-Plattform Lernende Systeme.
Webseite von Jessica Heesen, https://uni-tuebingen.de/de/15781
Essential
Der Begriff der „menschenzentrierten KI“ werde in Politik und Wirtschaft oftmals als Signalbegriff verwendet, so Jessica Heesen, um eine prosoziale Ausrichtung bestimmter KI-Anwendungen zu betonen und damit Vertrauen zu wecken. Dabei komme es aber auf das dahinterstehende Menschenbild an, das kapitalistischer oder sozialer Prägung sein könne. Basierend auf dem Menschenbild des homo oeconomicus würden beispielsweise mit automatisierten Empfehlungen im Online- Handel Anreize in Richtung Überkonsum gesetzt. Es könnten aber auch in der Orientierung auf den Menschen als soziales Wesen indirekte Anreize gesetzt werden, um KI-gestützt ein prosoziales Verhalten zu fördern. Heesen verweist darauf, dass Menschen eher bereit seien, etwas für das Gemeinwohl zu tun, wenn sie in einer guten und gerechten Gesellschaft leben.
Die Frage, wie sich Künstliche Intelligenz dafür nutzen lässt, Biodiversität zu erhalten, Resilienz zu fördern und eine Gesellschaft besser zu machen, hält Heesen für eine technokratische Herangehensweise. Letztendlich müssten die Rahmenbedingungen und die politischen Zwecksetzungen erfüllt sein, um bestimmte technische Anwendungen erfolgreich implementieren zu können. Heesen vermisst im gesellschaftlich-politischen Diskurs die umfassende Fragestellung nach den Zwecken von Technikeinsatz. So werde nicht die zentrale Frage gestellt, wie sich KI innerhalb bestimmter Rahmenbedingungen optimal entfalten kann.
Zu den Rahmenbedingungen gehören das wirtschaftliche Anreizsystem, aber auch die Frage des Vertrauens in Künstliche Intelligenz. Transparenz sei hierbei geeignet, begründetes Vertrauen zu fördern, da Nutzer und Nutzerinnen sich so ein eigenes Urteil bilden können. Dazu müssten Prozesse so überprüfbar organisiert werden, dass sie den Transparenzversprechen entsprechen. Gütesiegel könnten im Rahmen von Selbstverpflichtungen besonders nachhaltige, soziale, ökologische KI auszeichnen. Gegenwärtig werden laut Heesen sozialökologische Nachhaltigkeitsaspekte in industriell orientierten Zertifizierungsvorhaben zur KI nicht vordringlich erfasst, da der Fokus auf der Vermeidung eines unmittelbaren Schadenseintritts liegt. Die Berücksichtigung von ökologischer Nachhaltigkeit ließe sich jedoch unabhängig von rechtlichen Regelungen über freiwillige Gütesiegel nachweisen. Auch werden Kriterien für Schäden bisher nur auf Menschen, aber nicht auf andere Lebewesen oder Lebensräume wie Flüsse bezogen. Die Frage der Umweltschäden ließe sich mit einer vorausschauenden Schadensregulierung einholen. Industrieprodukte, die KI beinhalten und die hohe Umweltschäden nach sich ziehen, müssten nicht zugelassen werden – so wie auch autonome Killer-Roboter als unerwünscht eingestuft werden.
Hinsichtlich gemeinwohlorientierter KI-Anwendungen sieht Heesen die öffentliche Hand in einer Vorreiterrolle. Als mögliche Einsatzfelder nennt sie Bürgerhaushalte oder das kommunale Mobilitätsmanagement. Open Data aus Kommunen könnten auch Start-ups dazu befähigen, Anwendungen für Nachhaltigkeitszwecke zu entwickeln, sowie Datenjournalismus dabei unterstützen, eine kritische Öffentlichkeit herzustellen. Hierfür müsse noch an Infrastrukturen und Förderinstrumenten gearbeitet werden.
Heesen weist auf das große Überwachungspotenzial von KI-Anwendungen im sozialen Bereich hin sowie auf die Fragilität und Verletzlichkeit von KI-Infrastrukturen. Eine resiliente Gesellschaft müsse auch ohne KI-Systeme zurechtkommen können. Es müsse darüber diskutiert werden, wo ein Einsatz von KI sinnvoll ist und wo nicht. Die Frage der sozialen Gerechtigkeit sei sehr wichtig, wobei es darum gehe, dass die durch KI erzielten Profite gerecht verteilt würden und die soziale Wohlfahrt gestärkt werde. Der Staat müsse hierzu „digitale Pluralität“ und die Förderung von Grassroots-Ansätzen sicherstellen, um zu vermeiden, dass monopolartige Geschäftsmodelle nicht die nachhaltige Entwicklung der Digitalisierung bestimmen.
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Interview
Was macht Künstliche Intelligenz human?
- Welche Aspekte umfasst „menschenzentrierte“ KI für die sozialökologische Nachhaltigkeit?
- Jessica Heesen: Ich habe als Technikphilosophin und Ethikerin generell ein Problem mit diesem Ausdruck „menschenzentrierte KI“. Er wird oft von der Politik, vor allen Dingen aber auch in der Wirtschaft verwendet, um zu zeigen, dass sie prosozial ihre Entwicklung voranbringen wollen. Aber jede Künstliche Intelligenz ist menschenzentriert, weil sie von Menschen gemacht ist, für ganz bestimmte Zwecke. Das können gute oder schlechte Zwecke sein, genauso wie es eben auch „gute“ und „schlechte“ Menschen gibt. Also macht es keinen Sinn, von Menschenzentrierung zu sprechen, weil das letztendlich trivial ist.
- Wollen Sie damit sagen, dass der Begriff bereits entwertet ist, weil er nicht konkret genug wird, um den Anspruch, der dahintersteht, nämlich eine Technik, die Menschenwürde bewahrt, zu befördern?
- Jessica Heesen: Genau. Für mich ist das eine Art Soßenbegriff: Man kippt ihn über alles und erkennt dann letztendlich gar nicht mehr, was eigentlich dahintersteckt. Bei seiner Verwendung geht es um ein Signal, mit dem man kennzeichnet, dass man KI irgendwie für etwas Gutes verwenden will. Man möchte mit dieser Kennzeichnung Vertrauen wecken, auch Misstrauen zurückdrängen. Man will die Künstliche Intelligenz irgendwie auf den Menschen ausrichten.
Aber es kommt immer darauf an, was ich dann für ein Menschenbild habe. Beispielsweise könnte ich sagen: Der Mensch ist so, dass er möglichst viel Geld verdienen will. Das entspräche dem kapitalistischen Menschenbild. Dann haben wir eine KI, die vor allen Dingen für die Wirtschaft gut ist. Wenn ich aber sage, der Mensch ist ein soziales Wesen, es möchte in der Gemeinschaft leben, es stellt bestimmte Werte voran, dann ist der Begriff so, wie wir „menschenzentriert“ in der Ethik eher verstehen würden, nämlich auf humane Anliegen konzentriert.
- Was würde das jetzt für die sozialökologische Nachhaltigkeit bedeuten, wenn man eine im sozialen Sinne menschenzentrierte KI entwickeln würde?
- Jessica Heesen: Das beinhaltet viele Aspekte. Man würde zunächst danach fragen: Wann lohnt es sich denn, eine humane KI zu erstellen? Wir setzen uns für eine menschenzentrierte KI ja bestimmte Zwecke. Diese Zwecke müssen sich in einem bestimmten Rahmen verwirklichen lassen. Das bedeutet eben, dass es bestimmte Anreizsysteme geben muss. Wir sehen aber mit Bezug auf Nachhaltigkeit, dass im Bereich der KI häufig falsche Anreize gesetzt werden. Beispielsweise werden im Online-Handel etwa mit personalisierter Werbung oder automatisierten Empfehlungen Anreize in Richtung Überkonsum gesetzt. Hier geht es ja immer darum, für den Konsum das Optimum herauszuholen. Genau das ist aber gerade das Falsche.
- Wenn man Nachhaltigkeitsziele setzt …
- Jessica Heesen: … dann würde man sagen: Wir brauchen auch solche Anwendungen, die mit den Zwecken einer nachhaltigen Entwicklung übereinstimmen. Sie verfolgen dann eben nicht dieses Bild des homo oeconomicus, bei dem es nur um die Optimierung von Profiten geht. Wenn wir davon ausgehen, dass es nicht um die Optimierung von Geldverdienen geht, sondern etwa um die Optimierung von sozialer Anerkennung, dann könnte man beispielsweise versuchen, prosoziales Verhalten durch KI zu fördern. Der Mensch hätte dann gerne soziale Anerkennung. Man könnte dann versuchen, durch den Staat bestimmte Belohnungssysteme zu setzen, etwa das geförderte Ehrenamt oder die sogenannten Civic Technologies mit Wettbewerbsausschreibungen, sodass für solche Anwendungen Aufmerksamkeit generiert wird. Es geht also um indirekte Anreizsysteme, die man für sich nutzen kann, wenn man als Entwicklerinnen und Entwickler „AI for Good“ beziehungsweise gemeinwohlorientierte KI entwickelt.
Ein anderer Punkt ist der: Wenn Menschen den Willen ausbilden, etwas für das Gemeinwohl zu tun, dann tun sie das meistens, weil sie bereits in einer guten und gerechten Gesellschaft leben. Dann sind sie eher dazu bereit in soziale Beziehungen, in die Gemeinschaft zu investieren.1 Dann gibt es mehr Ehrenamt, mehr Engagement – und natürlich auch mehr Ressourcen, also Zeit und Geld, sich für die Allgemeinheit zu engagieren. Das ist ein großer Rahmen, der gesteckt sein muss, wenn man nicht nur kommerziellen Aspekte von Technologie voranbringen möchte.
Der technokratische Blick
- Viele KI-gestützte Anwendungen in der Landwirtschaft beziehen sich auf Effizienz, auf die Ertragsoptimierung einer bestimmten Frucht. Ziel von Nachhaltigkeit wäre der Erhalt von Biodiversität und Resilienz im Angesicht der Klimakrise. Wie ließe sich die KI so gestalten, dass sie diese Ziele, die das menschliche Überleben sichern sollen, in Einklang bringt mit den Interessen des Landwirts?
- Jessica Heesen: Wie kann man Künstliche Intelligenz dafür nutzen, unsere Gesellschaft besser zu machen? Das ist eine technokratische Herangehensweise, weil man versucht, soziale Probleme durch Technik zu lösen. Früher hat man auch gesagt: Technik sucht Anwendung.
Dieses Problem hat der Landwirt schon vorher gehabt. Er agiert in einem bestimmten wirtschaftlichen System, in dem er sich bewähren muss. Landwirte nehmen entweder kommende Einbußen aufgrund von Resilienz- und Biodiversitätsverlusten in Kauf oder sie wirtschaften jetzt schon ökologisch und verdienen dann eventuell weniger. Oder sie versuchen, die Strukturen umzustellen, also politisch wirksam zu werden, die Rahmenbedingungen zu ändern, sodass sie dann letztendlich zum Beispiel für einen Acker voller Unkraut Geld bekommen.
Die Frage nach dem Zweck
Genauso ist es bei der Künstlichen Intelligenz. Man kann nicht sagen: Wie kann ich den Bauern oder die Bäuerin dazu veranlassen, jetzt ökologischer zu wirtschaften? Das hat nichts mit der KI zu tun, sondern es sind immer wieder die Rahmenbedingungen und die politischen Zwecksetzungen, die letztendlich dann erfüllt sein müssen, um bestimmte technische Anwendungen erfolgreich implementieren zu können und zu fördern. Das Wichtige ist in dem Zusammenhang, sich das zu lösende Problem anzuschauen. Und das ist: wenig Biodiversität. Dann kann ich schauen, wo und wie sich KI verwenden lässt, um zur Lösung dieses Problems beizutragen – und wo eben auch nicht.
Es ist ganz wichtig, sich bewusst zu machen, dass die Technik eben nicht alle Probleme lösen kann. In der Technikphilosophie unterscheidet man zwischen einer technikzentrierten und einer problemzentrierten Herangehensweise. Die technikzentrierte Herangehensweise fragt dann nur: Welche Vorund Nachteile hat die KI für die Lösung dieses Problems? Und damit konzentriere ich mich stark auf die technische Lösung. Aber eine problemzentrierte Herangehensweise würde die KI vielleicht herausnehmen und sagen: Jetzt lass einfach diesen Blühstreifen stehen. Aber das hat dann nichts mit KI zu tun.
- 1) E., Helfrich S. (2011): Was mehr wird, wenn wir teilen. Vom gesellschaftlichen Wert der Gemeingüter. Oekom.
- 1
- vorwärts
- Gibt es einen blinden Fleck in der bisherigen Diskussion um KI und ihre Anwendungsgebiete in Bezug auf Nachhaltigkeit, die den Menschen selbst in seiner Kooperationsfähigkeit betreffen?
- Jessica Heesen: Indem man auf die Technik fokussiert und viele Problemlösungen erwartet, vernachlässigt man diese übergeordnete Frage nach den Zwecken. Diese Zwecke, wie eine Technik als Instrument genutzt werden kann, können nur durch den Menschen und durch die Politik gesetzt werden und eben nicht durch Künstliche Intelligenz. Diese umfassende Fragestellung nach den Zwecken vermisse ich sehr stark – sowohl in der Gesellschaft als auch in der Politik. Dort sagt man immer wieder: Wir brauchen KI für den Mittelstand, wir brauchen KI für die Nachhaltigkeit. Aber die übergeordnete Frage: Wie kann KI sich optimal entfalten innerhalb bestimmter Rahmenbedingungen? Diese Grundsatzfrage oder die Systemfrage wird eben gar nicht gestellt.
- Wie stellt sich denn die Systemfrage?
- Jessica Heesen: Das ist natürlich die Frage nach dem wirtschaftlichen Anreizsystem, es ist auch die Frage nach dem Vertrauen in Künstliche Intelligenz. Der Begriff des Vertrauens ist stark instrumentell, denn er wird derzeit benutzt, um KI-Anwendungen besser wirtschaftlich implementieren zu können. Man hat erkannt, dass Verbraucherinnen und Verbraucher diese Technologie nicht nutzen wollen, oder auch, dass der Mittelstand diese Technologie nicht nutzen will, wenn KI-Lösungen Diskriminierungen implizieren oder wenn die Produktsicherheit nicht gewährleistet ist.
Vertrauen durch Transparenz
- Ist der Appell, mehr Vertrauen zu schaffen, nicht auch manipulativ, wenn keine Bereitschaft erkennbar beziehungsweise auch die Fähigkeit nicht vorhanden ist, an den Systemen selbst etwas grundlegend zu ändern?
- Jessica Heesen: Man macht sich schon etwas verdächtig, wenn man immer sagt: Man muss Vertrauen haben. Natürlich muss man kein Vertrauen haben, sondern man muss die Bedingungen dafür herstellen, vertrauen zu können. Das heißt: Man muss eigentlich Misstrauen fördern. Man muss den Nutzerinnen und Nutzern von KI sagen können: Ihr dürft misstrauisch sein, denn wir erfüllen die Standards. Ihr könnt sehen, was daran kritisch ist und was nicht. Dann können Nutzerinnen zu einem wohlbegründeten Urteil kommen und vertrauen, wenn sie möchten.
- Ist es nicht ein bisschen kurz gegriffen zu sagen, dass mit mehr Transparenz das Vertrauen da ist? Die Transparenz muss ja einen Zweck verfolgen.
- Jessica Heesen: Natürlich hat die Transparenz ja auch einen Zweck, die Systeme sicherer und besser zu machen. Aber sie hat natürlich auch den Zweck, Vertrauen herzustellen. Nur wenn ich wohlbegründet Vertrauen herstelle, dann ist es ein ethisch akzeptabler Weg.
Ich kenne die Diskussion um Transparenz aus dem Bereich Datenschutz und IT-Sicherheit. Hier sagt man gerne: Wenn wir die Quellcodes offenlegen, dann ist die Transparenz hergestellt, dann ist auch das Vertrauen da. Gleichzeitig braucht man aber Strukturen, die dafür sorgen, dass die Entwickler über längere Zeit ein Auge auf wichtige Anwendungen werfen. Wir haben jedoch etliche Beispiele dafür gesehen, dass entweder die Strukturen zum Erhalt bestimmter wichtiger Software fragil sind oder dass eben nicht intensiv auf die Produkte geschaut wird. Zudem gibt es noch einen zweiten Aspekt von Transparenz: Man möchte den Verbrauchern eine gewisse Handlungsfähigkeit ermöglichen. Wenn man aber keine Intervenierbarkeit herstellt, nützt ihnen die Transparenz wenig.
Deswegen ist es ja umstritten, wie wir die Transparenz handhaben. Man trägt sie oft wie eine Monstranz vor sich her – alles soll dann angeblich gut sein. Da haben Sie völlig recht. Man muss die Prozesse so überprüfbar organisieren, dass sie diesen Transparenzversprechen entsprechen. Natürlich geht es auch um Verständlichkeit und Erklärbarkeit, das sind übliche Kriterien der KI-Ethik.
Freiwillige Zertifizierung von ökologischen Nachhaltigkeitsaspekten
Ein weiterer Aspekt ist, dass man für KI versucht Zertifikate zu vergeben, also eine Art Label für eine besonders nachhaltige, soziale, ökologische KI. Das ginge im Rahmen von Selbstverpflichtungen der Industrie. Das wäre eine Art Transparenz- Ökosystem, das viele unterschiedliche Aspekte abbildet, die das Produkt besser machen. Den Quellcode nachlesen zu können, bringt mir Verbraucherin nämlich gar nichts. Solche Möglichkeiten werden gerade stark diskutiert.
- Sie sind in dieser Diskussion um die Zertifizierung und Regulierung von KI-Modellen und -Anwendungen stark involviert.2 Spielen sozialökologische Nachhaltigkeitsaspekte hier eine Rolle?
- Jessica Heesen: Im Moment geht es bei diesen Zertifizierungen bzw. Standardisierungsansätzen um die Regulierung von KI zur Schadensvermeidung sowie Diskriminierungsfreiheit.
- In Deutschland wird die Diskussion ja vor allem von der Automobilindustrie für das autonome Fahren betrieben. Würden sich denn die hier entwickelten Kriterien auch für sozialökologische Zwecke eignen?
- Jessica Heesen: Ja, es geht bei diesen Zertifizierungen zunächst immer um Schadensvermeidung im unmittelbaren Sinne. Die Frage nach der Unmittelbarkeit des Schadens in Bezug auf ökologische Nachhaltigkeit ist tatsächlich umstritten. Es geht hier eher um mittel- und langfristige Probleme. Andere würden sagen, dass diese Probleme genauso dringlich sind wie die Frage, ob ich während des Autofahrens sterbe oder von einem Industrieroboter erschlagen werde.
- Die Gefährdung von Biodiversität oder Klima findet in einem anderen Zeithorizont statt.
- Jessica Heesen: Genau. Es werden verschiedene Kriterienkataloge für Werte in der Künstlichen Intelligenz vorgelegt. Bei sehr vielen ist die ökologische Nachhaltigkeit dabei. Bei manchen, die besonders reduziert sind und als industriefreundlich gelten, sind sie nicht dabei. In einem Entwurf der europäischen Regulierung für Künstliche Intelligenz etwa ist ebenfalls der Aspekt der Nachhaltigkeit nachgeordnet und fällt damit nicht unter Anwendungen mit hohem Risiko oder besonderem Regelungsbedarf.3 Die ökologische Nachhaltigkeit ist also eher nachgeordnet, weil der Nachweis ihrer Einhaltung etwa über ein zusätzlich freiwilliges Zertifikat von dem guten Willen der Akteure abhängig wäre.
- Gibt es eine Diskussion darüber, warum die ökologische Nachhaltigkeit nicht als so dringend empfunden wird?
- Jessica Heesen: Üblicherweise wird das damit begründet, dass man Zertifizierungskriterien möglichst schlank halten möchte. Man hat Angst, dass man alles zertifizieren muss, was – wie so schön gesagt wird – den Innovationen in dem Bereich im Wege stehen könnte. Man versucht also nur ganz wenige harte Kriterien zu finden: Das sind der Nichtschädigungsgrundsatz, die Diskriminierungsfreiheit, ein bestimmtes Level an Datenschutz und natürlich auch Steuerungsmöglichkeiten der Systeme. Es ist einfach sehr, sehr schwierig, zur Bewertung der Nachhaltigkeit mit allgemein anerkannten Kriterien zu kommen.
- Wird das Diskriminierungskriterium nur auf Menschen bezogen? Wurde diskutiert, das auch auf andere Lebewesen zu beziehen – apropos Erhalt der Biodiversität? Ich frage, weil dieser Gedanke in einigen Jurisdiktionen bereits eine Rolle spielt. So entschieden Gerichte in Kolumbien und Neuseeland bereits, dass Flüsse als Wasserkörper Rechte geltend machen können.4
- Jessica Heesen: Diese Frage ist mir kein einziges Mal begegnet. Die Diskriminierung bezieht sich nur auf Menschen. Ihre Frage lässt sich allerdings über das in der KI-Regulierung anerkannte Prinzip der Schadensvermeidung einholen. Wenn durch KI-Systeme die Umweltschäden ein so großes Ausmaß einnehmen, dass sie letztendlich den Menschen schädigen, müsste man dementsprechend solche KI-Systeme verbieten. Das hat meines Erachtens aber nichts zu tun mit der Spezifität von KI-Systemen, sondern hier geht es letztendlich um Industrieprodukte, die auch in anderen Bereichen nicht erlaubt sein würden, weil sie so ein hohes Schädigungspotenzial haben.
- Sie müssten also ähnlich wie Killer-Roboter eingestuft werden?
- Jessica Heesen: Ja klar. Bei Killer-Robotern steht jedoch nicht zur Diskussion, ob sie zertifiziert werden, sondern hier wird ein Verbot debattiert.5 Nach den Standards der zivilen KI-Regulierung würden autonome Waffensysteme eine so hohe Risikoeinstufung bekommen, dass sie nicht zugelassen werden würden. Aber der militärische Bereich hat seine eigenen Kriterien.
- 2) Mitwirkung an: Artificial Intelligence Ethics Impact Group (AIEI Group), VDE/Bertelsmann Stiftung (2020): From Principles to Practice. An interdisciplinary framework to operationalise AI ethics, Creative Commons, https://www.ai-ethics-impact.org/en; Mitautorin der Whitepapers: Zertifizierung von KI-Systemen. Heesen, J., Müller-Quade, J. & Wrobel, S. et al. (Hrsg.) (2020): Zertifizierung von KI-Systemen – Kompass für die Entwicklung und Anwendung vertrauenswürdiger KI-Systeme. Whitepaper aus der Plattform Lernende Systeme, München, https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG1_3_Whitepaper_Zertifizierung_KI_Systemen.pdf und Ethik-Briefing: Heesen, J. et al. (Hrsg.) (2020c): Ethik-Briefing. Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen – Whitepaper aus der Plattform Lernende Systeme, München. https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_Whitepaper_EB_200831.pdf
- 3) Siehe Regulation on a European approach for artificial intelligence, Proposal, Artikel 69, Abschnitt 2, S. 81, https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence
- 4) Vgl. O'Donnell, E. L., Talbot-Jones, J. (2018): Creating legal rights for rivers: lessons from Australia, New Zealand, and India. Ecology and Society 23(1):7. https://www.ecologyandsociety.org/vol23/iss1/art7/ES-2017-9854.pdf
- 5) Siehe Kampagne gegen autonome Waffensysteme, https://www.stopkillerrobots.org
- zurück
- 2
- vorwärts
Gemeinwohlorientierung durch die öffentliche Hand
- Es gibt in den verschiedenen Beschreibungen, wie KI sein soll, auch die Anforderung, sie solle gemeinwohlorientiert sein. Worin besteht nun der Mehrwert des Begriffs Gemeinwohlorientiertheit gegenüber dem Begriff der Menschenzentriertheit?
- Jessica Heesen: Menschenzentriert muss nicht unbedingt gemeinwohlorientiert bedeuten, was mit dem dahinterstehenden Menschenbild zu tun hat. Aber sie kann es natürlich sein. Es gibt KI-Anwendungen, die Fragen der Gemeinwohlorientierung mit wirtschaftlichen Interessen vereinen, etwa im Bereich Mobilität oder Medizin. Dennoch muss man für die Gemeinwohlorientierung bestimmte Anreize setzen. Hier müsste die öffentliche Hand selbst vorangehen. Was wir da im Moment bei der öffentlichen Hand sehen, ist natürlich traurig. Gerade in der Verwaltungsdigitalisierung, Smart City und Ähnlichem gibt es in Deutschland ja nicht so gute Beispiele.
- Denken Sie hier an den sich selbst meldenden Mülleimer als Beispiel einer sehr spezifischen Lösung?
- Jessica Heesen: Denken wir lieber anspruchsvollere Sachen, die als Vorbild dienen könnten: Es gibt Bürgerhaushalte in den Niederlanden und in den skandinavischen Ländern, wo sich KI-Anwendungen zur Auswertung heterogener Daten gut verwenden lassen. Gerade in städtischen Zusammenhängen wie Ratsinformationssystemen werden wir in Zukunft auch hier KI sehen. Man würde sich wünschen, dass die öffentliche Hand hier selbst kreativ werden und vorbildlich handeln würde. Per definitionem sollte die Gemeinwohlorientierung in öffentlichen Anwendungen stecken und auch bei staatlicher Regulierung eine wichtige Rolle spielen.
- Muss man also die Data Governance der Daten von Kommunen, Ländern und dem Bund als gemeinwohlorientiert definieren und nicht zu sehr in Richtung Verwertbarkeit kalibrieren?
- Jessica Heesen: In diesem Zusammenhang wird ja oft das Prinzip der freien Datenverfügbarkeit genannt. In diesem Begriff der Open Data ist Gemeinwohlorientierung nicht automatisch enthalten. Open Data meint ja sowohl wirtschaftliche Verwertbarkeit wie auch Nutzen für zivilgesellschaftliche Anwendungen.
- Das ist erst einmal neutral.
- Jessica Heesen: Open Data ist natürlich ein hervorragender Schlüssel auch für Start-ups, gerade aus dem Nachhaltigkeitsbereich, weil sie viele Daten aus dem kommunalen Zusammenhang nutzen können, die sie dann für ihre Anwendungen und ihre Neuentwicklungen verwenden können. Es ist ja oftmals schwer, an gute Trainingsdaten zu kommen. Insofern ist es wichtig, dass gerade im Bereich der Data Governance für Open Data alles wesentlich besser aufgestellt wird, weil hier der Schlüssel für zivilgesellschaftliche Verwendungen liegt.
Außerdem: Wenn wir auf Nachhaltigkeit setzen, brauchen wir eine kritische Öffentlichkeit, sonst kann man dieses Thema ja gar nicht vorantreiben. Open Data ist ein Riesenfundus für Datenjournalismus und den kritischen Journalismus. Denn es ist ein wichtiger Aspekt, dass uns als Bürgerinnen und Bürgern die Möglichkeit zur Teilhabe an der öffentlichen Diskussion geboten wird. Nur so kann kritische Meinungsbildung stattfinden, die dann auf staatliche Strukturen Einfluss nimmt.
- Aus Sicht einer freien Journalistin, die auch schon Datenjournalismus gemacht hat, kann ich dazu nur sagen, dass dies teilweise sehr aufwendig ist, sich aber auch nach über zehn Jahren reger Diskussionen auf dem Markt noch immer nicht finanziert. Datenjournalismus ist immer mit extra Engagement verbunden, übrigens auch seitens der betreuenden Redaktionen. Es gibt zwar projektbezogene Unterstützung durch Stiftungen, und das immer nur für begrenzte Zeit. Datenjournalismus sollte aber auf dem freien Markt funktionieren, um den Anspruch einlösen zu können, den Sie gerade formuliert haben.
- Jessica Heesen: Wir hatten ja anfangs schon darüber gesprochen, dass man sich von dieser technikzentrierten Perspektive verabschieden und eine problemzentrierte Perspektive in den Blick nehmen muss. Dazu muss man die strukturellen Rahmenbedingungen in den Blick nehmen und die Zwecke definieren: KI kann höchstens bei der Erstellung von Prognosen oder Diagnosen über bestimmte Märkte und Nachhaltigkeitsfelder unterstützen. Die strukturellen Entscheidungen aber müssen wir ohne KI fällen, wir müssen an die Rahmenbedingungen und die Förderinstrumente herangehen, sodass sich die Entwicklung einer „guten“, wertorientierten KI auch in wirtschaftlicher Hinsicht lohnt.
Die Fragilität von KI-Infrastrukturen
- Wie wichtig werden Kooperation, Co-Kreation und in diesem Zusammenhang „alternative“ Wirtschaftsformen wie Commoning, um Partizipation, menschliche Entfaltungsmöglichkeiten und gesellschaftliche Lernfähigkeit zu stärken?
- Jessica Heesen:KI kann generell bei sozialen Netzen eine wichtige Rolle spielen, weil sie einen vielfältigen Input verarbeiten kann. KI ist weniger statisch als Big Data und eher kontextsensitiv. Insofern kann man sie für neuartige Plattformen verwenden, die diversitätorientiert und flexibel sind. Aber es kommt immer darauf an, wie diese Werkzeuge dann angewandt werden.
Bei solchen KI-Anwendungen für Gemeinwohlorientierung im sozialen Bereich besteht immer das große Datenschutzproblem. Denn wenn die KI in diesen Bereichen gut funktionieren soll, muss sie sehr kontextbezogen Informationen sammeln – was mit einem riesigen Überwachungspotenzial und vielen Angriffsflächen verbunden ist. Wenn ich mich sozial engagiere, mache ich mich zudem angreifbar und verletzlich. Es gibt Trolle, Hatespeech und so weiter. Das kaufe ich mir alles mit ein, wenn ich in allen Lebensbereichen Informationstechnologien mitlaufen lasse.
- Ist das nicht auch eine Frage von Organisation: KI könnte diese Daten zwar auswerten, aber es müssten geschützte Räume geschaffen werden, in denen Menschen sich entfalten können?
- Jessica Heesen: Natürlich könnte man versuchen, das technisch voranzubringen. Man könnte auch eine Bürgerversammlung veranstalten, auf der man sich persönlich trifft und dann entscheidet, welche KI-Anwendung man benutzt. Wir brauchen als Gesellschaft auch Freiräume, weil diese Technologien mit Risiken verbunden sind. Das hat auch etwas mit Resilienz zu tun. KI-Systeme sind stark fragil und hochgradig vulnerabel, was man sich häufig nicht bewusst macht. Diese Systeme hängen von Infrastrukturen ab, diese wiederum von anderen technischen Infrastrukturen, vor allem von der Stromversorgung. Und wenn diese zusammenbricht, dann war es das – selbst wenn die Systeme dezentral angelegt sind. Immer nur auf Digitalisierung und auf KI zu setzen, kann sich eine Gesellschaft, die auf Resilienz setzt, einfach nicht leisten. Sie muss auch immer schauen, wie sie auch ohne diese Systeme zurechtkommt.
- zurück
- 3
- vorwärts
- Ich höre hier das Argument heraus, dass der Einsatz von KI mit einem expansiven, ja fast kolonialistischen Drang verbunden sein könnte, der sich auf den Menschen selbst erstreckt. Um der Vereinnahmung und zunehmenden Abhängigkeit von KI Grenzen zu setzen, um den ursprünglichen Einsatzzweck von Nachhaltigkeit und Resilienz einlösen zu können, müsste man, wenn man menschenzentrierte KI definiert, KI aus bestimmten Räumen, in denen Kernentscheidungen getroffen werden, ausnehmen und hierfür klare Grenzen definieren.
- Jessica Heesen: Genau. Das ist ein Dilemma, das man sehr bewusst formulieren müsste, um es entsprechend organisatorisch auszufüllen. Aber das soll sich jetzt nicht so anhören als wäre ich Technikpessimistin …
- … vielleicht eher Technikrealistin …
- Jessica Heesen: Ja genau, Realistin. Man muss immer wieder einen Schritt zurückgehen und sagen, dass KI nicht in allen Prozessen, über die wir uns als Menschen auf bestimmte Werte verständigen, drinstecken sollte. Wir sollten uns diesen technischen Charakter immer wieder bewusst machen und uns die Fähigkeit erhalten, uns davon zu distanzieren und auch Alternativen zu benutzen. Das ist doch häufig die klügere Entscheidung.
- Wenn es jetzt um die Formulierung und Förderung bestimmter Projekte geht, fließt hier diese distanziertere Haltung bereits ein?
- Jessica Heesen: Der Trend geht aktuell dahin, dass man versucht, KI überall einzubringen, um KI voranzubringen. Das sind die Initiativen der Bundesregierung in dem Bereich. Im normalen Unternehmensalltag spielt KI ja noch gar keine große Rolle. Aber jetzt an der Schwelle zu vermehrter KI-Anwendung sollte der Diskursraum darüber geöffnet werden, wo ein Einsatz sinnvoll und wo er nicht sinnvoll wäre. Diese Freiräume muss man sich konzeptionell eröffnen dürfen, ohne dass man gleich als Technikpessimistin oder Innovationsverweigerer erscheint.
- Wie wichtig ist „soziale Gerechtigkeit“ für „Resilienz“, die wir mit KI-Lösungen für die sozialökologische Nachhaltigkeit anstreben können?
- Jessica Heesen: Die Frage der Gerechtigkeit findet sich auch in den Ethik- Guidelines der High Level Expert Group on Artificial Intelligence6, wonach die Profite, die man durch KI erringt, auch gerecht verteilt sein müssen in der Gesellschaft. Es ist natürlich sehr wichtig, wenn man sieht, dass KI einen Nutzen nicht nur für die Upper Class und wenige Geldverdiener hat, sondern wenn sie auch die soziale Wohlfahrt stärkt und für alle einen Vorteil bringt. Dann wird man natürlich KI in der sozialen Gemeinschaft eher nutzbar machen.
- Damit wären wir bei dem Thema, dass eine gute KI sehr viele verschiedene Datensätze braucht, womit aber auch eine gewisse Zentralisierungstendenz und ein Aufbau von Macht in den Unternehmen verbunden sind. Müsste hier, insbesondere bei Anwendungen für Nachhaltigkeit, der Staat vorausschauend tätig werden, um ein Gegengewicht zu Big Tech zu bilden?
- Jessica Heesen: Das ist eine ganz spannende Diskussion. Ich glaube, das ist gar nicht der Staat unbedingt, der da vorangehen muss, sondern der Staat muss dafür sorgen, dass wir mehr Pluralität in dem gesamten Bereich haben. Der Staat sollte natürlich beispielhaft vorangehen. Aber er kann natürlich nicht das Gegengewicht zu Google liefern.
- Das heißt aber dann auch, Pluralität durch mehr Markteingriffe herzustellen?
- Jessica Heesen: Das würde in diese Richtung gehen. Diese Diskussion läuft teils unter dem Schlagwort „digitale Souveränität“, aber ich sage dazu lieber „digitale Pluralität“. Wir müssen schauen, dass diejenigen, die jetzt schon KI als ihr Geschäftsmodell pflegen und eine monopolartige Struktur haben, nicht allein bestimmen können, wie nachhaltige Entwicklung im Bereich Digitalisierung aussieht. Genau hier brauchen wir Grassroots- Ansätze. Das sind viele individuelle wohlwollende Entwicklerinnen, Entwickler, die versuchen müssen, ihre Anwendungen voranzubringen – und das können sie in solchen monopolartig dominierten Märkten nicht.
- zurück
- 4
Projekt
Transformationsnarrative zwischen planetaren Grenzen und Künstlicher Intelligenz
Das Vorhaben „Gemeinwohlorientierung im Zeitalter der Digitalisierung: Transformationsnarrative zwischen Planetaren Grenzen und Künstlicher Intelligenz“ analysiert und entwickelt ethische Konzepte und sinnstiftende Erzählungen für gesellschaftliche Veränderungsprozesse mit Blick auf disruptive digitale Technologien wie die Künstliche Intelligenz. Das Projekt adressiert die Frage, wie Transformationspfade im Sinne von Gemeinwohl und nachhaltiger Entwicklung gestaltet und wie umweltpolitische Institutionen entsprechend ausgestaltet werden können. Hierfür sollen ethische Konzepte und Kriterien vor dem Hintergrund der Möglichkeiten Künstlicher Intelligenz überprüft und weiterentwickelt werden. Narrative zur Gestaltung von Transformationsprozessen müssen zudem die Aushandlungsarenen und die kritischen Entscheidungspunkte für die Ausgestaltung von entsprechenden Technologien beleuchten und sichtbar machen.
In dem vom Umweltbundesamt von 2018 bis 2021 geförderten Forschungsprojekt des Fraunhofer-Instituts für System- und Innovationsforschung ISI und des Internationalen Zentrums für Ethik in den Wissenschaften der Universität Tübingen geht es darum, Digitalisierungsfelder zu identifizieren und zu charakterisieren, die mit grundsätzlichen Brüchen der Mensch- Technik-Umwelt-Beziehungen einhergehen können. Aktuelle Transformationsnarrative reflektieren zwar den nicht nachhaltigen Entwicklungspfad der Menschheit, blenden aber oftmals aus, dass sich unsere Vorstellungen von der Verfasstheit der Menschheit (conditio humana) durch disruptive Technologien wie das Maschinelle Lernen und die Künstliche Intelligenz rasch grundlegend ändern können. Denn diese agieren nicht nur zunehmend autonomer, sondern gewinnen an Verbreitung und unterstützen neue, intensivere Formen der Vernetzung. Hiermit gehen mögliche „Verschmelzungen“ digitaler, materieller und biologischer Bereiche einher, die am überlieferten Selbstverständnis des Menschen rütteln.
Webseite des Projekts, https://www.isi.fraunhofer.de/de/competence-center/foresight/projekte/KI_Transformation
Literatur
Artificial Intelligence Ethics Impact Group (AIEI Group) & VDE/Bertelsmann Stiftung (2020): From Principles to Practice. An interdisciplinary framework to operationalise AI ethics, Creative Commons, https://www.ai-ethics-impact.org/en
Cath, C., Wachter, S., Mittelstadt, B., Taddeo, M. & Floridi, L. (2017): Artificial Intelligence and the „Good Society”: The US, EU, and UK Approach, Science and engineering ethics, 24(2), S. 505 – 528.
Crawford, K. (2021): Atlas of AI: The Real Worlds of Artificial Intelligence. Yale University Press.
Heesen, J., Reinhardt, K. & Schelenz, L. (2021): Diskriminierung durch Algorithmen vermeiden. Analysen und Instrumente für eine digitale demokratische Gesellschaft, in: Bauer, G. et al. (Hrsg.), Diskriminierung und Antidiskriminierung [S. 129 – 148]. Bielefeld: transcript Verlag.
Heesen, J. (2020): Verantwortlich Forschen mit und zu Big Data und Künstlicher Intelligenz, in: Seibert-Fohr, A. (Hrsg.), Entgrenzte Verantwortung. Zur Reichweite und Regulierung von Verantwortung in Wirtschaft, Medien, Technik und Umwelt [S. 285 – 303]. New York/Heidelberg: Springer.
Vorschlag für eine VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES ZUR FESTLEGUNG HARMONISIERTER VORSCHRIFTEN FÜR KÜNSTLICHE INTELLIGENZ (GESETZ ÜBER KÜNSTLICHE INTELLIGENZ) UND ZUR ÄNDERUNG BESTIMMTER RECHTSAKTE DER UNION, COM/2021/206 final, https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52021PC0206
Weiterlesen zum Thema:
AI for Good, AI for Good Foundation, Kalifornien, https://ai4good.org
AI for Humanity, French Strategy for Artificial Intelligence, https://www.aiforhumanity.fr/en/
HumanE-AI-Net consortium, https://www.humane-ai.eu
Initiative for Applied ArtificiaI Intelligence, AI Ethics Landscape 1/2019, https://www.appliedai.de/hub/ethical-use-of-ai
Hildebrandt, M.: https://c4ejournal.net/ethics-of-ai-in-context-mireille-hildebrandtthe-ethics-of-agonistic-machine-learning/
Das Interview mit Jessica Heesen führte die Journalistin Christiane Schulzki-Haddouti im Rahmen eines vom Bundesministerium für Bildung und Forschung beauftragten Publikationsprojektes zum Thema „KI und Nachhaltigkeit“. Die vollständige Publikation steht als PDF zum Download zur Verfügung.