"Würden Sie bei einem Atomkraftwerk erst einmal gucken, was passiert?"
Ein Expertenbeitrag von Jessica Heesen, Mitglied der Plattform Lernende Systeme
Künstliche Intelligenz kommt heute an vielen Stellen zum Einsatz: Sie filtert Spam-E-Mails, sortiert Beiträge in Social-Media-Feeds und kann dafür eingesetzt werden, Kreditwürdigkeit zu prüfen oder uns zu überwachen. Die Europäische Kommission hat nun einen Vorschlag unterbreitet, wie sie den Einsatz von KI in Europa regulieren will. Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen und hat sich mit dem Papier der Kommission beschäftigt.
ZEIT ONLINE: Frau Heesen, warum brauchen wir überhaupt Regeln für künstliche Intelligenz?
Jessica Heesen: Künstliche Intelligenz ist eine Schlüsseltechnologie, sie wird in Zukunft in fast allen digitalen Systemen stecken. Technologie, die einen so großen Einfluss hat, muss reguliert werden. Denn wenn wir nicht regulieren, dann gibt es trotzdem Regeln. Aber es sind nicht unbedingt die, die den gesellschaftlichen Wertvorstellungen entsprechen, sondern die, die uns große Unternehmen auflegen.
ZEIT ONLINE: Was ist kritischer an den automatisierten Entscheidungsprozessen einer künstlichen Intelligenz als an bisherigen, etwa durch Algorithmen?
Heesen: Traditionelle algorithmische Berechnungen sind teilweise ähnlich kritisch wie künstliche Intelligenz: Sie nehmen ein Muster unserer Handlungspraxen aus der Vergangenheit und treffen daraus Vorhersagen für die Zukunft. Mit welcher Wahrscheinlichkeit ich eine Werbeanzeige zu Kleidung auf Facebook klicke zum Beispiel, aber auch, mit welcher Wahrscheinlichkeit ich einmal kriminell werde. Bei künstlicher Intelligenz kommt hinzu, dass sie Datensätze schneller auswerten und dadurch genauere Vorhersagen treffen kann. Und sie kann das ohne unsere Kontrolle machen. Systeme, die auf maschinellem Lernen beruhen, erstellen selbst Klassifikationen, erkennen Muster. Der Mensch bestimmt dann nicht mehr die verschiedenen Aspekte, die für ein Thema wichtig sind, sondern die Technik.
ZEIT ONLINE: Die EU-Kommission hat nun weitreichende Regeln für künstliche Intelligenz vorgestellt. Wie bewerten Sie die allgemein?
Heesen: Zunächst einmal: Dass es diesen Vorschlag überhaupt gibt, ist ein Riesenfortschritt. Und er geht teilweise ganz schön weit. Das hat mich positiv überrascht. Zum Beispiel, dass die Kommission biometrische Identifizierungssysteme im öffentlichen Raum größtenteils verbannen will. In unserer Gesellschaft schreitet ja die Nutzung von intelligenter Kameraüberwachung, die oft auch auf künstliche Intelligenz zurückgreift, massiv voran. Gerade erst gab es in Mannheim wieder ein riesiges Modellprojekt dazu. Wenn diese biometrischen Identifizierungssysteme verboten werden, wäre das ein radikaler Einschnitt.
ZEIT ONLINE: Die EU definiert in ihrem Papier ein unannehmbares Risiko für bestimmte Anwendungen künstlicher Intelligenz. Darunter fallen zum Beispiel die Manipulation von Menschen oder Social-Credit-Systeme, wie sie in China geplant sind. Die sollen verboten werden. Weiter unterteilt man künstliche intelligente Systeme in solche, die ein hohes Risiko bergen, wie die von Ihnen angesprochene biometrische Echtzeitidentifizierung, ein geringes Risiko wie Chatbots und ein minimales Risiko wie Spam-Filter im E-Mail-Postfach. Was halten Sie von dieser Kategorisierung?
Heesen: In einigen konkreten Fällen teile ich die Einschätzung der Kommission. Bei Social-Credit-Systemen handelt es sich um eine gefährliche Anwendung, bei Spam-Filtern hingegen nicht. Generell aber sind solche Kategorisierungen sehr umstritten.
ZEIT ONLINE: Warum?
Heesen: Weil es schwer ist, zu guten Kategorisierungen zu kommen. Festgelegte Risikoklassen hauen oft nicht hin, weil künstliche Intelligenz flexibel einsetzbar ist. Nehmen wir die biometrische Erfassung. Darunter fällt unter anderem Gesichtserkennung. Die Gefahren werden in dem Regulierungsvorschlag klar benannt, die Technologie grundsätzlich gebannt. In bestimmten Fällen aber soll es Ausnahmen geben, wenn man etwa vermisste Kinder sucht. Man muss also stark auf den Anwendungskontext schauen. Pauschale Regeln bringen da eher wenig.
ZEIT ONLINE: Besonders offensichtlich wird die Schwierigkeit einer guten Kategorisierung beim Verbot von Manipulation. Im Gesetzestext wird sie als unannehmbares Risiko klassifiziert. Es bleibt aber sehr vage, was gemeint ist: Wo fängt Manipulation an? Und wann ist sie problematisch?
Heesen: Ich gebe Ihnen recht, dieser Manipulationsbegriff ist sehr breit formuliert. Ist es schon Manipulation, wenn sich Suchmaschinen nach unseren Präferenzen richten und uns bestimmte Informationen anzeigen? Man kann sowohl argumentieren, dass das der Fall ist, als auch, dass es hilfreich ist. Denn warum soll ich mich durch lauter Links klicken, wenn die nicht dem nahekommen, was ich wahrscheinlich suchen werde? Sogar im Bereich der Wahlwerbung kann man argumentieren, dass mir vielleicht einfach Werbung angezeigt wird, die gut zu mir passt und interessant für mich ist. Nicht alles, was sich nach uns richtet, ist im negativen Sinne manipulativ. Der Begriff wird nicht ausreichend differenziert. Trotzdem ist es aus meiner Sicht auch gut, dass der Begriff so weit gefasst ist.
ZEIT ONLINE: Wieso das?
Heesen: Alles, was die großen Technologieunternehmen machen, ist dazu gedacht, uns dazu animieren, in den Apps zu bleiben, noch mehr Zeit in sozialen Medien zu verbringen, unsere Daten abzugeben, uns zum Kaufen anzuregen. Ihr Geschäftsmodell ist, unsere Schwächen zu erkennen und uns in gewisser Weise zu manipulieren. Diese dark patterns, diese dunklen Muster also, unterstützt die künstliche Intelligenz. Und das wird mit dieser Verordnung jetzt alles mal adressiert.
ZEIT ONLINE: Manipulation oder Überwachung sind aber nicht erst durch den Einsatz künstlicher Intelligenz entstanden.
Heesen: Richtig. Ganz viele Probleme, die der künstlichen Intelligenz zu Last gelegt werden, sind Strukturprobleme der Digitalisierung. Die Datafizierung der Gesellschaft zum Beispiel, dass soziale Plattformen Daten darüber sammeln, wie ich meinetwegen mein Internetradio benutze, geht durch die Regulierung von künstlicher Intelligenz nicht weg. Es gibt auch schlichtere Formen der Überwachung, darüber sprechen wir ja schon seit 20 Jahren. Und wir sollten noch mehr darüber reden. Denn wir haben kein Mittel gegen diese Datafizierung. Wir sind abhängig von bestimmten Infrastrukturbedingungen im Netz: Wir nutzen alle ähnliche Plattformen, obwohl wir unsere Daten gar nicht dafür hergeben wollen, weil wir keine Alternativen haben oder die nicht attraktiv genug sind. Der Einsatz künstlicher Intelligenz verstärkt diese oligopolartige Stellung einzelner Unternehmen noch einmal, weil auch dort große Anbieter wie Google, Amazon oder Apple den Markt beherrschen. Das heißt, wir reproduzieren dieses Schema.
ZEIT ONLINE: Wie so oft geht Europa nun den Weg der strengsten Regulierung. In den USA hingegen sagt die Federal Trade Commission den Technologieunternehmen sinngemäß: Haltet euch an diese groben Regeln. Macht ihr falsche Angaben und setzt etwa voreingenommene Algorithmen ein, leiten wir ein Verfahren ein. Ist das nicht der effektivere Weg?
Heesen: Naja. Würden Sie ein Atomkraftwerk ans Netz bringen und erst einmal gucken, was passiert? Die Frage ist doch, wie hoch der potenzielle Schaden für eine Gesellschaft ist, wenn man Systeme unreguliert einsetzt. Und bei künstlicher Intelligenz, die dafür eingesetzt werden kann, die gesamte Bevölkerung zu überwachen oder Menschen zu manipulieren, sollte man nicht erst warten, bis ein Schaden entsteht.
Expertenbeitrag erschienen in:
ZEIT ONLINE
April 2021