Formen der Regelsetzung

Ziel gelungener Regeln für Künstliche Intelligenz ist es, die Vertrauenswürdigkeit von KI-Systemen zu garantieren und gleichzeitig technologische Innovationen zu fördern. Zwei zentrale Ansätze sind dabei voneinander zu unterscheiden: freiwillige Selbstverpflichtungen sowie die Regelsetzung auf Basis von staatlichen Normen.

Welche Art von Regeln für KI?

Regeln für vertrauenswürdige KI können von Unternehmen, Verbänden oder politischen Institutionen gesetzt werden und für einzelne Betriebe, ganze Branchen oder die Allgemeinheit gelten. Es kann sich dabei um freiwillige Selbstverpflichtungen handeln, mit denen Entwickler oder Anwender von KI-Systemen gewährleisten, dass ihre KI-Technologie bestimmten Standards entspricht. Demgegenüber stehen allgemeingültige Regelungen, die von staatlicher Seite ausgehandelt werden und einen bindenden Charakter haben.

  • Freiwillige Selbstverpflichtung
  • Regulierung auf Basis staatlicher Normen
  • Viele Unternehmen und Institutionen, die KI-Systeme entwickeln und anwenden, sind sich der Bedeutung einer vertrauenswürdigen KI bewusst. Sie verpflichten sich selbst freiwillig dazu, dass ihre KI-Technologie bestimmten Standards entspricht.
  • Staatliche und politische Institutionen bemühen sich um eine allgemeingültige Regelsetzung für eine vertrauenswürdige KI. Auf unterschiedlichen Ebenen werden Normen ausgehandelt, die einen bindenden Charakter haben.
  • Orientierungspunkte
  • Technische Robustheit, Reproduzierbarkeit und Sicherheit von KI-Systemen Ethische Prinzipien & Normen
    Beispiel: KI-Systeme möglichst erklärbar konzipieren und randomisierte, diskriminierungsfreie Datensätze verwenden
  • Gemeinwohl, Innovationskraft und Zukunftsfähigkeit von Wirtschaft und Gesellschaft Analyse der Risikolage des KI-Einsatzes und der Eingriffsmöglichkeit in den jeweiligen Anwendungskontexten
  • Verbindlichkeit
  • Freiwilliger Charakter, keine rechtliche Bindung
  • Verbindlicher Charakter Überführung der Regeln für KI in Gesetze, Verordnungen, Standards
  • Wer setzt wie die Regeln?
  • Unternehmen, Verbände und wissenschaftliche Institute In der Regel keine Möglichkeit einer demokratischen zivilgesellschaftlichen Mitwirkung
  • Im Falles des AI Act: Regelsetzung durch EU-Institutionen und Mitgliedsstaaten Beteiligung von Akteuren aus Politik, Wirtschaft, Forschung und ZivilgesellschaftAushandlung nach demokratischen und gemeinwohlorientierten Prinzipien
  • Vorteile
  • Hebung von Marktstandards und Erhöhung der Qualität von KI-Systemen durch die Einwilligung möglichst vieler Unternehmen Vermeidung von Überregulierung in Anwendungsszenarien mit einem niedrigen Gefahrenpotenzial
  • Gestärktes Vertrauen in KI-Systeme Rechtssicherheit und Standortvorteil für alle Marktteilnehmer Optimalerweise Förderung der Innovationskraft von KI-Entwicklern und KI-Anwendern
  • Regeln für KI in der Praxis
  • Mehrere Selbstverpflichtungen und Selbstprüfungsangebote in Deutschland und Europa National bspw. der Leitfaden zur Gestaltung vertrauenswürdiger KI des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS)Auf EU-Ebene: KI Pakt
  • Artificial Intelligence Act der Europäischen Union

Welche Regelwerke gibt es?

Auf europäischer Ebene hat die EU im August 2024 weltweit erstmalig eine verbindliche Regelung für KI vorgelegt, den AI Act. In Deutschland hat das Deutsche Institut für Normung (DIN) an der wegweisenden KI-Normungsroadmap gearbeitet. Darüber hinaus haben verschiedene nationale und internationale Akteure Leitfäden und Prüfkataloge entwickelt, die zu einer gelingenden KI-Regelsetzung beitragen

Leitfäden und Prüfkataloge aus Deutschland

Überblick zu verschiedenen Ansätzen und Leitlinien von Akteuren aus Wissenschaft, Wirtschaft und Gesellschaft:

AI Ethics Impact Group

Rahmenwerk von VDE und Bertelsmann Stiftung zur Übertragung ethischer Prinzipien für KI-Systeme in die Praxis

Bundesamt für Sicherheit in der Informationstechnik (BSI)

Kriterien-Katalog für KI in Cloud-Diensten AIC4: Formulierung von Mindestanforderungen zur sicheren Verwendung von Methoden des Maschinellen Lernens in Cloud-Diensten (Spezifikation des Cloud Service Compliance Criteria Catalogue C5)

DEKRA

Angebote zur Prüfung und Zertifizierung der Sicherheit von KI-Systemen

Deutsches Institut für Normung e.V (DIN)

Neben der KI-Normungsroadmap, die einen übergreifenden und richtungsweisenden Charakter hat, entwickelt das DIN konkrete und praxisnahe Regelungsansätze für KI in konkreten Kontexten:

Deutsche UNESCO-Kommission
Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (IAIS)

 

  • KI-Prüfkatalog Leitfaden zur Gestaltung vertrauenswürdiger KI: zur Nutzung von unabhängigen Prüforganisationen und zur Eigenevaluation durch Entwickler und Anwender
  • Beratungsangebot von Expertinnen und Experten zur Prüfung, Absicherung und Zertifizierung von KI-Systemen: Ziel einer transparenten, verlässlichen, sicheren und datenschutzkonformen KI-Anwendung
Institut der Wirtschaftsprüfer in Deutschland e.V. (IDW)

Entwurf eines Prüfungsstandards zur standardisierten Prüfung von KI-Systemen

TÜV NORD

Angebote zur Prüfung und Zertifizierung der Sicherheit von KI-Systemen

TÜV SÜD

Angebot an Reifegradanalysen, Guided Assessments und Trainings u.a. zur Qualität, Sicherheit und Ethik von KI-Systemen

Internationale Abkommen und Normen

Großbritannien und USA

Die Sicherheitsbehörden aus UK und USA haben mit Unterstützung 16 weiterer Länder einen Leitfaden zur Entwicklung sicherer KI-Systeme entwickelt.

G7

Die G7-Staaten haben im sogenannten Hiroshima-Prozess Leitlinien für vertrauenswürdige KI-Systeme entwickelt.

OECD

Die OECD erließ bereits 2019 Empfehlungen für Künstliche Intelligenz.

Publikationen zum Thema

AI Act der Europäischen Union: Regeln für vertrauenswürdige KI

Publikation aus der Reihe: KI Kompakt

Plattform Lernende Systeme
Erschienen: Mai 2024

KI-Systeme schützen, Missbrauch verhindern

AGs IT-Sicherheit, Privacy, Recht und Ethik und Lebensfeindliche Umgebungen
AutorInnen: Beyerer, J., Müller-Quade, J. et al.
Erschienen: März 2022

Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten

AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2021

Zertifizierung von KI-Systemen

AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2020

Ethik-Briefing

Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen

AG IT-Sicherheit, Privacy, Recht und Ethik
AutorInnen: Jessica Heesen et al.
Erschienen: Oktober 2020