Formen der Regelsetzung

Ziel gelungener Regeln für Künstliche Intelligenz ist es, die Vertrauenswürdigkeit eines KI-Systems zu garantieren und gleichzeitig technologische Innovationen zu fördern. Regeln können von verschiedenen Institutionen gesetzt werden. Zwei zentrale Ansätze sind dabei einerseits die freiwillige Selbstverpflichtung von KI-Entwicklern und -Anwendern und andererseits die Regelsetzung auf Basis von staatlichen Normen.

Wer setzt die Regeln?

Regeln für vertrauenswürdige KI können von Unternehmen, Verbänden oder politischen Institutionen gesetzt werden und für einzelne Betriebe, ganze Branchen oder die Allgemeinheit gelten.

  • Freiwillige Selbstverpflichtung
  • Regulierung auf Basis staatlicher Normen
  • Viele Unternehmen und Institutionen, die KI-Systeme entwickeln und anwenden, sind sich der Bedeutung einer vertrauenswürdigen KI bewusst. Sie verpflichten sich selbst freiwillig dazu, dass ihre KI-Technologie bestimmten Standards entspricht.
  • Staatliche und politische Institutionen bemühen sich um eine allgemeingültige Regelsetzung für eine vertrauenswürdige KI. Auf unterschiedlichen Ebenen werden Normen ausgehandelt, die einen bindenden Charakter haben.
  • Regeln für KI: Orientierungspunkte
  • Technische Robustheit, Reproduzierbarkeit und Sicherheit von KI-Systemen Ethische Prinzipien & Normen
    Beispiel: KI-Systeme möglichst erklärbar konzipieren und randomisierte, diskriminierungsfreie Datensätze verwenden
  • Gemeinwohl, Innovationskraft und Zukunftsfähigkeit von Wirtschaft und Gesellschaft Analyse von der Risikolage des KI-Einsatzes und der Eingriffsmöglichkeit in den jeweiligen Anwendungskontexten
  • Verbindlichkeit
  • Freiwilliger Charakter, keine rechtliche Bindung
  • Verbindlicher Charakter Überführung der Regeln für KI in Gesetze, Verordnungen, Standards
  • Wer setzt wie die Regeln?
  • Unternehmen, Verbände und wissenschaftliche Institute In der Regel keine Möglichkeit einer demokratischen zivilgesellschaftlichen Mitwirkung
  • Regelsetzung durch EU-Institutionen und Mitgliedsstaaten Beteiligung von Akteuren aus Politik, Wirtschaft, Forschung und ZivilgesellschaftAushandlung nach demokratischen und gemeinwohlorientierten Prinzipien
  • Vorteile
  • Hebung von Marktstandards und Erhöhung der Qualität von KI-Systemen durch die Einwilligung möglichst vieler Unternehmen Vermeidung von Überregulierung in Anwendungsszenarien mit einem niedrigen Gefahrenpotenzial
  • Gestärktes Vertrauen in KI-Systeme Rechtssicherheit und Standortvorteil für alle Marktteilnehmer Optimalerweise Förderung der Innovationskraft von KI-Entwicklern und KI-Anwendern
  • Regeln für KI in der Praxis
  • Mehrere Selbstverpflichtungen und Selbstprüfungsangebote in Deutschland und Europa National bspw. der Leitfaden zur Gestaltung vertrauenswürdiger KI des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS)Auf EU-Ebene: KI Pakt
  • Artificial Intelligence Act der Europäischen Union

Publikationen zum Thema

AI Act der Europäischen Union: Regeln für vertrauenswürdige KI

Publikation aus der Reihe: KI Kompakt

Plattform Lernende Systeme
Erschienen: Mai 2024

KI-Systeme schützen, Missbrauch verhindern

AGs IT-Sicherheit, Privacy, Recht und Ethik und Lebensfeindliche Umgebungen
AutorInnen: Beyerer, J., Müller-Quade, J. et al.
Erschienen: März 2022

Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten

AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2021

Zertifizierung von KI-Systemen

AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2020

Ethik-Briefing

Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen

AG IT-Sicherheit, Privacy, Recht und Ethik
AutorInnen: Jessica Heesen et al.
Erschienen: Oktober 2020