Ziel gelungener Regeln für Künstliche Intelligenz ist es, die Vertrauenswürdigkeit eines KI-Systems zu garantieren und gleichzeitig technologische Innovationen zu fördern. Regeln können von verschiedenen Institutionen gesetzt werden. Zwei zentrale Ansätze sind dabei einerseits die freiwillige Selbstverpflichtung von KI-Entwicklern und -Anwendern und andererseits die Regelsetzung auf Basis von staatlichen Normen.
Wer setzt die Regeln?
Regeln für vertrauenswürdige KI können von Unternehmen, Verbänden oder politischen Institutionen gesetzt werden und für einzelne Betriebe, ganze Branchen oder die Allgemeinheit gelten.
Freiwillige Selbstverpflichtung
Regulierung auf Basis staatlicher Normen
Viele Unternehmen und Institutionen, die KI-Systeme entwickeln und anwenden, sind sich der Bedeutung einer vertrauenswürdigen KI bewusst. Sie verpflichten sich selbst freiwillig dazu, dass ihre KI-Technologie bestimmten Standards entspricht.
Staatliche und politische Institutionen bemühen sich um eine allgemeingültige Regelsetzung für eine vertrauenswürdige KI. Auf unterschiedlichen Ebenen werden Normen ausgehandelt, die einen bindenden Charakter haben.
Regeln für KI: Orientierungspunkte
Technische Robustheit, Reproduzierbarkeit und Sicherheit von KI-Systemen Ethische Prinzipien & Normen Beispiel: KI-Systeme möglichst erklärbar konzipieren und randomisierte, diskriminierungsfreie Datensätze verwenden
Gemeinwohl, Innovationskraft und Zukunftsfähigkeit von Wirtschaft und Gesellschaft Analyse von der Risikolage des KI-Einsatzes und der Eingriffsmöglichkeit in den jeweiligen Anwendungskontexten
Verbindlichkeit
Freiwilliger Charakter, keine rechtliche Bindung
Verbindlicher Charakter Überführung der Regeln für KI in Gesetze, Verordnungen, Standards
Wer setzt wie die Regeln?
Unternehmen, Verbände und wissenschaftliche Institute In der Regel keine Möglichkeit einer demokratischen zivilgesellschaftlichen Mitwirkung
Regelsetzung durch EU-Institutionen und Mitgliedsstaaten Beteiligung von Akteuren aus Politik, Wirtschaft, Forschung und ZivilgesellschaftAushandlung nach demokratischen und gemeinwohlorientierten Prinzipien
Vorteile
Hebung von Marktstandards und Erhöhung der Qualität von KI-Systemen durch die Einwilligung möglichst vieler Unternehmen Vermeidung von Überregulierung in Anwendungsszenarien mit einem niedrigen Gefahrenpotenzial
Gestärktes Vertrauen in KI-Systeme Rechtssicherheit und Standortvorteil für alle Marktteilnehmer Optimalerweise Förderung der Innovationskraft von KI-Entwicklern und KI-Anwendern
Regeln für KI in der Praxis
Mehrere Selbstverpflichtungen und Selbstprüfungsangebote in Deutschland und Europa National bspw. der Leitfaden zur Gestaltung vertrauenswürdiger KI des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS)Auf EU-Ebene: KI Pakt
AI Act der Europäischen Union: Regeln für vertrauenswürdige KI
Publikation aus der Reihe: KI Kompakt
Plattform Lernende Systeme Erschienen: Mai 2024
KI-Systeme schützen, Missbrauch verhindern
AGs IT-Sicherheit, Privacy, Recht und Ethik und Lebensfeindliche Umgebungen AutorInnen: Beyerer, J., Müller-Quade, J. et al. Erschienen: März 2022
Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten
AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al. Erschienen: November 2021
Zertifizierung von KI-Systemen
AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al. Erschienen: November 2020
Ethik-Briefing
Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen
AG IT-Sicherheit, Privacy, Recht und Ethik AutorInnen: Jessica Heesen et al. Erschienen: Oktober 2020