Den Vorschlag hierzu hatte die Europäische Kommission bereits 2021 vorgelegt. Diesen haben die Mitgliedsstaaten der EU sowie Wirtschafts- und zivilgesellschaftliche Akteure 2022 kommentiert, das EU-Parlament legte im Juni 2023 seine Position zum AI Act fest. Nach den erfolgreich abgeschlossenen Trilog-Verhandlungen zwischen den EU-Institutionen wurde eine endgültige Version des AI Acts, das in Deutschland Gesetzescharakter haben wird, im Dezember 2023 beschlossen. Am 21. Mai 2024 wurde der AI Act von den 27 EU-Mitgliedsstaaten endgültig verabschiedet am 12.7.2024 im Amtsblatt der EU verkündet.
Ziel des AI Acts der EU ist es, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen. Ein ausdifferenziertes Regelwerk macht verpflichtende Vorgaben für die Entwicklung und Anwendung von risikoreichen KI-Systemen. So werden technische wie auch ethische Standards vorgeschrieben, um die Grundrechte der EU-Bürgerinnen und -Bürger zu schützen und zugleich den Wirtschaftsstandort Europa global zu stärken.
Diese Regeln gelten als der erste transnationale Versuch, KI mit verbindlichen und gemeinsam ausgehandelten Normen zu gestalten. Was bereits in vielen anderen Bereichen existiert – beispielsweise in der Medizintechnik oder der Regulierung von Impfstoffen, wird nun auch für die KI geschaffen werden: verbindliche Regeln für eine vertrauenswürdige Technik. Damit nimmt die EU eine Vorreiterrolle zugunsten der europäischen Gesellschaft und Wirtschaft ein. Durch die rechtlichen Rahmenbedingungen für KI schafft die EU nicht nur Transparenz für Nutzerinnen und Nutzer und Rechtssicherheit für Unternehmen, sondern sichert auch die technologische Souveränität des Kontinents. Im internationalen Wettbewerb können sich europäische Wertvorstellungen als Qualitätsmerkmal einer vertrauenswürdigen KI durchsetzen – Stichwort: „KI made in Europe“.
Künftig werden EU-weit einheitliche Anforderungen an KI-Systeme gelten. Gerade im Bereich der Hochrisiko-KI-Anwendungen spielen Normen und Standards dabei eine wichtige Rolle. Das Video zeigt, wie das Zusammenspiel von Gesetzgebung und Normung funktioniert (Quelle: Deutsches Institut für Normung).
Im Zentrum des AI Acts steht die Risiko- oder Kritikalitätsbewertung von KI-Systemen. Er bestimmt Regeln für KI-Systeme entsprechend ihrem Gefahrenpotenzial. Dazu werden KI-Anwendungen in vier Risikostufen klassifiziert – vom minimalen Risiko bis hin zum unannehmbaren Risiko. So gehen etwa von Systemen zur intelligenten Wartung von Industriemaschinen keinerlei Gefahren aus. Sie entsprechen der niedrigsten von vier Risikostufen und bedürfen laut EU-Verordnung keiner Regeln. Andere denkbare KI-Anwendungen bergen indessen Risiken und dürfen nur unter bestimmten Bedingungen zum Einsatz kommen. Die Verordnung gilt nicht für KI-Systeme, die für Forschung und Entwicklung eingesetzt werden oder Systeme, die ausschließlich militärischen oder verteidigungspolitischen Zwecken dienen. Sie berührt überdies auch nicht die Zuständigkeiten der Mitgliedstaaten in Bezug auf die nationale Sicherheit.