21.08.2024
Der AI Act ist eine neue Rechtsvorschrift zur Künstlichen Intelligenz, die von der Europäischen Union verabschiedet wurde. Er schafft die Grundlage für die Regulierung der KI in der EU. Mit dem weltweit ersten Rechtsrahmen für KI setzt die EU einen wichtigen Meilenstein, um die Vorteile der Technologie zu nutzen und die Risiken zu minimieren.
Die Verordnung soll den europäischen Markt verbessern, indem es den Einsatz von KI fördert, der sicher ist, auf die Menschenrechte achtet und Gesundheit, Sicherheit und Umwelt schützt. Darin sind Regeln dafür festgelegt, wie KI in der EU verkauft, verwendet und überwacht werden darf. Außerdem verbietet der AI Act bestimmte KI-Praktiken.
Darüber hinaus werden besondere Vorschriften für KI-Systeme mit hohem Risiko und deren Betreiber:innen festgelegt – bestimmte KI-Systeme müssen transparent sein. Der Rechtsakt enthält auch Vorschriften für den Verkauf von KI-Modellen für allgemeine Zwecke und Maßnahmen zur Förderung von Innovationen, insbesondere für kleine Unternehmen und Startups.
Der AI Act stuft KI nach ihrem Risiko ein:
-
Inakzeptable Risiken sind verboten (z.B. soziale Bewertungssysteme und manipulative KI).
-
Hohes Risiko: Der größte Teil des Gesetzes befasst sich mit KI-Systemen mit hohem Risiko, die von nun an reguliert sind. Dabei handelt es sich um KI-Systeme, die einen signifikanten Einfluss auf das Leben und die Sicherheit der Menschen haben (z.B. zur Stellung medizinischer Diagnosen oder bei Banken und Versicherungen).
-
Begrenztes Risiko: Ein kleinerer Teil befasst sich mit KI-Systemen mit begrenztem Risiko, für die geringere Transparenzpflichten gelten: Entwickler:innen und Betreiber:innen müssen sicherstellen, dass die Endnutzer:innen wissen, dass sie mit KI interagieren (Chatbots und Deepfakes).
-
Minimales Risiko: Das minimale Risiko ist unreguliert – einschließlich der meisten KI-Anwendungen, die derzeit auf dem EU-Binnenmarkt erhältlich sind, wie z.B. KI-gestützte Videospiele und Spam-Filter.
Welchen Einfluss hat der AI Act?
-
Verpflichtungen entstehen für diejenigen Entwickler:innen, die beabsichtigen, hochriskante KI-Systeme in der EU in Verkehr zu bringen oder in Betrieb zu nehmen, unabhängig davon, ob sie in der EU oder in einem Drittland ansässig sind.
-
Verpflichtungen entstehen zudem für Anbieter:innen aus Drittländern, bei denen der Output des Hochrisiko-KI-Systems in der EU verwendet wird.
-
Allzweck-KI-Modelle, genannt GPAI (general-purpose artificial intelligence), können für eine Vielzahl von Zwecken eingesetzt werden und sollen allgemein anwendbare Funktionen wie Bild- und Spracherkennungen, Beantwortung von Fragen, Übersetzungen, etc. ausführen – sowohl zur direkten Verwendung als auch zur Integration in andere KI-Systeme.
Alle Anbieter:innen müssen technische Unterlagen und Gebrauchsanweisungen bereitstellen, die Urheberrechtsrichtlinie einhalten und eine Zusammenfassung der für das Training verwendeten Inhalte veröffentlichen.
-
Anbieter:innen von GPAI-Modellen mit freien und offenen Lizenzen müssen lediglich das Urheberrecht einhalten und die Zusammenfassung der Trainingsdaten veröffentlichen, es sei denn, sie stellen ein systemisches Risiko dar.
-
Alle Anbieter:innen von GPAI-Modellen, die ein systemisches Risiko darstellen, müssen auch Modellbewertungen und Gegentests durchführen, schwerwiegende Vorfälle verfolgen und melden sowie Cybersicherheitsschutzmaßnahmen gewährleisten.
Ab wann gilt er?
-
Am 12. Juli 2024 hat die Europäische Union den AI Act im Amtsblatt veröffentlicht. In Kraft getreten ist die Verordnung am 01. August 2024.