„Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für Künstliche Intelligenz weltweit. Dies ist also ein historischer Moment“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission. Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz:
Minimales Risiko
Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie KI-gestützte Empfehlungssysteme oder Spam-Filter werden von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Auf freiwilliger Basis können sich die Unternehmen jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.
Hohes Risiko
KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Regulatorische Sandkästen werden verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern.
Kritische Infrastrukturen
Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, z. B. in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.
Unannehmbares Risiko
KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie z. B. Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördert, oder Systeme, die ein „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus werden einige Anwendungen biometrischer Systeme verboten, z. B. Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).
Spezifisches Transparenzrisiko
Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.
Strafen
Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen.
KI für allgemeine Zwecke
Mit dem KI-Gesetz werden spezielle Vorschriften für KI-Modelle für allgemeine Zwecke eingeführt, die für Transparenz entlang der Wertschöpfungskette sorgen werden. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen werden durch Verhaltenskodizes operationalisiert, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.
Neue Behörde für Künstliche Intelligenz
Was die Verwaltung betrifft, so werden die zuständigen nationalen Marktaufsichtsbehörden die Umsetzung der neuen Vorschriften auf nationaler Ebene überwachen, während die Einrichtung eines neuen europäischen AI-Offices innerhalb der Europäischen Kommission die Koordinierung auf europäischer Ebene sicherstellen wird. Das neue Office für Künstliche Intelligenz wird auch die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen.
Zusammen mit den nationalen Marktaufsichtsbehörden wird das Amt für künstliche Intelligenz die erste Stelle auf der Welt sein, die verbindliche Vorschriften für künstliche Intelligenz durchsetzt, und soll daher zu einem internationalen Bezugspunkt werden. Für allgemeine Modelle wird ein wissenschaftliches Gremium unabhängiger Experten eine zentrale Rolle spielen, indem es Warnungen zu systemischen Risiken herausgibt und zur Klassifizierung und Prüfung der Modelle beiträgt.
Nächste Schritte
Die politische Einigung muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden. Nach der Verabschiedung des AI-Gesetzes wird es eine Übergangszeit geben, bevor die Verordnung anwendbar wird. Um diese Zeit zu überbrücken, wird die Kommission einen KI-Pakt ins Leben rufen. Er wird KI-Entwickler aus Europa und der ganzen Welt zusammenbringen, die sich auf freiwilliger Basis verpflichten, die wichtigsten Verpflichtungen des KI-Gesetzes bereits vor Ablauf der gesetzlichen Fristen umzusetzen.
Internationale Ebene
Um Regeln für vertrauenswürdige KI auf internationaler Ebene zu fördern, wird die Europäische Union weiterhin in Foren wie der G7, der OECD, dem Europarat, der G20 und der UNO mitarbeiten. Erst kürzlich haben wir die Einigung der G7-Staats- und Regierungschefs im Rahmen des Hiroshima-Prozesses für KI auf internationale Leitprinzipien und einen freiwilligen Verhaltenskodex für fortgeschrittene KI-Systeme unterstützt.