Zu der Familie der Techniken und Konzepte der Künstlichen Intelligenz (kurz KI, engl. AI) zählen das maschinelle Lernen, Deutungsmaschinen, aber auch Such- und Optimierungsmethoden (siehe Anhang I des Gesetzesentwurfs über Künstliche Intelligenz, AI Act).
Es ist ein schmaler Grat, etwas präventiv zu regulieren, was man nicht wirklich zu fassen bekommt. KI-Systeme haben das Potential, positiv auf gesellschaftlichen Wohlstand zu wirken, im Gegensatz dazu aber auch erheblichen Schaden anzurichten und Macht zu konzentrieren. Die EU-Kommission untersuchte daher die wirtschaftlichen und gesellschaftlichen Auswirkungen verschiedener Regulierungsoptionen. Die Optionen reichten von der „freiwilligen Kennzeichnung“ bis zu obligatorischen Anforderungen an alle KI-Systeme, unabhängig vom Risikograd.
Horizontaler Rechtsrahmen ausschließlich für Hochrisiko-KI-Systeme
Die Untersuchung hatte zum Resultat, dass ein horizontaler Rechtsrahmen ausschließlich für Hochrisiko-KI-Systeme geschaffen werden soll. (Liste siehe Anhang III AI Act). Anforderungen an jene Hochrisiko-KI-Systeme beziehen sich auf:
- Daten, Dokumentation und Rückverfolgbarkeit,
- Bereitstellung von Informationen und Transparenz,
- menschliche Aufsicht,
- sowie Robustheit und Genauigkeit.
Unternehmen können freiwillig Verhaltenskodizes für andere KI-Systeme einführen, die kein hohes Risiko darstellen. Das genannte Risiko bezieht sich hier auf die Gefahr von negativem Einfluss auf die Einhaltung der Grundrechte.
Die Beweggründe der EU-Kommission für einen AI Act sind edel. So soll z.B. die Manipulation von Personen durch unterschwellige Beeinflussung verhindert werden. Der Vorschlag für den AI Act sieht auch vor, die Bewertung des sozialen Verhaltens für allgemeine Zwecke mithilfe von KI durch öffentliche Behörden („Social Scoring“) zu verbieten.
Der Gegenstand des vorgeschlagenen Rechtsaktes umfasst u.a.:
- das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen der künstlichen Intelligenz,
- Verbote bestimmter Praktiken (siehe Titel II),
- Verpflichtungen für Betreiber solcher Systeme.
Mit dem CE-Kennzeichen erklärt der Anbieter eines Hochrisiko-KI-Systems, dass das System die Anforderungen erfüllt.
Wie bereits bekannt, wird die Bewertung der Konformität in der Praxis bevorzugt durch harmonisierte Normen (mit Fundstelle im Amtsblatt) erfolgen: Konformitätsvermutung. Ein Qualitätsmanagementsystem gewährleistet hierbei die Einhaltung des AI Acts.
Mögliche Konformitätsbewertungsverfahren nach dem neuen AI Act
Anmerkung der Redaktion: Wir hoffen natürlich, dass die notwendigen harmonisierten Normen in der „EU von morgen“ auch vorhanden und von einem HAS-Consultant positiv bewertet und rechtzeitig im Amtsblatt gelistet sind, um eine Konformitätsvermutungswirkung zu entfalten.
Es gibt zwei Optionen für das Konformitätsbewertungsverfahren:
- auf der Grundlage einer internen Kontrolle gemäß Anhang VI, oder
- auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation unter Beteiligung einer notifizierten Stelle gemäß Anhang VII.
Der aktuelle Vorschlag sieht vor, dass jene Hochrisiko-KI-Systeme in einer öffentlichen EU-Datenbank vom Anbieter zu registrieren sind! Behörden und Nutzern soll diese Datenbank (der Zukunft) Informationen über die Einhaltung der hier skizzierten Anforderungen bieten.
Die Natur der Sache stellt uns vor besondere Herausforderungen im Konformitätsbewertungsverfahren, weil KI-Systeme nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen können. Was also gilt als wesentliche Änderung am System? Sie sind dazu eingeladen, diese Fragen mit uns zu diskutieren. Nehmen Sie gern Kontakt zu uns auf!