Die Einsatzmöglichkeiten von künstlicher Intelligenz (KI) werden aktuell sehr intensiv in verschiedenen Kreisen diskutiert. Da aktuell über eine Revision der Maschinenrichtlinie 2006/42/EG in Brüssel diskutiert wird, ist u.a. auch hier die Aufnahme von KI in den Anhang I der grundlegenden Sicherheits- und Gesundheitsanforderungen ein Thema. Entgegen der ursprünglichen Planung wird die EU-Kommission erst im 2. Quartal 2021 ihren Entwurf der Revision veröffentlichen (siehe hier).
Für künstliche Intelligenz gibt es keine allgemein anerkannte Definition. Das DIN und die DKE haben in einem gemeinsamen Projekt mit dem Bundesministerium für Wirtschaft und Energie (BMWi) eine Normungsroadmap für Künstliche Intelligenz erarbeitet, um hier einen umfassenden Überblick über Status Quo, Anforderungen und Herausforderungen sowie Normungs- und Standardisierungsbedarfe zu verschiedenen Schwerpunktthemen rund um Künstliche Intelligenz zu liefern.
Ein wichtiger Aspekt von KI ist, unter welchen Voraussetzungen sicherheitsrelevante Entscheidungen eines Systems von Methoden der künstlichen Intelligenz beeinflusst oder automatisiert getroffen werden dürfen. Konkrete rechtliche Vorgaben fehlen derzeit noch. Die bisherigen Binnenmarktvorschriften nehmen auf den Aspekt KI bisher keinen Bezug. Gerade im Maschinen- und Anlagenbau wären KI-Systeme denkbar und deshalb wird sicherlich in der Revision der Maschinenrichtlinie hierauf Bezug genommen, um einen Bewertungsmaßstab für die rechtlich geforderte Risikobeurteilung zu haben.
Von der Hierarchie der Schutzmaßnahmen ausgehend (sog. Produkthaftungspyramide), ist ein Produkt so zu konstruieren, dass Gefährdungen erst gar nicht entstehen können. Wo dies nicht umsetzbar ist, müssen Schutzeinrichtungen die Risiken so weit verringern, bis nur noch vertretbare Restrisiken übrig sind. Über diese müssen schließlich die Anwender informiert werden (Instruktionspflichten). Einen wesentlichen Anteil an diesem Konzept haben Steuerungen, wenn sie dazu eingesetzt werden, Sicherheitsfunktionen eines Produktes auszuführen (vgl. Anhang I, Nummer 1.2.1, 2006/42/EG). Entscheidend ist, dass Hersteller in der Lage sind, die von ihren Produkten ausgehenden Risiken zu beurteilen.
Hier liegt das Problem: Die Designer von Systemen, die auf den komplexeren Methoden der künstlichen Intelligenz basieren (wie etwa maschinelles Lernen mit neuronalen Netzen), können bisher selbst im Nachhinein nicht zufriedenstellend erklären, warum sich ihr System auf eine bestimmte Weise verhalten hat.
Ziel soll es sein, mit solchen eher aus dem Risikomanagement kommenden Ansätzen auch für Methoden der künstlichen Intelligenz Kriterienkataloge für ein akzeptables Risikoniveau aufzustellen. Diese Kriterienkataloge können Festlegungen zu Spezifikation und Modellierung, Erklärbarkeit und Nachvollziehbarkeit von Entscheidungen, Übertragbarkeit auf unterschiedliche Situationen, Verifizierung und Validierung des Systems, Überwachung während der Laufzeit, Mensch-Maschine-Interaktion, Prozesssicherung und Zertifizierung sowie sicherheitsbezogener Ethik und Datensicherheit enthalten.
Daher fordert das Europäische Parlament eine Verordnung (EU) über ethische Grundsätze für die Entwicklung, den Einsatz und die Nutzung von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien. Darin werden solche Kriterien für die Bewertung der Konformität vorgeschlagen.
Erste Ansätze finden sich in dem jüngst veröffentlichten Fachbericht ISO/TR 22100-5 3 „Safety of machinery - Relationship with ISO 12100 - Part 5: Implications of artificial intelligence machine learning“ (Januar 2021). Neben der Revision der Maschinenrichtlinie wird die EU-Kommission auch einen Vorschlag für eine Verordnung zur künstlichen Intelligenz vorlegen, die rechtlich verbindliche Rahmenbedingungen für die Verwendung künstlicher Intelligenz enthält. Diese Rahmenbedingungen müssen vollständige, klare und verifizierbare Anforderungen dafür enthalten, in welchen Fällen und unter welchen Voraussetzungen sicherheitsrelevante Entscheidungen eines Systems von Methoden der künstlichen Intelligenz beeinflusst oder automatisiert getroffen werden dürfen.