Responsible AI: Ist Künstliche Intelligenz vertrauenswürdig?

Künstliche Intelligenz ist längst Teil unseres beruflichen und persönlichen Alltags. Neben den vielen Vorteilen rücken jedoch immer häufiger die mit KI verbundenen Risiken in den Fokus. Zur Vorbeugung von Schaden und Vorurteilen sowie der Schaffung von Vertrauen in die Technologie bedarf es daher einer klaren Definition einer vertrauenswürdigen KI (vKI).

Unter dem Begriff Responsible AI arbeiten aktuell weltweit Expertenteams an einer Richtlinie für die Anforderungen an Künstliche Intelligenz. Die hochrangige Expertengruppe der Europäischen Kommission, kurz HEG-KI, definiert in ihren Ethik-Leitlinien für die EU zwei notwendige Komponenten als Charakteristika einer vertrauenswürdigen KI: Ethischer Zweck und technische Robustheit.

Im Allgemeinen geht es um die Achtung der Grundrechte, des geltenden Rechts sowie der gesellschaftlichen Grundsätze und ethischer Werte. Die zweite Komponente, technische Robustheit, beschreibt zudem die Forderung nach Zuverlässigkeit und dem Schutz vor Schaden durch technische Mängel und damit einhergehender fehlender technischer Kontrolle.

Basierend auf diesen Eckpfeilern ergeben sich für die Entwicklung vertrauenswürdiger KI grundlegende Anforderungen, die im gesamten Lebenszyklus erfüllt werden müssen:

·       Rechenschaftspflicht

·       Datenqualitätsmanagement

·       Menschliche Aufsicht (Steuerung der           KI-Autonomie)

·       Nichtdiskriminierung

 

·       Achtung der menschlichen
Autonomie

·       Schutz der Privatsphäre

·       Robustheit

·       Sicherheit

·       Transparenz

 

Um die Einhaltung auch tatsächlich prüfen zu können, bedarf es geeigneter (end-to-end) Prüfstrategien, von der Feststellung des Bedarfs an einem System über dessen Entwicklung bis hin zur Einführung und laufenden Überwachung. Beispielhaft haben Forscher, die mit Google und der Partnership on AI zusammenarbeiten, das sogenannte SMACTR Framework (Scoping, Mapping, Artifact collection, Testing and Reflection) entwickelt, was dazu dienen kann Audits durchzuführen, bevor ein KI-Modell an Kunden geliefert wird. Unternehmen die KI-Produkte erstellen, sollten sich mit diesen Frameworks auseinandersetzen und geeignete Prüfstrategien in ihren Unternehmen etablieren.