DNV definiert Grundlagen für vertrauenswürdige KI

 

Assurance of AI-enabled systems

Neue Forschungsergebnisse von DNV zeigen, welche Grundlagen für den Einsatz vertrauenswürdiger künstlicher Intelligenz (KI) in sicherheitskritischen industriellen Prozessen erforderlich sind. Laut unserem Positionspapier Assurance of AI‑Enabled Systems lassen sich etablierte Prinzipien des Risikomanagements an die Komplexität und Unsicherheit KI‑gestützter Systeme anpassen. Zwar bringt KI neue Risiken mit sich, zugleich bieten bewährte Assurance‑Ansätze aus sicherheitskritischen Industrien eine belastbare Ausgangsbasis, um diesen zu begegnen.

Die Studie zeigt, dass KI Risiken neu definiert, da sie nicht als festes, vorhersehbares Systemelement arbeitet. Einmalige Prüfungen reichen daher nicht aus. Stattdessen ist eine kontinuierliche und anpassungsfähige Assurance über den gesamten Lebenszyklus hinweg erforderlich.  

Christian Agrell, Programme Director for AI Assurance at DNV
Christian Agrell,
Programme Director for AI Assurance at DNV

Christian Agrell, Programme Director for AI Assurance bei DNV, erklärt:
„Die Entwicklung vertrauenswürdiger künstlicher Intelligenz erfordert keinen kompletten Neustart. Wir verfügen bereits über solide Grundlagen in der modernen Assurance‑ und Risikowissenschaft sowie über langjährige Erfahrung im Umgang mit digitalen Technologien in Hochrisikoumgebungen. Werden diese Prinzipien sorgfältig angewendet, lassen sich Systeme entwickeln, die auch während ihrer Weiterentwicklung sicher und zuverlässig bleiben. Vertrauenswürdige KI beruht auf vorhersehbarem Verhalten unter Unsicherheit – genau dabei helfen diese Grundlagen.“

Die Forschung stützt sich auf die jahrzehntelange Erfahrung von DNV im Bereich Assurance und Risikomanagement für kritische Infrastrukturen, unter anderem in der maritimen Industrie und im Energiesektor. Zu den zentralen Grundlagen für vertrauenswürdige KI zählen:  

Ein Modell, das das gesamte KI‑gestützte System abbildet  
Das Modell beschreibt das Zusammenspiel von KI mit Menschen, digitalen und physischen Komponenten sowie mit der jeweiligen Betriebsumgebung. Es ermöglicht, neu entstehendes Verhalten, unbeabsichtigte Wechselwirkungen und kontextspezifische Risiken zu erkennen, die bei einer isolierten Betrachtung der KI‑Komponente nicht sichtbar wären.  

Ein modularer Ansatz
Ein Risikomodell, das auf unsicherheitsbasierten Bewertungen und modularen Risikoprinzipien beruht, um komplexe Systeme und teils neu entstehende Risiken in handhabbare Einheiten auf unterschiedlichen Systemebenen zu gliedern. 

Verknüpfung von Aussagen mit Nachweisen
Strukturierte Argumentationsketten verbinden Aussagen wie „das System ist sicher“ mit überprüfbaren Nachweisen, Annahmen und Begründungen. So entsteht ein transparentes und prüfbares Rahmenwerk, mit dem Vertrauen über den gesamten Lebenszyklus hinweg entstehen kann.  

Kontinuierliche, kontextbezogene Assurance, die sich mit der KI weiterentwickelt
KI‑gestützte Systeme verändern sich im Laufe der Zeit, etwa durch Modell‑Updates, veränderte Daten oder wechselnde Einsatzbedingungen. Um die Vertrauenswürdigkeit zu erhalten, muss Assurance fortlaufend und nicht einmalig erfolgen. Dazu gehören unter anderem Echtzeit‑Monitoring, regelmäßige Aktualisierungen der Nachweise sowie eine erneute Bewertung von Risiken und Anforderungen, damit das Vertrauen in das System über den gesamten Lebenszyklus hinweg begründet bleibt.  

„Diese Grundlagen bieten der Industrie einen klaren und umsetzbaren Ansatz, um Vertrauen in KI zu entwickeln sowie aufrechtzuerhalten. Wir arbeiten bereits mit Unternehmen zusammen, die sowohl das Potenzial von KI als auch die Risiken für kritische Dienstleistungen erkennen. Ich ermutige weitere Organisationen, sich an der systematischen Auseinandersetzung mit den Risiken künstlicher Intelligenz zu beteiligen“, ergänzt Agrell.

Das Positionspapier ist Teil der umfassenderen Arbeit von DNV zur verantwortungsvollen Einführung von KI in der Industrie und steht im Einklang mit der empfohlenen Praxis von DNV zur KI‑Assurance (DNV‑RP‑0671).