In einem neuen Artikel begründen unsere Expert:innen Markus Langer,
Kevin Baum, Kathrin Hartmann, Stefan Hessel, Timo Speith und Jonas Wahl
die Notwendigkeit eines Auditierungsprozesses zur Gewährleistung der
Erklärbarkeit intelligenter Systeme. Insbesondere veranschaulichen unsere
Autoren dabei, warum Erklärbarkeitsaudits aus multidisziplinärer
Perspektive erfolgen müssen. Der Artikel wurde auf der internationalen
Forschungskonferenz Requirement Engineering for Explainable Systems
(RE4ES) vorgestellt.


Erklärbarkeit (eng. Explainability) ist eines der global am häufigsten
verwendeten Konzepte in regulatorischen Richtlinien zum Thema
künstliche Intelligenz, und deren Sicherstellung ein zentraler Schritt zu
vertrauenswürdiger KI. Ein Auditierungsprozess könnte die Qualität der
Systemerklärbarkeit in vielen Anwendungen garantieren und eine
Zertifizierung miteinschließen, die die Erfüllung gewisser Mindeststandards
nachweist.


Unsere Expert:innen betrachten die Anforderungen an einen solchen
Prozess aus der technischen, der psychologischen, der ethischen und der
rechtliche Perspektive und beschreiben die Vorteile, die Audits für den
jeweiligen Bereich erbringen können, wie auch die Herausforderungen und
Probleme, die das Designen eines Auditierungsprozesses mit sich mit
bringt.

Hier geht es zum vollständigen Artikel.