Timo Speith hat zum Auftakt des Safer Internet Days 2019 einen Vortrag an der Landesmedienanstalt Saarland gehalten und seine Positionen später bei einer Podiumsdiskussion und einem Interview verteidigt. Hier ist seine Zusammenfassung der Veranstaltung.

Die Technologie der künstlichen Intelligenz (KI) hat in den letzten Jahren in fast allen Bereichen unseres Lebens Einzug gehalten, egal ob im privaten oder im beruflichen Alltag. Digitale Assistenten, Kameras mit Gesichtserkennung, selbstfahrende Autos usw. ahmen kognitive Funktionen nach, wie etwa Lernen oder Problemlösen, die gemeinhin mit dem menschlichen Verstand in Verbindung gebracht werden. Für die Entwickler steht dabei die Innovation und die damit verbundenen Chancen im Vordergrund, die Erwartungen sind hoch. Verbraucher und Arbeitnehmer sind verunsichert: Wie können Algorithmen uns dabei unterstützen, bessere Entscheidungen zu treffen? Wann werden wir Menschen zu bloßen Knopfdrückern und so zu willfährigen Erfüllungsgehilfen der Algorithmen? Und wo liegt die Verantwortung für die Entscheidungen?

Um diese und ähnliche Fragen zu beantworten, habe ich am 05. Februar 2019 im Rahmen des Safer Internet Days 2019 an der Landesmedienanstalt Saarland (LMS) einen Vortrag  mit dem Titel „Verantwortung und Erklärbarkeit von Künstlicher Intelligenz – Warum KI verständlich sein muss!“ gehalten. Dabei standen folgende Fragestellungen im Mittelpunkt: Was ist der aktuelle Forschungsstand von KI-Technologie? Welche Bedingungen müssen erfüllt sein, um einen verantwortungsvollen Umgang mit KI-Systemen zu ermöglichen? Wie weit sind existierenden Systeme von diesem Soll-Zustand entfernt? Die Aufklärung und Sensibilisierung für das Thema KI sowie der Abbau von vorhandenen Ängsten bildeten dabei einen Schwerpunkt. Nachfolgend fasse ich die wichtigsten Punkte nochmals zusammen.

KIs werden in Zukunft immer mehr Entscheidungen für uns übernehmen. Das kann, muss jedoch nichts Schlechtes sein: Einerseits macht der immer schneller werdende technologische Fortschritt unser Leben immer komfortabler.  Andererseits müssen wir uns der Gefahren bewusst sein, die mit ihm einhergehen. In einer liberalen Gesellschaft muss die Möglichkeit bestehen, Entscheidungen zu hinterfragen und anzufechten. Dies wird durch den rasch zunehmenden Einsatz von inhärent intransparenten KIs in (gesellschaftlich relevanten) Entscheidungssituationen erschwert. Erklärbarkeit und Transparenz von KI-Entscheidungsprozessen bilden folglich eine Grundsäule einer moralisch und gesellschaftlich adäquaten Anwendung von KI. Dies wird besonders an Entscheidungen deutlich, die eine gewisse Relevanz haben: Für Musikempfehlungen ist es womöglich egal, warum mir Phil Collins und nicht etwa Sting empfohlen wird, aber wenn jemand einen Job nicht bekommt, ist der Grund dafür unter Umständen sehr relevant. Eine Person, die meint, eine Stelle aus diskriminierenden Beweggründen nicht bekommen zu haben, hat ein Anrecht darauf, diese Entscheidung zu hinterfragen und gegebenenfalls anzufechten. Auch aus Sicht des menschlichen Entscheiders ist Transparenz wichtig: Denn nur durch einen angemessenen Zugang zum Entscheidungsfindungsprozess der Systeme kön­nen Men­schen, die auf Grund­la­ge von KI‐Empfehlungen Ent­schei­dun­gen tref­fen, verantwortlich für ihre Entscheidung sein. Ansonsten ist ihre eigentliche Entscheidung von anderer Art: Der KI-Entscheidung blind folgen oder ihr unbegründet zuwiderhandeln.

Die Wichtigkeit von transparenten und erklärbaren KI-Systemen kann am Beispiel des Falles von Eric Loomis demonstriert werden. Loomis wurde 2013 wegen verschiedener Delikte vom US-Amerikanischen Staat Wisconsin angeklagt und zu sechs Jahren Haft verurteilt. Zur Festlegung dieses Strafrahmens wurde eine Risikobewertung von Loomis durch die Software „COMPAS“ zu Rate gezogen. Während sowohl die Informationen, mit denen der Algorithmus gespeist wurde,1 als auch sein Ergebnis bekannt sind (hohes Rückfallrisiko in drei Kategorien),2 ist seine Funktionsweise ein Geschäftsgeheimnis des Herstellers Northpointe (heute Equivant). Aus diesem Grund ging Loomis gegen das Urteil vor, da die Benutzung des Algorithmus (i) sein Recht, aufgrund zutreffender Informationen verurteilt zu werden, verletze; (ii) sein Recht auf ein individuelles Urteil verletze; und (iii) eine Bewertung konstituiere, die unsachgemäß das Geschlecht berücksichtige.3 Loomis‘ Einspruch wurde jedoch vom Wisconsin Supreme Court abgewiesen, da laut diesem das Strafmaß auch ohne Einsatz des Algorithmus dasselbe gewesen wäre. Hier lassen sich zwei Beobachtungen anführen:

Erstens ist nicht klar, wie sehr eine solche Begründung nur eine Post-Hoc-Rationalisierung (d.h. eine nachträgliche Plausibilisierung) ist. Im Nachhinein lässt sich nur schwer rekonstruieren, wie stark das Ergebnis des Algorithmus wirklich in die Urteilsfindung eingeflossen ist. Es ist jedoch plausibel anzunehmen, dass das Ergebnis (wenigstens unbewusst) eingeflossen ist. Ein Lehrer, der aus einer dritten Quelle negative Informationen über einen Schüler bekommen hat, wird diesem (ungerechtfertigterweise) wahrscheinlich eine schlechtere Note geben, obwohl er sich dessen nicht bewusst ist – jedem könnte die Untersuchung bekannt sein, die unbewussten Einfluss im Hinblick auf die Vorbelastung bestimmter Namen (vor allem hinsichtlich des Namens „Kevin“) aufgezeigt hat.4 Darüber hinaus gibt es Studien, die es als plausibel erscheinen lassen, dass in diesem Fall Loomis weniger geglaubt wird als dem Algorithmus.5 Besonders erschreckend ist dieser Umstand in Anbetracht von Studien, die zeigen, dass Laien zu mindestens genauso guten Ergebnissen wie COMPAS kommen.6

Zweitens ist Loomis kein Einzelfall. COMPAS wird in einer großen Anzahl von amerikanischen Gerichten zu Rate gezogen und dementsprechend wahrscheinlich ist es, dass es viele Fälle gibt, bei denen der Algorithmus signifikant zur Urteilsfindung beigetragen hat. Derartig wichtige Entscheidungen, die gravierende Konsequenzen für das Leben eines Menschen nach sich ziehen, dürfen sich gerade innerhalb einer liberalen Demokratie nicht durch mangelnde Verstehbarkeit und Nachvollziehbarkeit auszeichnen. Nichts anderes ist jedoch in diesem und ähnlichen Beispielen der Fall.

Nichtsdestotrotz sollte dies keinen Grund dafür liefern, Algorithmen generell zu verteufeln, da sie unleugbar Vorteile mit sich bringen können. Eine Studie hat beispielsweise gezeigt, dass Richter härtere Urteile fällen, wenn sie hungrig und müde sind.7 Algorithmen kennen keinen Hunger, sind also wenigstens gegenüber manchen kognitiven Verzerrungen, wie sie Menschen zuhauf haben, per se immun. Solange Algorithmen aber aus Daten lernen, die von menschengemachten Systemen generiert wurden – in diesem Fall dem Strafverfolgungs- und Justizsystem –, lernen sie mindestens einige unsere Fehler. Um die Hoffnung zu erfüllen, dass Algorithmen objektivere Entscheidungen als Menschen treffen können, weil durch sie menschliche kognitive Verzerrungen verringert werden können, müssen wir zunächst verstehen, wie die Algorithmen eigentlich genau zu ihren Entscheidungen gelangen. Dementsprechend appellierte ich für ein Miteinander von Mensch und KI: Zusammen können sie sich ergänzen und die Schwächen des jeweils anderen ausbügeln. Eine notwendige Voraussetzung dafür ist allerdings, dass der Mensch die Entscheidungen und Empfehlungen der KI nachvollziehen kann. Sie muss verständlich sein!

Eine Diskussionsrunde mit einem Vertreter der Arbeitskammer des Saarlandes (Dr. Matthias Hoffmann) und dem Direktor der Landesmedienanstalt Saarland (Uwe Con­radt) sowie ein Interview im Anschluss an die Veranstaltung machten schließlich deutlich, dass es Zertifikate und Zertifizierungen für erklärbare Algorithmen geben sollte. Entsprechende Zertifizierungsprozesse gilt es nun zu konzipieren und zu etablieren. Eine große Aufgabe, der auch wir von Algoright uns auf absehbare Zeit widmen wollen.

 

Links:

Fußnoten

  1. Unter anderem ein sehr fragwürdiger Fragebogen, der vom Angeklagten ausgefüllt wurde bzw. ausgefüllt werden musste: https://assets.documentcloud.org/documents/2702103/Sample-Risk-Assessment-COMPAS-CORE.pdf. Man beachte insbesondere die Fragen 112 – 120.
  2. Genauer: „pretrial recidivism risk“, „general recidivism risk“ und „violent recidivism risk“. 
  3. Vgl. Supreme Court of Wisconsin, Case No. 2015AP157-CR, S. 13 ff.
  4. http://astrid-kaiser.de/forschung/projekte/vornamensstudien.php
  5. Vgl. Stephen A. Fennell & William N. Hall, Due Process at Sentencing: An Empirical and Legal Analysis of the Disclosure of Presentence Reports in Federal Courts, 93 Harv. L. Rev. 1613, 1668–70 (1980); Thomas Mussweiler & Fritz Strack, Numeric Judgments Under Uncertainty: The Role of Knowledge in Anchoring, 36 J. Experimental Soc. Psychol. 495, 495 (2000); Amos Tversky & Daniel Kahneman, Judgment Under Uncertainty: Heuristics and Biases, 185 Science 1124, 1128–30 (1974).
  6. Unter anderem http://advances.sciencemag.org/content/4/1/eaao5580
  7. http://www.nature.com/news/2011/110411/full/news.2011.227.html