Im Schatten der Bundestagswahl hatte der Monat September einige bemerkenswerte Neuigkeiten auf dem Gebiet der künstlichen Intelligenz zu bieten, welche die Potentiale der Technologie wie auch die Gefahren eines unreflektierten Umgangs damit, besonders deutlich vor Augen führen. Algoright präsentiert eine kurze Einschätzung aktueller Entwicklungen.

1. Emotional AI – Haben wir die Psychiater*in in der Hosentasche? (und möchten wir das?)

Was geht im Kopf eines Menschen vor? In erster Linie gilt der fragliche Mensch als Autorität auf diesem Gebiet, aber natürlich können wir auch das Verhalten eines anderen Menschen beobachten und versuchen, daraus Schlüsse zu ziehen. Aber welches Verhalten deutet auf, sagen wir, Verliebtheit hin? Und welches darauf, dass man bald seinen Job kündigt? Können wir Verhalten identifizieren, das auf eine nahende Depression hinweist? Mag alles sein, aber klare Regeln dafür anzugeben wird schwierig. Es liegt nahe, die Möglichkeiten maschinellen Lernens und damit von automatisierter Mustererkennung zu nutzen, um beispielsweise Depressionen oder kognitiven Verfall frühzeitig zu identifizieren. Genau hier setzt ein neues Forschungsansatz von Apple an. 

Die Idee, Emotionen, Affekte (kurze, intensive Erlebnisse wie Freude, Furcht, Ekel, Überraschung…), aber auch verschiedenste Dispositionen von Menschen anhand ihres messbaren Verhaltens abschätzen zu können, ist natürlich nicht neu und segelt unter dem (etwas zu kurz greifenden) Begriff Affective Computing. Die Datengrundlage für diese Einordnungen kann Browserverhalten sein, aber auch Stimmlage, Fotos und Videos. Oder eben, wie bei dem Ansatz, den Apple zusammen mit Wissenschaftlern der University of California, Los Angeles (UCLA) entwickelt, gesundheitsbezogene Daten wie Schlafmuster, Atem- oder Herzfrequenz.  Apples Zugang ist dabei keineswegs ein Novum in der Geschichte des Affective Computing; ein historisches Vorbild ist beispielsweise der Polygraph oder Lügendetektor, dessen Verwendung in der Strafverfolgung in Deutschland aufgrund seiner Unzuverlässigkeit verboten ist

 

Manche dieser Ansätze scheinen allerdings tatsächlich vernünftige Ergebnisse zu liefern. Beispielsweise kann das Verhalten in sozialen Medien womöglich helfen, herannahende Depressionen zu erkennen — was zweifellos zahlreiche ethische Fragen aufwirft. Andere Anwendungsbeispiele erwiesen sich bei genauerer Betrachtung aber als schlechte Wissenschaft und Schlangenöl, beispielsweise die App, die angeblich die sexuelle Orientierung von Menschen anhand von Frontalaufnahmen erkennen können sollte, die aber letztlich aufgrund der Trainingsdatenauswahl nur Stereotypen zu erkennen lernte

 

Wir meinen: Dieser Bereich muss genau beobachtet werden. Zum einen können falsche Versprechungen und schlechte Modelle einen immensen Schaden anrichten, sodass  vor schlechter Wissenschaft und unseriösen Versprechungen Vorsicht geboten ist! Aber das ist nur eine Gefahr, wenngleich die unmittelbarere. Die andere ist: Was wenn es funktioniert? Es mag erst einmal positiv klingen, wenn wir in der Lage sind, Depressionen frühzeitig zu erkennen. Aber sollten diese Erkenntnisse von privaten Firmen gemacht, kommerzialisiert und womöglich patentiert werden? Sind die Vorteile eine dauerhafte Überwachung und Auswertung unseres Verhaltens wirklich wert? Und wer verhindert Missbrauch? Man stelle sich vor, ein Unternehmen wäre in der Lage, frühzeitig zu erkennen, dass ein Mitarbeiter eine psychische Erkrankung entwickelte… Tatsächlich spielten solche Vorhersagen in der Vergangenheit wohl bei Einstellungsfragen eine Rolle. Mit Sicherheit braucht es in diesem Bereich vernünftige Regulierung, die Missbrauch verhindert und die menschliche Autonomie bewahrt.

 

2. KI vs. Covid – Griechische Forscher entwickeln ein System zur effizienten Testung von Einreisenden

 

Ein Positivbeispiel für  die Entwicklung und den Einsatz eines künstlich intelligenten Systems im Interesse der Öffentlichkeit lieferte hingegen ein Forscherteam im Auftrag der griechischen Regierung. Die Gruppe um Hamsa Bastani entwickelte den Algorithmus Eva, der seit Sommer 2020 vollautomatisch entscheidet, welche Einreisenden sich unmittelbar nach Ankunft in Griechenland einem PCR-Test unterziehen müssen. Dem Bericht der Forscher in der Fachzeitschrift Nature zufolge spürt das System dabei fast doppelt so viele asymptotisch COVID-erkrankte Reisende auf wie die von vielen anderen Ländern genutzte randomisierte Testmethode. In unseren Augen besonders bemerkenswert ist dabei aber nicht nur Evas Effizienz, sondern vor allem die durchdachte Miteinbeziehung datenschutzrechtlicher und ethischer Kriterien bei der Entwicklung des Systems. So wurden bereits vor den ersten technischen Entwicklungsschritten Datenschutzanwälte zu der Frage konsultiert, welche Daten Eva verwenden darf, und wie mit diesen umgegangen werden sollte. Außerdem wurde ein Feedbackmechanismus implementiert, welcher Tests empfiehlt, wenn die Unsicherheit des Algorithmus bei einer bestimmten Gruppe Einreisender zu groß wird um einem möglichen Selbstbestätigungsbias entgegenzuwirken. Zuletzt wurde darauf geachtet, dass Eva seine Entscheidung für oder gegen die Testung einer Personengruppe mithilfe eines einfach angelegten Scorewertes gegenüber den griechischen Gesundheitsbeamt*innen begründet und damit transparenter macht. Auch wenn wir im Artikel des Forscherteams leider Angaben dazu vermissen wie die Arbeit des Testsystemsn im weiteren Pandemieverlauf überwacht werden, halten wir Eva dennoch für ein gutes Beispiel für ein Anwendungsgebiet auf dem gut durchdachte und transparente KI staatliche Aufgaben erleichtern kann.

 

3. KI als Hilfsmittel zur Entdeckung neuer Medikamente

 

Ein weiteres interessantes Beispiel für den geschickten Einsatz eines künstlich intelligenten Systems zur Unterstützung menschlicher Expertise beschreibt ein britisches Forschungsteam vom Institute for Cancer Research. Den Wissenschaftler*innen ist es gelungen ein vielversprechendes Medikament zur Behandlung einer bisher als unheilbar geltenden Krebsform zu entwickeln. Dabei haben sie sich Wirkstoffkombinationen, die von Ihnen geforderte Eigenschaften erfüllen, von einem KI-System vorschlagen lassen, welches zu diesem Zweck einen gigantischen biomedizinischen Wissensgraphen der Firma BenevolentAI durchforstete, der wiederum automatisiert auf Basis der bestehenden Forschungsliteratur gelernt wurde. Auch wenn weitere Studien zur Wirksamkeit des entwickelnden Medikaments abzuwarten sind, zeigt das Vorgehen der Forscher*innen den potentiellen Nutzen smarter Wissensrepräsentation. Im Interesse der Allgemeinheit wäre es besonders erstrebenswert, Wissensgraphen ähnlich dem von BenevolentAI im Sinne einer öffentlichen Dateninfrastruktur (siehe Gaia-X und NFDI) einfach zugänglich zu machen.