Muss sich algorithmische Entscheidungsfindung immer gleich dem Black-Box-Vorwurf stellen? Die größte Black-Box könnte vielleicht eher der menschliche Verstand sein. Wir öffnen in dieser Woche deshalb wieder die Erlesenes-Box und finden diskussionswürdige Beiträge zu Gesichtserkennungstechnologie, Erklärungsmodellen für Künstliche Intelligenz (KI) und zum neuen Bericht der Datenethikkommission. Bleiben Sie informiert und diskutieren Sie mit!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?10 Vorschläge für einen sensiblen Umgang mit Gesichtserkennungstechnologie

(10 actions that will protect people from facial recognition software), 31. Oktober 2019, Brookings(10 actions that will protect people from facial recognition software), 31. Oktober 2019, Brookings

An Gesichtserkennungstechnologie scheiden sich die Geister. Verbot oder Regulierung? Überwiegen die Möglichkeiten oder die Risiken? Der Autor und Politikwissenschaftler Darrell M. West beteiligt sich an der wichtigen Debatte mit zehn Vorschlägen zum sensiblen Umgang mit Gesichtserkennung, die sich vor allem an US-amerikanischen Anwendungen richten würden. Zu den empfohlenen Maßnahmen gehören ein für den jeweiligen Fall passendes Zeitlimit für die Aufbewahrung von Video- und Bilddaten, eine strikte Begrenzung der Möglichkeiten der Weitergabe von Daten an (kommerziell orientierte) Dritte sowie die Festlegung von Mindestanforderungen an Genauigkeitsraten – mit hohen Werten bei kritischen Anwendungsbereichen. West spricht sich auch dafür aus, überall dort Warnhinweise anzubringen, wo Gesichtserkennungstechnologie zum Einsatz kommt. Dies würde das Bewusstsein in der Bevölkerung steigern. Es erlaube außerdem den Einzelnen, in eigenem Ermessen Schritte zur Wahrung der Privatsphäre zu ergreifen. In Europa sind viele dieser Vorschläge bereits durch die Datenschutz-Grundverordnung (DSGVO) beantwortet worden, über die Prof. Dr. Wolfgang Schulz und Stephan Dreyer in ihrer Studie für uns aufklären.


?Künstliche intelligenz muss keine Black Box sein

(oder die vollständige Version)
(Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead), zuletzt aktualisiert September 2019, arXiv.org

Im Bereich der Forschung zu Künstlicher Intelligenz (KI) ist die Annahme verbreitet, dass sich undurchsichtige, intransparente KI-Modelle kaum verhindern lassen, so Cynthia Rudin, Professorin der Computerwissenschaften an der US-amerikanischen Duke University. Viel Energie werde deshalb in die Schaffung separater Modelle gesteckt, deren Aufgabe es jeweils ist, die Entscheidungen des ersten Modells zu erklären. Rudin kritisiert diese Praxis im vorliegenden wissenschaftlichen Papier. Sie argumentiert, dass erklärende Modelle eine Reihe von Schwächen besitzen, die grundsätzliche Zweifel an ihren Ergebnissen aufwerfen. Zudem äußert sie Skepsis, dass Modelle zum maschinellen Lernen überhaupt stets so kompliziert sein müssen, dass sie für Anwender:innen zu Black Boxes werden. Sie ruft ihre Kolleg:innen im Forschungsfeld dazu auf, mehr dafür zu tun, von vornherein interpretierbare KI-Modelle zu kreieren, die keine weiteren Erklärungen benötigen. Ein komplementärer Ansatz wird von den Wissenschaftler:innen Sandra Wachter und Brent Mittelstadt vertreten, der verständliche Erklärungen über die Wirkungsweise von Algorithmen für Betroffene bieten könnte.


?Ein kritischer Blick auf den Bericht der Datenethikkommission

29. Oktober 2019, CR-online

Dokumente, wie der gerade veröffentlichte Bericht der Datenethikkommission (DEK) zum Umgang mit Daten und Algorithmen, verdienen aufgrund ihrer potenziellen Tragweite eine kritische Betrachtung. So beginnt die Ethikerin und Philosophin Lorena Jaume-Palasi ihre in der Tat sehr kritische Analyse der von den Expert:innen abgelieferten Arbeit. Jaume-Palasi moniert unter anderem den “technischen Solutionismus” der DEK-Empfehlungen, also die Sicht, dass sich durch technische Regulierung die durch Technik verstärkten oder entstandenen sozialen Konflikte lösen lassen. Auch beobachtet sie einen Zielkonflikt zwischen dem Anspruch des Datenschutzes und dem der Verhinderung von algorithmischer Diskriminierung – wofür viele Daten notwendig seien. Aus ihrer Perspektive bietet der DEK-Bericht aber eine Grundlage, um über die Zukunft der Demokratie im digitalen Zeitalter zu diskutieren. Weitere Einschätzungen zum Bericht gibt es bei uns im Blog von Carla Hustedt und Falk Steiner vom Projekt “Ethik der Algorithmen” der Bertelsmann Stiftung sowie hier von Lorenz Matzat, Mitgründer von AlgorithmWatch.


?Darm mit KI-Charm: Privatpersonen und KI sollen helfen, chronische Darmkrankheiten besser zu diagnostizieren

(The world’s first poop database needs your help), 29. Oktober 2019, The Verge

Forscher:innen eines dem Massachusetts Institute of Technology (MIT) nahestehenden Unternehmens rufen Privatpersonen dazu auf, per Smartphone angefertigte Schnappschüsse ihres Stuhls einzuschicken. Ihr Ziel: die Erstellung einer Datenbank von 100.000 Fäkalienfotos. Mit diesen wollen die Wissenschaftler:innen eine Künstliche Intelligenz trainieren, um die Diagnosemöglichkeiten von chronischen Darmkrankheiten zu verbessern, wie die „The Verge“-Reporterin Justine Calma berichtet. Gastroenterolog:innen würden zunächst jedes Foto begutachten und in eine von sieben Kategorien einteilen. Damit werde dann der Algorithmus angelernt, um beispielsweise die Fähigkeit zu erlangen, Verstopfungen oder Durchfall zu erkennen. Es handele sich um die erste Datenbank ihrer Art. Langfristig sei geplant, sie als Open-Source-Tool für die akademische Forschung verfügbar zu machen. Einen deutschsprachigen Artikel mit Bezug auf die Meldung von The Verge gibt es bei futurezone.


?KI bei der Bundeswehr: Was ist erlaubt und was nicht?

30. Oktober 2019, heise online

Der Einsatz von Künstlicher Intelligenz (KI) beim Militär wird in der Öffentlichkeit bislang überwiegend im Zusammenhang mit autonomen Waffensystemen diskutiert, schreibt „heise online“-Autor Hans-Arthur Marsiske. Doch es gibt viele weitere Einsatzgebiete, wie bei einer in Bonn stattfindenden Tagung zu Chancen und Risiken von KI für die Bundeswehr deutlich wurde. Gemäß Marsiske ging es unter anderem um generelle ethische Fragen, Logistik sowie um optimierte Entscheidungsprozesse. Die meisten Vorträge seien von einer gewissen Zurückhaltung geprägt gewesen – wohl auch, weil grundsätzliche Fragen des KI-Einsatzes im Militär nicht mathematischer, sondern gesellschaftlicher Natur seien. Unter anderem habe Katharina Zweig, Professorin an der TU Kaiserslautern, zu bedenken gegeben, dass bei KI und maschinellem Lernen keine Garantien für eindeutige Lösungen existieren. Laut Jan Wilhelm Brendecke vom Amt für Heeresentwicklung obliege es uns als Gesellschaft, zu entscheiden, was wir an KI übergeben können beziehungsweise wollen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren