Kann uns einzig Technologie aus der Corona-Pandemie retten? Spoiler: Natürlich nicht. Aber wie algorithmische Systeme uns dabei unterstützen können, bessere Behandlungsmethoden zu finden, und welcher Bias dabei Schaden anrichten könnte, diskutieren wir in dieser Ausgabe „Erlesenes“. Auch in dieser Ausgabe: Google ändert etwas an seinen stereotypischen Übersetzungen und der Europarat beschließt Ethikrichtlinien. Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖 Wie eine US-Bürgerrechtlerin gegen Massenüberwachung per Gesichtserkennung kämpft

(Safe or Just Surveilled?: Tawana Petty on the Fight Against Facial Recognition Surveillance), April 2020, Logic

Seit Jahren baut die Polizei in der ehemaligen US-amerikanischen Industriehochburg Detroit sukzessive den Einsatz von Überwachungskameras und Gesichtserkennungstechnologie aus. Dies soll helfen, die Kriminalität in der von sozialen Problemen geplagten Stadt einzudämmen. Die Bürgerrechtlerin Tawana Petty steht diesem Vorgehen der Behörden allerdings skeptisch gegenüber. Unter anderem kritisiert sie, dass die Gesichtserkennung zunächst ganz ohne Rechtsgrundlage eingeführt worden sei. In diesem ausführlichen Interview im Onlinemagazin Logic berichtet Petty davon, wie sie und andere Aktivist:innen die überwiegend afroamerikanische Bevölkerung davon zu überzeugen versuchen, dass es auch andere Wege gibt, um Sicherheit zu gewährleisten und ein friedliches Zusammenleben zu erreichen. Sie selbst sehe nicht die letztlich durchgesetzten Einschränkungen für die polizeilichen Verwendung der Gesichtserkennungstechnologie als größten Erfolg, sondern dass es gelungen sei, die Perspektive der Stadtbewohner:innen zu verändern und diese in den Diskurs einzubeziehen.


🔖 Google Übersetzer: Mit verbesserter KI gegen geschlechterspezifische Vorurteile

26. April 2020, t3n

Seit 2018 arbeitet Google für seinen Übersetzungsdienst daran, geschlechterspezifische Vorurteile aus Berufsbezeichnungen zu entfernen. Zuvor wurden Übersetzungen von Berufen häufig einem bestimmten Geschlecht zugeordnet, abhängig von traditionellen Stereotypen. Nun sorge ein neues KI-Modell dafür, dass dies noch zuverlässiger und in weiteren Sprachen verhindert werden kann, berichtet Brian Rotter, News-Redakteur bei t3n. Für das neue Modell sei ein Algorithmus zunächst mit Millionen von Sätzen in englischer Sprache trainiert worden. Anschließend sei dem System beigebracht worden, weiblichen Input in männlichen Output zu verwandeln und umgekehrt. Schließlich seien die Ergebnisse zusammengeführt worden. Gemäß Google betrage die Genauigkeit des neuen Modells für die Darstellung geschlechtsspezifischer Übersetzungen nun 97 Prozent, so Rotter. Passend zum Thema empfehlen wir dieses Plädoyer für eine emanzipatorische Perspektive auf algorithmische Systeme, verfasst von Carla Hustedt, Projektleiterin „Ethik der Algorithmen“ bei der Bertelsmann Stiftung.


🔖 Europaratsempfehlungen zu KI: Im Zweifel für die Menschenrechte

10. April 2020, heise online

Als Anwender:innen automatisierter Entscheidungssysteme von Verkehrsplanung bis Justiz sollen öffentliche Stellen bei der Beschaffung und dem Einsatz darauf achten, dass etwaige Grundrechtsverletzungen durch Dienstleister:innen, etwa beim Datensammeln, verhindert werden. So lautet eine Empfehlung des Europarats zu Künstlicher Intelligenz (KI). Sie ist Teil eines im Verlaufe von zwei Jahren erarbeiteten und nun veröffentlichten, 22 Seiten umfassenden Dokuments mit Richtlinien für die Regierungen von 47 Europarat-Mitgliedsländern sowie dort aktiven privaten Akteure, berichtet Monika Ermert, Journalistin bei heise online. Die Grundforderung des Europarats sei, dass staatlich und kommerziell eingesetzte KI-Systeme konsequent auf ihre Grundrechtsfähigkeit überprüfen werden. Durch den Empfehlungskanon für Regierungen und Private ziehen sich Grundrechtsfolgenabschätzungen, deren Durchführung für alle Seiten einigen Aufwand bedeutet, konstatiert Ermert. Verbindlich seien die Richtlinien für die Mitgliedsstaaten aber erst einmal nicht, sie lieferten jedoch eine Orientierung.


🔖 Die Coronavirus-Pandemie beschleunigt die Einführung von KI in der Notfallmedizin

(Doctors are using AI to triage covid-19 patients. The tools may be here to stay), 23. April 2020, MIT Technology Review

Die Coronavirus-Pandemie sorgt in vielen Bereichen für eine massive Beschleunigung des technischen Wandels – so auch in der Notfallmedizin. Karen Hao, Reporterin bei MIT Technology Review, gibt Einblicke in die plötzlich rasant vonstattengehende Einführung von Technologien auf Basis Künstlicher Intelligenz (KI) in Krankenhäusern. Beispielsweise zur Planung der Behandlungen und der Diagnose von Patient:innen. Softwarefirmen stünden mit entsprechenden Lösungen Schlange und sähen die Gelegenheit, erste Beziehungen mit medizinischen Einrichtungen zu knüpfen – in der Hoffnung, diese nach der Pandemie ausbauen zu können. Dass KI nach Jahren der Zögerlichkeit auf einmal blitzschnell auf breiter Front Einzug im medizinischen Sektor hält, bringe einerseits viele Möglichkeiten, sei aber auch mit Risiken verknüpft, so Kao. Zu diesen gehörten mögliche Nachteile für den Datenschutz, algorithmische Diskriminierung sowie der Einsatz von Software ohne die sonst üblichen umfangreichen, sorgfältigen Tests.


🔖 Pandemie-Daten können für ältere Patient:innen heikel sein

(Pandemic Data Could Be Deadly for the Old), 21. April 2020, Bloomberg

Gesammelte Daten zur noch jungen Entwicklung der Coronavirus-Pandemie und von Covid-19-Krankheitsverläufen als Grundlage für Algorithmen zu verwenden, um künftige medizinische Entscheidungen zu treffen, könne die Überlebenschancen für viele ältere Menschen verringern. So lautet die Warnung der KI-Ethik-Expertin Cathy O’Neil. Aktuell sei das Datenmaterial noch unvollständig. Zudem bilde es strukturelle Probleme ab, die bislang zu einer höheren Sterberate bei älteren Patient:innen geführt haben könnten, etwa als Resultat von schlecht geschützten Senior:innenheimen sowie Triage in Krankenhäusern. Ein Algorithmus, der anhand solcher Daten Beschlüsse über Behandlungsmethoden oder Prioritäten treffe, würde Älteren per se schlechtere Chancen einräumen, ungeachtet ihrer tatsächlichen Physiologie und Gesundheit, befürchtet O’Neil. Besser wäre es jedoch, anzuerkennen, wenn Software mehr Schaden als Nutzen produziert, so die Autorin.


🔖 In eigener Sache:

Welchen Beitrag können digitale Technologien für das Gemeinwohl leisten? Ist das Thema „Tech for Good“ kalter Kaffee? Oder schaffen wir es wirklich, Technologie sinnvoll einzusetzen, ohne sie zugleich als magische Lösung für komplexe gesellschaftliche Probleme zu sehen? Wenn diese oder ähnliche Fragen Euch umtreiben, dann macht noch bis zum 10. Mai mit bei unserer Blogparade und schickt uns Eure Gedanken und Ideen!


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.