KI-Systeme können dabei helfen, Satellitenbilder von Erdbebenregionen zu analysieren, um Hilfe schnell und effizient zu verteilen, sie können staatliche Leistungen zugänglicher machen und vieles mehr. Dabei unterliegen sie aber häufig Verzerrungen und Vorurteilen und können zu unfairen Entscheidungen führen, wie die Studie des Oxford Internet Instituts zu „Fairness-Algorithmen“ im Gesundheitsbereich zeigt.  Diese Woche widmen sich einige unser Leseempfehlungen diesen Beispielen. Außerdem: Was antike Erzählungen von Robotern und Künstliche Intelligenz (KI) mit dem Technologieeinsatz heutiger autoritärer Regime zu tun haben.

Viel Spaß beim Lesen wünschen 
Teresa
 und Michael 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  


Bad Practice

Optimierung ist nicht immer das optimale Ziel

Against Predictive Optimization, Princeton, n. d.

Algorithmische Systeme wie COMPAS, das zur Berechnung einer Rückfallwahrscheinlichkeit von Kriminellen eingesetzt wird, oder Navigate, das die Wahrscheinlichkeit eines Schulabbruchs berechnet, haben eines gemein: Sie sind Systeme zur Optimierung von Vorhersagen („predictive optimization“). Damit sind automatisierte Entscheidungssysteme gemeint, die – mittels maschinellen Lernens – Vorhersagen über Individuen treffen, die dann wiederum Grundlage für Entscheidungen über diese Menschen sind. Forscher:innen der Universität Princeton haben sich nun in einer Studie mit solchen Anwendungen näher beschäftigt. Sie schlussfolgern, dass diese Systeme zu Unrecht als besonders präzise und effizient bezeichnet werden. Vielmehr führen diese Vorhersagen nicht automatisch zu guten Entscheidungen über die Zukunft und die großen Unterschiede zwischen Bevölkerungsgruppen können durch statistische Eingriffe nicht aufgelöst werden. Die Forscher:innen liefern dazu eine Liste mit sieben Denkfehlern, denen solche Optimierungsalgorithmen unterliegen.


Mithilfe von Algorithmen kommt Hilfe dort an, wo sie gebraucht wird

How AI can actually be helpful in disaster response, MIT Technology Review, 20.2.2023

KI-Systeme können dabei helfen schnell einen Überblick über große Datenmengen zu gewinnen. Dies ist insbesondere in unübersichtlichen Situationen erforderlich, zum Beispiel nach Erdbebenkatastrophen wie jüngst in der Türkei und in Syrien. Normalerweise dauert es Tage bis Wochen, bis Hilfsorganisationen und lokale Behörden ermitteln können, wo der Schaden besonders groß ist und Hilfe besonders benötigt wird. Weil in solchen Situationen aber jede Minute kostbar ist, setzen nun zwei Suchteams der Vereinten Nationen „xView2“ ein – ein KI-System, das u. a. vom US-Verteidigungsministerium entwickelt wurde. Mithilfe von Bilderkennung werden dabei aktuelle Satellitenbilder untersucht und Häuser nach dem Grad ihrer Zerstörung kategorisiert. Das dauert dann nicht mehr Wochen, sondern nur Minuten bis wenige Stunden. Helfer:innen können so Suchtrupps zielgerichtet koordinieren. Im Newsletter von Tate Ryan-Mosley werden auch die Schwächen vorgestellt, die das System noch hat. Dazu gehört die Abhängigkeit von nicht immer verfügbaren Satellitenbildern und die noch ausbaubare Genauigkeit von derzeit bis zu 90 Prozent.


In Indien werden staatliche Leistungen dank Chatbots zugänglicher

Indian government working on WhatsApp chatbot backed by ChatGPT to aid rural India discover government schemes, Times Now, 24.2.2023

Im letzten Erlesenes-Newsletter haben wir uns ausführlich mit ChatGPT und den Stärken sowie Gefahren dieses Systems beschäftigt. Eine der Stärken dieser Chatbots ist, dass sie Informationen zugänglicher bereitstellen, als es etwa eine klassische Internetsuche oder auch die Originalquellen tun. Dies wollen sich nun Behörden in Indien zunutze machen: Sie entwickeln aktuell ein Sprachassistenzsystem, das beim Zugang zu behördlichen Leistungen helfen soll. Dabei wurde das GPT-Sprachmodell mit behördlichen Dokumenten trainiert und mit einer Spracherkennungssoftware verknüpft. Aktuell befindet es sich in einer Testphase mit dem Ziel, es besonders Bewohner:innen ländlicher Gebiete zu erleichtern, Informationen über staatliche Unterstützungsprogramme zu bekommen. Eine Herausforderung sind die Dutzende im Land gesprochenen Sprachen. Während der Chatbot momentan mit zwölf Sprachen bedient werden kann, werden aktuell Datensätze weiterer Sprachen mithilfe von Crowdsourcing gesammelt.


Regulierung

Faire Algorithmen machen Systeme nicht automatisch fairer

Health Care Bias Is Dangerous. But So Are ‘Fairness’ Algorithms, 8.2.2023, WIRED

Algorithmische Systeme in der Medizin weisen immer wieder Verzerrungen auf, beispielsweise wenn sie zur Erkennung von Schlaganfällen eigentlich nur für weiße Menschen richtig funktionieren. Eine der vermeintlichen Lösungen: der Einsatz von „Fairness-Algorithmen“. Damit sind statistische Methoden gemeint, die den ursprünglichen Algorithmus für bestimmte Bevölkerungsgruppen anpassen, um Verzerrungen auszugleichen. Forscher:innen der Universität Oxford haben sich in einer Studie mit diesen Methoden näher beschäftigt und beschreiben im Artikel ausführlich ein Beispiel eines Fairness-Algorithmus. Das Problem dabei ist, dass man auch mit noch so guten statistischen Methoden immer an die Grenzen der verfügbaren Daten und Modelle gebunden ist. Senkt man etwa die Hürde zur Erkennung von Schlaganfällen für marginalisierte Gruppen, so werden zwar insgesamt mehr Risikopatient:innen also solche erkannt, dafür sinkt aber die Präzision des Gesamtsystems. Anstatt solcher kurzfristiger Zwischenlösungen sollten medizinische Verzerrungen an der Wurzel gepackt und behandelt werden: Zum Beispiel sollten der Zugang zur Gesundheitsversorgung verbessert oder Instrumente entwickelt werden, die speziell auf die Probleme historisch benachteiligter Gemeinschaften ausgerichtet sind.


KI-Ethik aus der Antike

What Greek myths can teach us about the dangers of AI, The Next Web, 30.1.2023

Wann begann die KI-Ethik? Begann sie mit John McCarthy, als er in den 1950er Jahren das erste Mal den Begriff „Künstliche Intelligenz“ verwendete? Oder begann sie schon vorher, mit den ersten großen Science-Fiction-Romanen von Autor:innen wie Isaac Asimov und George Orwell in den 1940ern? Die Journalistin Ioanna Lykiardopoulou hingegen meint, dass wir schon im antiken Griechenland erste Erkenntnisse zu Robotik, Künstlicher Intelligenz und Gesellschaft finden können. Sie verweist beispielsweise auf die Geschichte von Talos, einem gigantischen „Roboter“ aus Bronze, den der Schmiedegott Hephaistos erschuf. Dieser wurde vom tyrannischen Herrscher von Kreta für die Kontrolle des Schiffsverkehrs eingesetzt. Lykiardopoulou zieht hier Parallelen zu den autoritären Regimen von heute, die ebenfalls fortschrittliche Technologie verwenden, um Kontrolle auszuüben. Diese und weitere Geschichten zeigen uns viele interessante Parallelen auf, die sich durch die Geschichte von Technologie ziehen.


Follow-Empfehlung: Tate Ryan Mosley

Tate Ryan Mosley ist Journalistin zu Technologiepolitik und Digitalen Rechten beim MIT Technology Review und gibt dort seit neustem auch einen wöchentlichen Newsletter heraus.


Verlesenes: Suchmaschinen verstehen noch keine Witze


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.