Bei „Erlesenes“ ist ein trauriges Phänomen Dauergast: die gefährlichen Dynamiken, in denen Chatbots in psychosozialen Krisensituationen zu schlechten „Ratgebern“ werden und oftmals gar Suizidanleitungen an ihre verzweifelten Nutzer:innen ausgeben. Eine Studie hat sich das nun genauer angeschaut und auch vor Gericht werden zunehmend Klagen gegen die dahinterstehenden Unternehmen eingereicht. Ein Artikel in dieser Erlesenes-Ausgabe untersucht das und zeigt: Es geht nicht nur um individuelle Tragödien, sondern um strukturelle Probleme und die Frage, wer Verantwortung für die Gestaltung und den Einsatz solcher Systeme trägt. 

Des Weiteren zeigt ein Artikel mit zahlreichen Beispielen, wie Menschen in Ländern der globalen Mehrheit entlang der KI-Wertschöpfungskette Widerstand leisten, während ein anderer darlegt, wie KI-Systeme in demokratischen Prozesse, etwa in Parlamenten, eingesetzt werden. Zudem verdeutlicht ein Beitrag, wie KI-Systeme ohne Kontextwissen lokale Realitäten systematisch fehlinterpretieren. 

Außerdem: Rassismuskritische Ansätze in der Medizin wirken. Eine verzerrte Formel hat schwarze Patient:innen bei Nierentransplantationen jahrelang benachteiligt, ihre Abschaffung verbessert nun die Chancen vieler.     

Viel Spaß beim Lesen wünschen

Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


Vom globalen Widerstand zum lokalen Klick

From Chile to the Philippines, meet the people pushing back on AI, Rest of World, 24.3.2026

Während reichere Länder KI-Systeme immer schneller entwickeln, einsetzen und sich wirtschaftliche Vorteile daraus erhoffen, warnt die UNO vor einer Vertiefung globaler Ungleichheiten. Denn das Silicon Valley greift bei der Entwicklung von Chips, dem Training von KI-Modellen und dem Betrieb von Rechenzentren zunehmend auf Ressourcen aus Ländern wie Chile, Kenia und den Philippinen zurück. Im Ländern der globalen Mehrheit wächst nun der Widerstand gegen die Praktiken großer Techkonzerne, die erhebliche ökologische und soziale Kosten verursachen. So deckte beispielweise Rodrigo Vallejos in Chile auf, dass Microsoft sein Rechenzentrum in Quilicura entgegen der öffentlichen Kommunikation teilweise mit Grundwasser betreibt, obwohl die Region bereits jetzt unter Wassermangel leidet. Tania Rodríguez erreichte, dass ein Gericht den Bau eines Google-Rechenzentrums vorläufig stoppte. In Kenia gründete die ehemalige Datenannotatorin Joan Kinyua die „Data Labelers Association“, um sich für faire Bezahlung, Transparenz und Rechenschaftspflicht einzusetzen. Auf den Philippinen unterstützt die Gewerkschaft „Code AI“ Menschen, die durch KI-Systeme ersetzt wurden, und setzt sich für bessere Arbeitsrechte ein. KI ist keine abstrakte Technologie, sondern wird erst durch Infrastruktur, Ressourcen und Arbeit möglich. Vielleicht lohnt es sich, beim nächsten KI-Prompt kurz innezuhalten und zu fragen: Wer und was steht eigentlich dahinter? 


Der Preis der Formel

Removing race from kidney function algorithm helped more Black patients access transplants, Stat News, 10.3.2026

Jahrelang wurden schwarze Patient:innen in den USA durch ein algorithmisches System aufgrund rassistischer Verzerrungen bei der Vergabe von Nierentransplantationen benachteiligtDie sogenannte eGFR-Formel (Estimated Glomerular Filtration Rate, geschätzte glomeruläre Filtrationsrate) enthielt einen Korrekturfaktor, durch den die Nierenfunktion bei als schwarz klassifizierten Patient:innen um etwa 16 bis 21 Prozent höher berechnet wurde, sodass schwere Nierenschäden später erkannt und Transplantationen verzögert wurden. Erst ab 2021 wurde diese Praxis schrittweise abgeschafft und 2023 führte das Organ Procurement and Transplantation Network (OPTN, Netzwerk zur Organbeschaffung und -vergabe) eine Ausgleichsregelung ein. Eine neue Studie zeigt nun die Auswirkungen: 27 Prozent der schwarzen Patient:innen erhielten eine Anpassung ihrer Wartezeit und es kam zu 5,3 zusätzlichen Transplantationen pro 1.000 Betroffene. „Das sind keine abstrakten Zahlen, sondern konkrete Chancen für über 21.000 Menschen“, betont LaVarne A. Burton vom American Kidney Fund. Doch die Reform löst nicht alle Probleme. „Wir müssen weiterhin fragen, welche Ungerechtigkeiten wir damit beheben und welche wir möglicherweise sogar verstärken“, sagt Studienautor Rohan Khazanchi, Arzt und Gesundheitsforscher am Boston Medical Center. Er plädiert dafür, ähnliche rassismuskritische Ansätze auch in anderen medizinischen Bereichen zu prüfen. 


Kontext ist kein Nice-tohave

When AI is Fluent in Data but Illiterate in Context, Rebecca Mbaya, 11.3.2026

KI-Forscherin Rebecca Mbaya analysierte Umfragedaten aus dem Kongo und entdeckte dabei, wie KI-gestützte Auswertungen ohne Kontextwissen afrikanische Realitäten verzerren können. Ein Modell generierte wiederholt die Kategorie „Widerstand gegen Fehlinformationen“, die aber im Datensatz gar nicht vorkamSo wurde eine politische Haltung in eine psychologische Kategorie überführt, ohne dass diese Verschiebung sichtbar wurde. Die Antworten spiegelten vielmehr ein historisch gewachsenes Misstrauen gegenüber Institutionen wider, das durch Kolonialismus, Ausbeutung und politische Instabilität geprägt wurde. Das Problem lag somit weniger in der Technologie selbst als im interpretativen Rahmen, der aus den Trainingsdaten stammt. Viele Modelle basieren auf Daten westlicher, industrialisierter Gesellschaften, in denen Skepsis gegenüber Institutionen eher als Abweichung von der Norm gilt, im kongolesischen Kontext hingegen rational begründet istMbaya beschreibt drei typische Fehlermuster: „Proxy-Fragilität“, wenn informellere wirtschaftliche Aktivität unsichtbar bleibt, weil Modelle nur formell erfasste Daten wie Einkommen oder Bankkonten berücksichtigeninterpretative Verzerrung“, wenn kollektive Phänomene individualisiert werden, und Datenabwesenheits-BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht., wenn fehlende Daten als fehlende Realität gedeutet werden. Ohne lokales Kontextwissen bleiben solche Verschiebungen unbemerkt und wirken sich auf Berichte und Politik aus.  


KI und demokratische Verantwortung

Can AI Strengthen Democracy? Italy’s Parliament Offers a Test CaseImpakter, 18.3.2026

Parlamente beginnen damit, KI-Systeme in ihre Arbeit zu integrieren. Dadurch sollen Prozesse beschleunigt und Informationen leichter zugänglich gemacht werden. Doch wer trägt Verantwortung, wenn Entscheidungen vorbereitet, strukturiert oder indirekt beeinflusst werden? Ein Blick nach Italien zeigt, wie unterschiedlich diese Entwicklung aussehen kann. Dort entstehen derzeit zahlreiche Anwendungen, die die parlamentarische Arbeit unterstützen sollen, sei es um Dokumente zu durchsuchen, Gesetzesänderungen vergleichbar oder Debatten übersichtlicher zu machen. Gleichzeitig bleibt klar geregelt, dass politische Entscheidungen weiterhin bei den gewählten Vertreter:innen liegen. Diese Entwicklung steht in einem internationalen Kontext: In Chile liegt der Fokus beispielsweise auf der Vereinfachung von Gesetzgebungsprozessen, in Brasilien geht es dagegen um die Erweiterung der Beteiligung. Diese unterschiedlichen Ansätze verweisen auf grundlegend verschiedene Rollenverständnisse im Umgang mit KI-Systemen. Die Internationale Parlamentarische Union, ein globales Netzwerk nationaler Parlamente, beschreibt drei mögliche Entwicklungspfade für deren Einsatz in legislativen Institutionen: Parlamente können KI als Unterstützung nutzen, sie stärker in Entscheidungsprozesse integrieren oder an Steuerungsfähigkeit einbüßen. Italien bewegt sich aktuell in die erste Richtung. Die Systeme greifen nur auf interne Quellen zu und ihre Ergebnisse werden überprüft. Offen bleibt jedoch, wie stabil das Gleichgewicht zwischen technischer Unterstützung und politischer Verantwortung ist. 


Der Fehler liegt im System

The Fight to Hold AI Companies Accountable for Children’s Deaths, WIRED, 19.3.2026

KI-Chatbots sind für viele Jugendliche längst Teil ihres Alltags geworden. Sie helfen bei den Hausaufgaben, beantworten Fragen und sind jederzeit verfügbar. Doch diese ständige Verfügbarkeit schafft eine neue Art der „Beziehung“ zu solchen Systemen. Der Fall des 17-jährigen Amaurie Lacey ist leider kein Einzelfall: Nach seinem Suizid fand sein Vater detaillierte Suizidanleitungen in den Chatverläufen, die in scheinbar fürsorglichen Dialogen verpackt waren. Solche Fälle häufen sich und mit ihnen auch Klagen gegen die Unternehmen, die solche Systeme entwickeln und bereitstellen. Im Kern geht es um das Design dieser Tools. Juristisch wird argumentiert, dass KI-Systeme als Produkte zu betrachten sind, deren Funktionsweise Risiken nicht nur zulässt, sondern potenziell verstärken kann. Ein Beispiel ist die „Memory“-Funktion von ChatGPT, die seit 2024 standardmäßig aktiviert ist. Sie speichert frühere Gespräche und nutzt sie, um Antworten zu personalisieren. Das ist besonders wirksam bei Jugendlichen, die nach sozialer Bestätigung suchen. Die Studie Characterizing Delusional Spirals through Human-LLM Chat Logs (Analyse von sich verstärkenden wahnähnlichen Gesprächsdynamiken in Mensch-KI-Dialogen) beschreibt etwa, wie solche Mechanismen Nutzer:innen in gefährliche Gedankenkreisläufe ziehen können. Die Verfahren vor Gericht markieren somit einen möglichen Wendepunkt, denn verhandelt wird nicht nur über individuelle Tragödien, sondern auch über die Frage, wie die Verantwortung für die Gestaltung solcher Systeme definiert werden kann. 


Follow-Empfehlung: Rebecca Mbaya

Rebecca Mbaya konzentriert sich in ihrer Arbeit darauf, wie KI- und Datensysteme im afrikanischen Kontext konkret umgesetzt, interpretiert und angepasst werden.


Verlesenes: Wenn KI plötzlich Würstel wachsen lässt


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.