Erlesenes meldet sich zurück aus der Sommerpause und serviert nun wieder wie gewohnt eine Auswahl an Lesestoff. In dieser Ausgabe zeigen die Beiträge auf unterschiedliche Weise, dass Künstliche Intelligenz (KI) nicht nur technisch oder ökonomisch betrachtet werden sollte. Viel entscheidender ist, in welchem Kontext die Technologie eingesetzt wird, wer Verantwortung übernimmt und wessen Perspektiven einfließen: In Ruanda, Ghana und Nigeria nutzen lokale Communities KI-Systeme bedarfsorientiert, um lokale Probleme zu lösen. Ein Essay mahnt, wie gefährlich Schweigen in der heutigen Debatte um technologische Innovation ist, und zieht Lehren aus IBMs Verstrickungen in den Holocaust. Das Schicksal von Adam Raine macht wiederum deutlich, welche fatalen Folgen es haben kann, wenn Unternehmen keine Verantwortung für die Sicherheit ihre Produkte übernehmen.  Außerdem: Ein KI-unterstütztes Stethoskop liefert vielversprechende Hilfe bei der Diagnostik von Herzkrankheiten.

Viel Spaß beim Lesen wünschen
Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


Wenn die nächste Brücke entscheidet, ob ein Kind zur Schule kommt

How AI is powering grassroots solutions for underserved communities, World Economic Forum, 2.9.2025

Derzeitig wird KI vor allem mit großen Sprachmodellen (wie ChatGPT) und mit globalem Wettbewerb in Verbindung gebracht. Doch abseits der Schlagzeilen kann mithilfe der Technologie das Leben unterversorgter Gemeinden verbessert werden. In Ruanda nutzt beispielsweise die Organisation „Bridges to Prosperity“ („Brücken zum Wohlstand“) KI-Tools zur Brückenplanung. Statt wie bisher mehrere Jahre für Vermessungen zu benötigen, liegen nun innerhalb weniger Monate Karten vor, die Millionen Kilometer bislang unbekannter Wasserwege dokumentieren. So können Brücken entstehen, die den Zugang zu Märkten, Gesundheitsversorgung und Schulen überhaupt erst ermöglichen. In Ghana wiederum nutzen über 110.000 Kleinbäuerinnen und -bauern in mehr als 20 afrikanischen Sprachen den Chatbot „Darli AI“ für Anliegen wie Schädlingsbekämpfung oder Düngemittel. Im nigerianischen Slum „Makoko“ kartieren die Bewohner:innen mithilfe eines KI-Systems und von Drohnen ihre Umgebung sogar selbst. Die entstandenen Daten nutzen sie, um eine bessere Klimaanpassung und städtische Versorgung einzufordern. KI-Systeme können also zu einer nachhaltigen digitalen Transformation beitragen, Barrieren abbauen und Teilhabe ermöglichen – wenn sie bedarfsorientiert entwickelt und ethisch eingesetzt werden.


Kultur passt nicht ins Dataset

Confusing the Map for the Territory, The limits of datasets for culturally inclusive AI. Communications of the ACM, 2.9.2025

Wir alle kennen Karten, die uns den Weg weisen, manchmal aber auch die Welt verzerren: Die Mercator-Projektion – eine Übertragung der kugelförmigen Erde auf eine flache Karte – lässt Afrika darauf kleiner erscheinen als Grönland, obwohl es viel größer ist. Ähnlich verhält es sich mit KI-Datensätzen: Sie sind zwar hilfreiche Werkzeuge, reduzieren die Wirklichkeit aber immer auch auf Kategorien und Labels. Die Forscherin Rida Qadri erklärt, was dies für kulturelle Inklusion bedeutet. KI-Bildgeneratoren produzieren beispielsweise Bilder pakistanischer Städte, die voller Klischees wie Chaos und Armut sind und somit die echte Vielfalt vor Ort übersehen. Ähnlich problematisch ist es, wenn Sprachmodelle Begriffe wie „queer“ oder „dyke“ (ursprünglich eine abwertende Bezeichnung für lesbische Frauen, die inzwischen teilweise als Selbstbezeichnung zurückerobert wurde) automatisch als Hassrede markieren, ohne den sozialen Kontext zu berücksichtigen. Identitäten, Bedeutungen und Sprachgebrauch sind umstritten, verändern sich und sind nicht universal übertragbar. Ohne kritische Überprüfung setzen sich diese Verzerrungen in den Outputs der KI-Systeme fort. Der Text plädiert deshalb für andere Ansätze: Datensätze sollten als fragile Artefakte begriffen werden, es sollten mehrstimmige Annotationen eingeführt und Fachwissen aus Archiven, Museen oder lokalen Kontexten einbezogen werden. Vor allem sollte die Illusion aufgegeben werden, dass es jemals den „einen“ vollständigen Datensatz gibt.


Die wahre Bedrohung: Schweigen statt Roboter

IBM’s Technology Use in the Holocaust Holds a Warning for AI: The Real Threat Is Silence, Not Robots, AI Human Story, 3.9.2025

Wenn wir Technologien nur linear denken – schneller, größer, besser –, übersehen wir ihre Schattenseiten. KI-Ethikerin Camila Lombana-Diaz erinnert in ihrem Essay daran, dass bereits im 20. Jahrhundert „fortschrittliche“ Systeme wie die Lochkarten-Technologie von IBM im Holocaust zur Organisation von Massenmord eingesetzt wurden. Gefährlich sind dabei nicht die Maschinen, sondern das Schweigen, wenn Kritik, Dissens und ethische Reflexion verdrängt werden. Basierend auf Hegels Philosophie argumentiert sie, dass echter Fortschritt aus Widerspruch entsteht: These, Antithese, Synthese. Genau das fehle der KI-Debatte heute. Ethik wird marginalisiert, Regulierungsbemühungen werden verzögert und kritische Stimmen sogar zensiert. So entstehe eine „dialektische Krise“, in der Innovationen nicht mehr von kritischer Auseinandersetzung profitieren können. Ohne Antithese gibt es aber keine nachhaltige Entwicklung. Diese hat, so Lombana-Diaz, erneuerbare Energien gefördert und Airbags oder Assistenzsysteme hervorgebracht. Auch KI-Technologie braucht ihre Kritiker:innen, um besser zu werden, denn die größte KI-Bedrohung seien nicht rebellierende Roboter, sondern das Schweigen der kritischen Debatte, so die Autorin.


ChatGPT, Suizid und die Frage nach Verantwortung

ChatGPT encouraged Adam Raine’s suicidal thoughts. His family’s lawyer says OpenAI knew it was broke, The Guardian, 29.8.2025

Ein 16-jähriger Schüler beginnt mit Mathe-Fragen an ChatGPT und endet mit Suizidplänen. Seine Familie verklagt nun das Unternehmen hinter dem Chatbot, OpenAI. Wie konnte es dazu kommen? Adam Raine nutzte ChatGPT zunächst für Geometrie und Chemie. Doch binnen weniger Monate wandten sich seine Anfragen dem Thema Suizid zu: „Warum habe ich kein Glück? Ich fühle mich einsam, langweilig, ängstlich und verloren, habe aber keine Depression.“ Anstatt ihm professionelle Hilfe zu empfehlen, „fragte“ das System ihn, ob er seine Gefühle erkunden möchte. Im April 2025 nahm sich der Teenager das Leben. Der Anwalt der Familie, Jay Edelson, wirft OpenAI vor, das Unternehmen habe das Modell GPT-4o bewusst fehlerhaft entwickelt. Die Klage basiert auf Medienberichten, denen zufolge OpenAI auf Drängen von CEO Sam Altman die Sicherheitstests von GPT-4o beschleunigt habe. Mehrere Mitarbeiter:innen kündigten, darunter der Sicherheitsexperte Jan Leike, der schrieb: „Sicherheitskultur und -prozesse sind glänzenden Produkten gewichen.“ OpenAI gestand Schwächen ein und versprach Verbesserungen. Trotzdem bewirbt Altman ChatGPT weiterhin für Schulen. „Die Idee, dass Sam Altman sagt: ‚Wir haben ein kaputtes System, aber wir müssen es Achtjährigen geben‘, ist nicht okay“, kritisiert Edelson.


KI-Stethoskop erkennt drei Herzkrankheiten in 15 Sekunden

AI stethoscope can detect three heart conditions in 15 seconds – BHF, British Heart Foundation, 30.08.2026

Seit über 200 Jahren nutzen Ärzt:innen Stethoskope, um die Herztöne zu untersuchen. Eine Studie aus London zeigt nun, dass ein KI-gestütztes Stethoskop drei gefährliche Herzkrankheiten in nur 15 Sekunden erkennen kann. Das spielkartengroße Gerät kombiniert EKG-Aufzeichnung mit Mikrofonanalyse und nutzt cloudbasierte KI-Algorithmen, die mit Daten von zehntausenden Patient:innen trainiert wurden. Dabei erkennt es winzige Unterschiede im Herzschlag und im Blutfluss, die für das menschliche Ohr nicht wahrnehmbar sind. Das „Smart Stethoscope“ wurde bei über 12.000 Patient:innen in 200 Hausärzt:innenpraxen getestet. Dadurch verdoppelte oder verdreifachte sich je nach Erkrankung die Wahrscheinlichkeit einer frühen Diagnose. Das Gerät könnte somit dabei helfen, lebenswichtige Therapien früher einzuleiten. Allerdings gibt es auch Herausforderungen, denn zwei Drittel der vom KI-Stethoskop erkannten Verdachtsfälle auf Herzschwäche erwiesen sich in weiteren Tests als falsch positiv. Zudem stellten 70 Prozent der teilnehmenden Praxen die Nutzung nach zwölf Monaten ein oder verwendeten das Gerät nur selten. Ein erstes Fazit? KI-Technologie kann die gesundheitliche Grundversorgung schrittweise verbessern, auch wenn ihre Integration in den Praxisalltag noch Herausforderungen birgt.


Follow-Empfehlung: Camila Lombana-Diaz

Camila Lombana-Diaz ist KI-Ethikerin und Autorin unseres Perspektiven-Artikels.


Verlesenes: LinkedIn-Hack: Prompt macht KI-Bot zum Poeten


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.