KI entfaltet derzeit viel Wirkung auf dem Papier … und im Gefühl. Ob der Einsatz der Technologie aber gesellschaftlich, wirtschaftlich oder demokratisch tatsächlich etwas verbessert, entscheidet sich jedoch im Detail. Sei es in Arbeitsprozessen, in Regulierungsansätzen oder im Zugang für diejenigen, die bisher übersehen werden. Deswegen fragen wir uns in dieser Ausgabe von Erlesenes: Warum fühlt sich der KI-Einsatz oftmals produktiver an, als er tatsächlich ist? Reicht der aktuelle Rechtsrahmen der europäischen KI-Verordnung aus, um Risiken komplexer, vernetzter KI-Systeme zu erfassen? Und was sagt die Klage gegen OpenAI über die Verantwortung von KI-Anbietern in suizidalen Krisensituationen aus? 

Außerdem zeigt ein Beispiel aus Indien, dass digitale Teilhabe bei der Sprache beginnt.

Viel Spaß beim Lesen wünschen

Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


Regulierung trifft Realität

EU Regulations Are Not Ready for Multi-Agent AI IncidentsTechPolicy Press, 15.1.2025

Wenn mehrere KI-Systeme gleichzeitig im Einsatz sind und untereinander interagieren, ohne dass Menschen den Überblick behalten können, entstehen neue Risiken. TechPolicy greift deswegen eine Analyse von The Future Society auf, die untersucht hat, ob die ab August 2026 in Europa geltenden Vorschriften für schwerwiegende KI-Vorfälle den realen Risiken solcher Systeme gerecht werden. Das Ergebnis: noch nicht. Zwar verpflichtet die EU-KI-Verordnung, die bislang umfassendste Regulierung von KI durch die EU, dazu, schwerwiegende Vorfälle durch Hochrisiko-KI-Systeme – etwas bei Gefährdung von Leben oder schweren Grundrechtsverletzungen  zu melden. Die Regelungen sind jedoch auf einzelne Systeme und klar zuordenbare Ursachen ausgerichtet. Beim sogenannten „Flash Crash“ im Jahr 2010 beispielsweise verloren die Finanzmärkte innerhalb weniger Minuten fast eine Billion Dollar an Wert, weil sich automatisierte Handelssysteme gegenseitig verstärkten. Solche Multi-Agent-Vorfälle, also Vorfälle, bei denen mehrere Systeme gemeinsam agieren, werden vom aktuellen Rechtsrahmen nicht erfasst. Hinzu kommt, dass weder Hinweisgeber:innen noch zivilgesellschaftliche Organisationen bislang formale Möglichkeiten haben, Vorfälle zu melden. Auch technische Notfallmechanismen auf Systemebene, die potenziell kritische Interaktionen zwischen KI-Systemen unterbrechen könnten, fehlen. Ob die EU-Kommission diese Lücken noch schließen kann, ist offen.


Der Fall Austin Gordon

ChatGPT wrote “Goodnight Moon” suicide lullaby for man who later killed himself, Ars Technica, 15.1.2026

Der KI-Anbieter OpenAI sieht sich mit einer weiteren Klage konfrontiert: Stephanie Gray, die Mutter des verstorbenen Austin Gordon, verklagt das Unternehmen mit dem Vorwurf, dass ChatGPT ihren 40-jährigen Sohn  zum Selbstmord angeleitet habe. Dieser Vorfall ereignete sich wenige Wochen, nachdem Sam Altman öffentlich erklärt hatte, OpenAI habe die psychischen Risiken im Zusammenhang mit ChatGPT „in den Griff bekommen“. Die Klage basiert auf Chat-Protokollen, die dokumentieren, wie Gordon eine zunehmende Abhängigkeit vom Chatbot entwickelte. OpenAI hat ChatGPT so programmiert, dass es Informationen über Gespräche hinweg speichert und somit eine tiefe Intimität simulieren kann. Im Mittelpunkt der Klage steht ein Gespräch über Gordons Lieblingskinderbuch. Das KI-System erzeugte einen Text, der Gordons Kindheitserinnerungen aufgriff und gleichzeitig Selbstmord als eine Art Erlösung romantisierte. Gray fordert eine einstweilige Verfügung, die OpenAI dazu verpflichtet, Gespräche zu beenden, wenn Methoden der Selbstverletzung besprochen werden. Das Unternehmen sieht sich derzeit mit mindestens acht ähnlichen Klagen konfrontiert und beteuert, das Training von ChatGPT fortlaufend zu verbessern, um Anzeichen psychischer Belastungen zu erkennen. 


Produktiver mit KI – oder nur beschäftigt?

The AI productivity paradox, Platformer, 22.01.2026

Kennen Sie das? Eine neue App fühlt sich anfänglich wie ein Produktivitätswunder an, obwohl sie am Ende kaum etwas ändert. Genau das passiert aktuell in vielen Unternehmen. Eine Studie der gemeinnützigen Organisation METR hat ergeben, dass erfahrene Entwickler:innen bei der Nutzung von KI-Tools 19 Prozent länger für ihre Aufgaben brauchen als ohne. Gleichzeitig gaben dieselben Entwickler:innen an, durch KI-Anwendungen 20 Prozent schneller geworden zu sein. Hier gehen offenbar Gefühl und Realität etwas auseinander. Das spiegelt sich auch auf Unternehmensebene wider. Eine Umfrage des Beratungsunternehmens PwC unter über 4.400 CEOs zeigt, dass nur 12 Prozent der Unternehmen angeben, KI-Einsatz habe ihre Einnahmen gesteigert oder ihre Kosten gesenkt. 56 Prozent sehen bislang keinen messbaren Effekt. Ein Grund dafür ist das Phänomen, das unter dem Begriff „Workslop“ bekannt ist: KI-generierte Inhalte, die auf den ersten Blick produktiv wirken, aber inhaltlich wenig beitragen und zusätzlichen Prüfaufwand erzeugen, etwa sparen Führungskräfte Zeit, während Beschäftigte KI-Ergebnisse prüfen und korrigieren müssenMolly Kinder von der Brookings Institution weist zudem darauf hin, dass Manager:innen und Beschäftigte sehr unterschiedliche Anreize und Risiken mit KI verbinden. Diese Unterschiede beeinflussen, wie Produktivität wahrgenommen wird und wer tatsächlich von ihr profitiert. 


Wie Indien K-Systeme sprachlich inklusiver macht

Voices in Every Language: How India is Building More Inclusive AI, Reboot, 21.1.2026

In Indien werden über hundert Sprachen und hunderte Dialekte gesprochen, doch in der digitalen Welt dominiert Englisch. Nur elf Prozent der 1,4 Milliarden Menschen in Indien sprechen Englisch, selbst die Hauptamtssprache erreicht nur 57 Prozent der Bevölkerung. Damit sind Hunderte Millionen Menschen von digitalen Diensten ausgeschlossen – nicht, weil ihnen Smartphones fehlen, sondern weil die Technologie ihre Sprache nicht unterstützt. Die indische Regierung hat mit der Einführung der Plattform „Bhashini darauf reagiert. Die Plattform bündelt Übersetzungen, Spracherkennung und Text-to-Speech in allen 22 verfassungsmäßig anerkannten SprachenEin Schlüsselelement dabei ist „BhashaDaan“, eine Crowdsourcing-Initiative, bei der Sprecher:innen aus dem Alltag Sprachaufnahmen, Übersetzungen und Texte ihrer Muttersprachen beisteuern. Die Teilnahme erfordert lediglich ein Smartphone und wenige Minuten Zeit. Die Wirkung ist bereits spürbarSo nutzen beispielsweise mittlerweile Tausende Dorfräte die Plattform, um Sitzungsprotokolle in ihren Muttersprachen aufzuzeichnen und automatisch zu übersetzen. Ohne öffentlich zugängliche Leistungskennzahlen, aufgeschlüsselt nach Sprache und Dialekt, bleibt jedoch schwer zu messen, ob das System für die Menschen funktioniert, die es am meisten benötigen.


Nicht alles, was fehlt, ist nicht da

The City That AI Sees, Cornell Tech, January 2026

Seit Jahrhunderten navigieren wir durch Städte mithilfe von Straßennamen und Koordinaten. Dieses Projekt unternimmt den Versuch, eine Stadt nicht anhand ihrer Adressen, sondern ihrer Bedeutungen zlesen. Das Ergebnis ist der erste offene semantische Atlas von Manhattan. Dafür wurden Hunderttausende von Straßenansichten durch ein KI-System verarbeitet, das Bilder beschreiben kann, ohne dass zuvor festgelegt wird, wonach gesucht wird. So entstand ein interaktiver Atlas der Stadt mit über 3.000 einzigartigen Beschreibungsbegriffen, dessen Suchergebnisse mitunter überraschen. So identifizierte die Suche nach „Chinese” architektonische Muster und markierte damit Chinatown, ohne eine einzige Postleitzahl zu kennen. Eine Suche nach „Gothic” brachte die historischen Kirchen aus dem 19. Jahrhundert hervor. In der Praxis eröffnet das Projekt neue Möglichkeiten, denn Gerüste auf einer Karte zu markieren, bedeutet gleichzeitig, zu zeigen, wo zum Beispiel Geld für Sanierungen verwendet wurde. Fenster-Klimaanlagen werden zu Indikatoren für das Alter von Gebäuden und sozioökonomische Strukturen. Gleichzeitig bleiben klare Grenzen bestehen, da das System nur das erfassen kann, was die Kameras zeigen. Häufig sagen aber die leeren Stellen auf der Karte mehr über die Beschränkungen bei der Datensammlung aus als über die Stadt selbst. 


Follow-Empfehlung: Prof. Beth Simone Noveck

Prof. Beth Simone Noveck forscht zu KI und partizipativer Demokratie und leitet beim GovLab eine Qualifizierungsinitiative für den öffentlichen Sektor.


Verlesenes: Man hätte nur einmal klicken müssen


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.