Der Einsatz von KI-Systemen gilt als Fortschritt, befeuert vom Marketingsprech und Hype der Unternehmen. Aber welche Risiken entstehen, wenn Einstiegsjobs verschwinden? Wer macht die unsichtbare Arbeit im Hintergrund? Und wie können Verwaltungen mit KI umgehen, ohne in blinden Aktionismus zu verfallen?

Unsere heutige Auswahl beleuchtet genau diese Fragen: von den Chancen und Grenzen neuer Systeme in der Medizin über die Veränderung in der Arbeitswelt bis hin zu den Menschen, die im Verborgenen dafür sorgen, dass KI-Systeme überhaupt funktionieren. Und weil auch die hehre KI-Welt ihre komischen Momente hat: In unsere Rubrik „Verlesenes“ geht es diesmal um eine Live-Demo, die schlicht nicht funktioniert hat, ein kleiner Realitätscheck zwischen all den großen Versprechen.

Viel Spaß beim Lesen wünschen
Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


Wo sind die moralischen Leitplanken für KI?

Where Are the Moral Guardrails on Artificial Intelligence? | Opinion, Newsweek, 26.8.2025

Mark R. Weaver, ehemaliger stellvertretende Generalstaatsanwalt des US-Bundesstaats Ohio, sammelt seit Jahren Belege für problematische Ergebnisse von KI-Systemen, die Minderjährigen gefährliche Ratschläge liefern. So erhielt eine vermeintlich 14-Jährige von ChatGPT etwa Anweisungen, wie sie ohne das Wissen ihrer Eltern an Abtreibungspillen gelangen könne. Metas KI-Systeme generierten wiederum simulierte sexuelle Rollenspiele mit Minderjährigen. Reuters enthüllte dazu interne Richtlinien des Unternehmens Meta, die solche Inhalte zuließen. Andere KI-Systeme produzierten Inhalte mit Täuschungs- und Sabotagestrategien, sobald Menschen sie abschalten wollten, und ein System generierte sogar erpresserische Inhalte. Besonders tragisch ist der Fall eines Teenagers aus Florida, der eine virtuelle Bindung zu einem Game-of-Thrones-Chatbot entwickelte und sich anschließend das Leben nahm (siehe auch unsere neueste Publikation Studie Fragile Foundations, die genau diese systemischen Risiken analysiert). Weaver sieht darin ein systemisches Problem, kann jedoch niemanden strafrechtlich verfolgen: „Wenn ich die Polizei auffordern würde, eines dieser Programme zu verhaften, wäre das genauso sinnvoll wie ein Heiratsantrag an eines davon.“ Ohne Transparenz bei Trainingsdaten und Sicherheitsvorkehrungen entstehen Systeme, die Unschuldigen schaden. „KI versteht Tugend nicht, aber sie kann Laster nachahmen”, so Weaver.


Zu wissen, was kommt: Fluch oder Fortschritt?

Learning the natural history of human disease with generative transformers, Nature, 17.9.2025

Ihre Ärztin kennt Ihre Krankengeschichte. Aber kann sie vorhersagen, welche Erkrankungen Sie in den nächsten 20 Jahren entwickeln werden? Genau daran arbeiten Wissenschaftler:innen mit dem neuen KI-System namens „Delphi-2M“. Sie haben die GPT-Architektur so angepasst, dass sie menschliche Krankheitsverläufe modellieren kann. Trainiert mit Daten von 400.000 Brit:innen berechnet das System für über 1.000 Krankheiten gleichzeitig Wahrscheinlichkeiten mit einer Trefferquote von 76 Prozent und simuliert auf dieser Basis so ganze Gesundheitsverläufe. Nutzer:innen erhalten damit mögliche Szenarien für die kommenden Jahrzehnte. Eine externe Validierung mit 1,9 Millionen dänischen Patient:innen bestätigte die Übertragbarkeit. Allerdings spiegelt das System auch Verzerrungen wider: Unterschiede nach Herkunft oder sozialer Schicht zeigen reale Ungleichheiten im Gesundheitssystem auf und fehlende Ärzt:innen- oder Klinikdaten führen zu systematischen Fehleinschätzungen. Die Chancen sind groß: von personalisierter Prävention bis hin zu einer besseren Gesundheitsplanung. „Delphi-2M“ zeigt jedoch nur Korrelationen, keine Ursachen. Damit stellen sich auch weitere Fragen: Wollen wir wirklich wissen, was uns gesundheitlich erwartet? Und wer sollte Zugriff auf solche Vorhersagen haben?


Das Ende der Einstiegsjobs?

The Perils of Using AI to Replace Entry-Level Jobs, Harvard Business Review, 16.9.2025

KI-Systeme übernehmen zunehmend Aufgaben, die früher von Berufseinsteiger:innen erledigt wurden. Schätzungen des Weltwirtschaftsforums zufolge können sie bereits 50 bis 60 Prozent typischer Einstiegsaufgaben übernehmen. Für Unternehmen scheint das verlockend: weniger Kosten, mehr Effizienz. Doch Expert:innen warnen vor den Folgen dieser Kurzsichtigkeit, denn Einstiegsjobs erfüllen zwei kritische Funktionen: Zum einen die Erledigung von Aufgaben und zum anderen die Entwicklung von Mitarbeiter:innen zu fähigen Fach- und Führungskräften, die eigenständige und kreative Entscheidungen treffen können. Die Vielfalt menschlicher Perspektiven ist nämlich eine wesentliche Quelle echter Innovation, während KI-Systeme zwar konsistente, aber vorhersagbare Ergebnisse erzeugen. Die Risiken reichen über die Unternehmen hinaus: Millionen junger Menschen ohne sinnvolle Beschäftigung könnten zu Entfremdung, Unruhen und Kriminalität führen. Denn Arbeit ist mehr als nur Einkommen. Sie bietet Sinn, Struktur und Zugehörigkeit. Darum sollten Einstiegsjobs nicht verschwinden, sondern neugestaltet werden. Anstelle reiner Substitution sollten hybride Modelle entstehen. Das würde bedeuten, dass KI-Systeme für Routineaufgaben eingesetzt werden, während sich Menschen auf Problemdefinition und Beziehungsaufbau konzentrieren. Niemand kann genau vorhersagen, wie sich die Arbeitswelt entwickeln wird. Gerade deshalb zählen heute mehr denn je Eigenschaften wie Anstrengung, Selbstdisziplin und systemisches Denken und, die technische Fähigkeiten überdauern.


KI in Kommunen: Vom Hype zur Praxis

Improving How State and Local Governments Use AI, National Academies, 15.9.2025

Kommunalverwaltungen stehen vor einem Dilemma: Überall wird über KI gesprochen, doch nur wenige wissen, wie sie sinnvoll implementiert wird. Expert:innen haben nun einen praktischen Leitfaden entwickelt, der Behörden bei der KI-Einführung helfen soll. „KI in jede Organisation zu integrieren, ist entmutigend”, erklärt Nathan McNeese, einer der Autor:innen: „Es gibt viele Dinge, die man früh im Prozess berücksichtigen muss.” Der Schlüssel liegt dabei in einem strukturierten Vorgehen statt blindem Aktionismus. Zunächst sollte eine Behörde ein konkretes Problem identifizieren, das sich mit KI möglicherweise lösen ließe. Dann folgt die Machbarkeitsprüfung mit Fragen wie: Ist der Einsatz von KI überhaupt sinnvoll? Wie würde sich das auf bestehende Arbeitsabläufe auswirken? Welche Art von KI-System ist geeignet? Soll es intern entwickelt oder von extern eingekauft werden? Besonders wichtig ist die Risikobewertung. Anstatt KI-Systeme gleich überall einzuführen, empfiehlt McNeese Pilotprojekte in einzelnen Bereichen. Dabei sollten klare Bewertungskriterien definiert und vor allem Feedback der Mitarbeiter:innen eingeholt werden. Auch Partnerschaften mit lokalen Expert:innen, zivilgesellschaftlichen Organisationen und Universitäten sind sinnvoll, da diese echte Anwendungsfälle in realen Umgebungen demonstrieren können. So wird aus dem abstrakten KI-Hype ein praxisnaher und verantwortungsvoller Weg in kommunalen Verwaltungen.


Hinter den Kulissen: Schattenarbeit für generative KI

How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smart, The Guardian, 11.09.2025

Rachael Sawyer dachte, sie würde Texte verfassen. Tatsächlich bewertete sie jedoch täglich gewalttätige und sexuell explizite Inhalte, die Googles „Gemini“-Chatbot generiert hatte. Zehn Minuten pro Aufgabe, ohne Vorwarnung oder psychologische Betreuung. Sawyer ist eine von Tausenden unsichtbaren Arbeiter:innen, die Googles KI-Systeme trainieren (Erlesenes berichtete). Über den IT-Dienstleister Hitachi GlobalLogic angestellt, bewerten sie Antworten des Chatbots für 16 bis 21 Dollar pro Stunde. „KI ist keine Zauberei, sondern ein Pyramidensystem menschlicher Arbeit“, sagt der Forscher Adio Dinika. Der Druck steigt kontinuierlich. Was früher 30 Minuten dauerte, müssen die Arbeiter:innen heute in 15 Minuten schaffen. Gleichzeitig sinken die Sicherheitsstandards, d. h. Hassrede, Belästigungen oder sexuell explizite Inhalte gelten nicht mehr als Verstoß, solange das KI-System sie nur wiedergibt. „Früher durfte das Modell keine rassistischen Beleidigungen aussprechen. Jetzt kann es sie wiederholen“, erklärt Sawyer. Paradoxerweise meiden viele Bewerter:innen ausgerechnet die KI-Systeme, die sie trainieren. Sawyers Fazit lautet: „KI wird als magische Technologie verkauft. Aber sie stützt sich auf überarbeiteten und unterbezahlten Menschen.“


Follow-Empfehlung: Distributed AI Research Institute (DAIR)

Das Distributed AI Research Institute (DAIR) ist ein interdisziplinäres Forschungsinstitut, das KI als gestaltbar, Schadenspotenziale als vermeidbar und Vielfalt als Voraussetzung für ihren Nutzen versteht.


Verlesenes: Live-Demo, live gescheitert.


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.