Glaubwürdigkeit und Vertrauen sind zentrale Fragen im Umgang mit Künstlicher Intelligenz (KI). Doch wie entstehen sie eigentlich und woran machen wir sie fest? Die aktuelle Ausgabe von Erlesenes startet genau damit.
Was bedeutet es für unseren Umgang mit Wissen, wenn eine frei erfundene Krankheit allein durch scheinbar wissenschaftliche Studien in KI-Antworten zur plausiblen Diagnose wird? Und was sagt es über diese Systeme aus, wenn formale Seriosität wichtiger ist als inhaltliche Wahrheit?
Auch im Zwischenmenschlichen stellt sich die Frage neu: Wirken KI-Interaktionen glaubwürdig genug, um Nähe zu ersetzen, oder zeigt sich gerade hier ihre Grenze? Genau das wurde in einer Studie untersucht.
Im Journalismus gerät Glaubwürdigkeit ebenfalls unter Druck: Wer schreibt eigentlich, wenn Texte zunehmend mit KI entstehen? Und was bedeutet es für das Vertrauen, wenn Quellen und Autor:innenschaft nicht mehr klar nachvollziehbar sind?
So viele tiefe und offene Fragen – und doch darf bei Erlesenes eines nicht fehlen: Ein positives Beispiel. Dass KI in einigen Fällen auch Vertrauen stärken kann, zeigt ein konkretes Beispiel aus der Stadtplanung- und Begrünung.
Und schließlich: Wer bestimmt künftig, was als glaubwürdig gilt, wenn Intelligenz zur Dienstleistung wird?
Viel Spaß beim Lesen wünschen
Elena und (ausnahmsweise) Asena
P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
KI als Multiplikator für gut gemachte Lügen
Scientists invented a fake disease. AI told people it was real, Nature Magazine, 7.4.2026
Gerötete Augenlider nach zu viel Bildschirmzeit? Was wie eine harmlose Folge von Blaulichtbelastung klingt, tauchte 2024 in Chatbot-Antworten als „Bixonimania” auf – eine Krankheit, die es nicht gibt. Die Wissenschaftlerin Almira Osmanovic Thunström entwickelte sie als Teil eines Experiments und veröffentlichte entsprechende Schein-Studien, um zu testen, ob KI-Systeme falsche Informationen übernehmen. Innerhalb weniger Wochen generierten Chatbots wie ChatGPT, Gemini und Copilot Antworten mit Informationen über die angebliche Erkrankung. Die Fake-Studien waren mit absurden Hinweisen gespickt: So arbeitete der fiktive Autor „Lazljiv Izgubljenovic“ beispielsweise an der erfundenen „Asteria Horizon University“, die Dankesnotiz verwies auf die „USS Enterprise“ und die Finanzierung kam von der „Professor Sideshow Bob Foundation“. Mahmud Omar von der Harvard Medical School erklärt, dass große Sprachmodelle eher ungenaue Informationen erzeugen, wenn Texte professionell wirken, etwa in Form von Studien oder klinischen Berichten. „Je seriöser die Darstellung, desto eher werden falsche Inhalte übernommen”, so Omar. Zwar wird bei aktuellen Modellen die erfundene Krankheit mittlerweile als Falschinformation eingestuft, doch selbst offensichtlich erfundene Inhalte gelangen in Umlauf. Wie sollen Nutzer:innen dann medizinische Ratschläge von KI-generiertem Unsinn unterscheiden? Durch kritische Quellenprüfung. Denn während KI immer schneller Antworten generiert, bleibt der beste Schutz vor Falschinformationen unsere Fähigkeit, diese zu hinterfragen.
![]()
Texting a Random Stranger Better for Loneliness Than Talking to a Chatbot, Study Shows, 404 Media, 16.3.2026
Eine einfache SMS an eine zufällig ausgewählte Person wirkt laut einer Studie der University of British Columbia mit 300 Erstsemesterstudierenden besser gegen Einsamkeit als tägliche Gespräche mit einem KI-Chatbot. Wer zwei Wochen lang täglich mit einer unbekannten Kommilitonin oder einem Kommilitonen schrieb, fühlte sich danach neun Prozent weniger einsam. Die gleiche Interaktion mit einem Discord-Chatbot führte zu einer Reduktion von rund zwei Prozent und war damit ähnlich effektiv wie das tägliche Schreiben eines einzigen Satzes in ein Tagebuch. Die Wissenschaftler:innen um Ruo-Ning Li testeten, ob KI-Systeme skalierbare Lösungen gegen Einsamkeit bieten könnten. Die Chatbots hellten zwar kurzfristig die Stimmung auf („wie soziales Fast Food“, so Mitautor Dr. Dunigan Folk), ein signifikanter Effekt auf Einsamkeit zeigte sich jedoch nur in der Interaktion zwischen Menschen. Eine Begleitstudie mit über 2.000 Teilnehmenden enthüllte sogar einen Teufelskreis: Häufigere Chatbot-Nutzung korrelierte mit späterer Einsamkeit. Li vergleicht das mit Zucker: „Man fühlt sich kurzfristig besser, langfristig kann es schaden.“ Eine weitere Studie von MIT und OpenAI aus dem Jahr 2025 fand auch, dass eine hohe Nutzung von KI-Systemen mit mehr Einsamkeit, Abhängigkeit und sozialem Rückzug zusammenhing. Die Lösung für Einsamkeit liegt also nicht in perfekten Algorithmen, sondern in echten menschlichen Kontakten. Selbst eine kurze Nachricht an eine fremde Person wirkt besser als stundenlange KI-Dialoge.
Refusing to accept an AI-poisoned future of journalism, The Handbasket, 3.4.2026
In einem Gespräch warnte die Autorin und Soziologin Tressie McMillan Cottom: „Wenn Mächtige behaupten, die Zukunft sei bereits entschieden, dann fürchten sie in Wahrheit, die Kontrolle zu verlieren.“ Das passiere laut McMillan Cottom aktuell im Journalismus. Während Techkonzerne uns weismachen wollen, dass KI unvermeidbar sei, zeigen Fälle wie der von Reporter Nick Lichtenberg, wie gefährlich diese Entwicklung ist. Lichtenberg veröffentlichte 600 Artikel in sechs Monaten, viele davon mit KI-Unterstützung. Sein Vorgehen: Er gab eine Überschrift in KI-Systeme wie Perplexity oder NotebookLM ein, übernahm Entwürfe, überarbeitete sie und veröffentlichte sie. Anfangs wurden solche Texte teils gekennzeichnet, inzwischen erscheinen viele nur unter seinem Namen. Auch die „New York Times” veröffentlichte eine Korrektur, nachdem ein freier Autor Passagen aus einem „Guardian”-Text übernommen hatte. Der Autor erklärte, ein KI-Tool habe entsprechende Formulierungen in seinen Entwurf „eingefügt”, die er nicht entfernt habe. Solche Praktiken verletzen zentrale journalistische Standards, insbesondere Fragen der Autor:innenschaft, Verantwortung und Nachvollziehbarkeit von Quellen. Texte, die mit KI-Systemen erzeugt wurden, können Inhalte aus bestehenden Quellen enthalten, ohne dass deren Herkunft transparent wird. McMillan Cottom plädiert dafür, journalistische Arbeit nicht auf reine Produktionslogiken zu reduzieren und die Verantwortung für Inhalte klar bei den Autor:innen zu verorten.
Stadtgrün macht Unsichtbares sichtbar
Where Are the City Trees? Monitoring Urban Trees across the U.S. Using Generative AI, ACM. 30.3.2026
Bäume kühlen Städte, filtern die Luft und mindern das Risiko von Überschwemmungen. Trotzdem sind sie ungleich verteilt. Wohlhabendere Viertel haben oft mehr Grünflächen, benachteiligte Stadtteile deutlich weniger, mit spürbaren Folgen für Gesundheit, Klima und Lebensqualität. Lange Zeit konnten nur gut finanzierte Städte ihre Baumbestände systematisch erfassen, meist mithilfe aufwendiger Vor-Ort-Erhebungen oder grober Schätzungen der Baumkronen. Ein Team von Wissenschaftler:innen hat nun ein Verfahren entwickelt, mit dem sich einzelne Stadtbäume in 330 US-Städten lokalisieren lassen. Grundlage sind monatliche Satellitenbilder über ein ganzes Jahr, die mit einem KI-gestützten Verfahren ausgewertet werden. Im Gegensatz zu herkömmlichen Methoden werden dabei nicht nur Baumkronen, sondern auch einzelne Standorte, Veränderungen im Zeitverlauf und Unterschiede zwischen verschiedenen Flächen erfasst. Was in New York im Jahr 2005 noch rund 30.000 Stunden freiwilliger Arbeit erforderte, lässt sich mit dem neuen Verfahren in wenigen Stunden berechnen. Damit wird das Stadtbaum-Monitoring auch für Kommunen mit knappen Budgets realistischer. Dadurch verändert sich jedoch auch die Frage, wer sich solche Inventuren leisten kann. In Chicago etwa wiesen benachteiligte Gebiete deutlich geringere Baumdichten auf. Das Team arbeitet bereits an einer Webplattform, mit der Städte ihre Bestände regelmäßig aktualisieren und verschiedene Szenarien durchspielen können, beispielsweise welche Auswirkungen zusätzliche Pflanzungen in benachteiligten Vierteln hätten.
![]()
Make ‘em dumb, sell ‘em smart, Disconnect Blog, 9.4.2026
In seinem Blog beschreibt Tech-Kritiker Paris Marx, wie Techkonzerne eine Zukunft entwerfen, in der Intelligenz als Dienstleistung angeboten wird. Sam Altman von OpenAi skizzierte auf dem „US Infrastructure Summit“ eine solche Zukunft, in der Intelligenz wie Strom oder Wasser als Dienstleistung abgerechnet wird, die man bei Unternehmen kaufen müsste. Marx weist jedoch darauf hin, dass diese Vision nicht auf technologischem Fortschritt basiert, sondern auf einer Strategie, die darauf abzielt, die Gesellschaft von KI-Technologie abhängig zu machen, um anschließend Intelligenz als Produkt verkaufen zu können. Gleichzeitig zeigen Studien, dass die Nutzung von KI-Systemen das kritische Denken und Lernen schwächt. Schüler:innen, die beispielsweise Chatbots verwenden, behalten weniger Wissen und schneiden in Tests schlechter ab. Eine von Microsoft unterstützte Studie warnt sogar vor einem Abbau kognitiver Fähigkeiten. Marx betont, dass Tech-Milliardäre wie Altman und Elon Musk diese Abhängigkeit weiter fördern, anstatt die Risiken zu mindern. Damit verfolgen sie laut Marx eine Ideologie namens „Longtermism“, die die Zukunft der Menschheit in der Besiedlung des Weltraums und der Schaffung digitaler Wesen sieht. Dabei werden Klimakrise und Armut als nebensächlich betrachtet. Marx kritisiert, dass es hierbei nicht um Fortschritt, sondern um Kontrolle geht. Wenn Intelligenz zur bezahlten Dienstleistung wird, entscheiden Konzerne wie OpenAI, wer Zugang zu Wissen hat. Marx warnt letztlich davor, dass Techkonzerne eine Welt schaffen wollen, in der wir für grundlegende Fähigkeiten wie Denken und Lernen von ihren Produkten abhängig sind.
Follow-Empfehlung: Dr. Lara Caroli
Dr. Lara Caroli ist Expertin im Bereich KI-Governance und -Regulierung und leitete die Verhandlungen zur EU-KI-Verordnung auf technischer Ebene maßgebend mit.
![]()
Verlesenes: Mehr als ein Pizza-Fail: Wenn KI ungewünscht Entscheidungen übernimmt
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben