Wie viel Vereinfachung verträgt Europas Digitalpolitik? Die EU-Kommission verspricht gerade mit ihrem „Digitalen Omnibus“ mehr Raum für Innovation, doch die geplanten Änderungen werfen Fragen zum Daten- und zum Grundrechtsschutz auf. Zwei Analysen zeigen, was auf dem Spiel steht: Während Brüssel von Vereinfachung spricht, warnt das Ada Lovelace Institute vor einem riskanten Reset zentraler Schutzregeln, z. B. im Falle von KI-Anwendungen im Hochrisikobereich.

Auch jenseits der Regulierung werden technische Ansätze neu diskutiert. Eine Studie des Oxford Internet Institute prüft, wie belastbar gängige KI-Tests wirklich sind und ob klarere wissenschaftliche Standards helfen können. Andere Forschungen betonen, dass sich nicht jede Form von Unsicherheit – etwa in komplexen medizinischen Fragen oder sozialen Situationen – in Wahrscheinlichkeiten ausgedrückt werden können. Lässt sich so etwas durch strukturierte Fragen lösen, um professionelles Urteilsvermögen zu unterstützen? Außerdem: KI im Dienst des Artenschutzes?

#Verlesenes wirft die Frage auf, ob es in Zukunft heißten wird: „Bei Risiken und Nebenwirkungen fragen Sie Ihren Chatbot“?

Viel Spaß beim Lesen wünschen
Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


Vereinfachung oder Verzicht?

EU-Kommission plant massive Deregulierung im Digitalbereich zugunsten von KI an | Euractiv DE, 19.11.2025

Vergangene Woche hat die EU-Kommission ein Gesetzespaket vorgestellt, das den Weg für KI-Innovation in Europa ebnen soll. Doch der Preis dafür könnte hoch sein. Das „Digital Simplification Package“ sowie eine neue „Data Union Strategy“ zielen vor allem darauf ab, mehr Daten für das Training von KI-Systemen verfügbar zu machen. Henna Virkkunen, Kommissarin für technologische Souveränität, verspricht dadurch „Raum für mehr Innovation“. Das mag vielversprechend klingen, bedeutet jedoch einen massiven Eingriff in die Datenschutz-GrundverordnungDSGVO (Datenschutz-Grundverordnung) Ein EU-Gesetz zum Schutz personenbezogener Daten und der Privatsphäre von EU-Bürgern. (DSGVODSGVO (Datenschutz-Grundverordnung) Ein EU-Gesetz zum Schutz personenbezogener Daten und der Privatsphäre von EU-Bürgern.). Bisher benötigen Unternehmen unsere Einwilligung, um personenbezogene Daten zu nutzen. Künftig soll das Training von KI-Systemen jedoch ausdrücklich ohne vorherige Zustimmung erlaubt sein, solange die Interessen der Unternehmen nicht die Grundrechte der Menschen überwiegen. Eine schwammige Formulierung, die viel Spielraum lässt. Datenschutzexpert:innen und Aktivist:innen warnen bereits, dass dies etwa im Online-Werbemarkt den Schutz aushebeln könnte. Zudem will die Kommission die Anwendung der neuen EU-Regeln für Hochrisiko-KI-Systeme um bis zu 16 Monate verschieben – ein Aufschub, für den die Industrie lange geworben hat. Die geplante Vorgehensweise riskiert, mühsam errungene digitale Rechte aufzugeben. Und das, bevor die Regulierung zu Hochrisiko-Systemen überhaupt greift.


Der Digital-Omnibus: Europas riskanter Datenschutz-Reset

Keep it simple? How ‘simplifying’ AI and data rules for big tech leaves people paying the cheque, Ada Lovelace Institute, 17.11.2025

Wie bereits berichtet, plant die EU-Kommission einen drastischen Umbau ihrer Digitalgesetze. Valentina Pavel und Julia Smakman vom „Ada Lovelace Institute“ haben den durchgesickerten Entwurf des sogenannten „EU-Digital-Omnibus“ vorab  analysiert und zeigen die Konsequenzen der oben beschriebenen und nun vorgestellten Änderungen. So soll die Definition personenbezogener Daten so angepasst werden, dass Unternehmen Daten als anonym behandeln können, wenn sie selbst keine Mittel zur Identifizierung haben. Das heißt, ein Social-Media-Unternehmen könnte zB. pseudonymisierte Nutzerdaten an Datenbroker:innen verkaufen, die diese weitergeben, ohne sich Gedanken machen zu müssen, ob Personen identifizierbar sind. Außerdem soll es künftig möglich sein, Profile und prädiktive Analysen durch Querverweise oder Schlussfolgerungen sensibler Informationen zu erstellen, die nicht direkt von Personen bereitgestellt werden. Sensible Daten müssen nur entfernt werden, wenn dies keinen unverhältnismäßigen Aufwand bedeutet. Die Beurteilung liegt nämlich im Ermessen der Entwickler:innen. Auch automatisierte Entscheidungen über Arbeitsverträge oder Kredite werden erleichtert. Das „Ada Lovelace Institute“ und 126 weitere Organisationen fordern den Widerruf: Solange zentrale digitale Regeln weder umgesetzt noch durchgesetzt sind, fehle jede evidenzbasierte Grundlage, um zentrale Pflichten, Rechte und Schutzmaßnahmen kurzfristig zu streichen.


Wie verlässlich sind KI-Tests überhaupt?

Study identifies weaknesses in how AI systems are evaluated , Oxford Internet Institute, 04.11.2025

Wie messen wir eigentlich, ob KI-Systeme wirklich besser werden? Eine umfassende Studie des Oxford Internet Institute (OII) kommt zu dem Ergebnis, dass die meisten Tests nicht viel taugen. Ein Team aus 42 Forscher:innen, unter anderem der Universitäten Stanford, TU München und des Weizenbaum-Instituts, hat 445 KI-Benchmarks untersucht. Das sind standardisierte Tests, mit denen sich die Leistungsfähigkeit von Sprachmodellen etwa in den Bereichen Logik und Sicherheit vergleichen lässt. Dabei nutzen jedoch nur 16 Prozent der untersuchten Benchmarks statistische Methoden, um die Leistung verschiedener Modelle zu vergleichen. Die gemessenen Unterschiede könnten also reiner Zufall sein, denn etwa die Hälfte misst abstrakte Begriffe wie Argumentationsfähigkeit oder Sicherheit, ohne diese klar zu definieren. Die Folge sind irreführende Schlüsse. So kann es beispielsweise vorkommen, dass ein Modell eine richtige Antwort für ein Logikrätsel generiert, aber „durchfällt“, weil es die Formatierungsvorgaben nicht „einhält“. Die Wissenschaftler:innen schlagen acht Verbesserungen vor, darunter präzise Definitionen und statistische Analysen. Eine Checkliste zur Bewertung von Benchmarks haben sie frei zugänglich gemacht. Ihre Kernbotschaft: Ohne solide wissenschaftliche Methoden fehle die Grundlage für verlässliche Aussagen über KI.


Wenn Unsicherheit nicht messbar ist

Beyond Quantification: Navigating Uncertainty in Professional AI Systems, RSS, 8.11.2025

KI-Systeme, die als Unterstützung für Ärzt:innen oder Lehrer:innen dienen, müssen laut einem Forschungsteam aus Oxford und anderen Institutionen auch Unsicherheit vermitteln können. Die Forscher:innen argumentieren, dass die gängigen Ansätze zu kurz greifen. Das Problem liege in der Annahme, dass sich jede Form von Unsicherheit in Prozentwerte übersetzen ließe. So könne eine Ärztin die Wahrscheinlichkeit einer bakteriellen Infektion anhand von Testergebnissen beziffern. Doch wie wahrscheinlich ist häusliche Gewalt, wenn eine Patientin wiederholt mit vagen Beschwerden kommt? Solche Situationen erfordern eine kontextuelle Beurteilung, die sich nicht quantifizieren lässt. Die Wissenschaftler:innen sprechen in diesem Zusammenhang von „hermeneutischer Unsicherheit“, die sich im Gegensatz zu „epistemischer Unsicherheit“ nicht durch mehr Daten auflösen lässt, sondern Interpretation verlangt. Sie schlagen vor, nicht quantifizierbare Unsicherheit durch strukturierte Fragen statt durch Zahlen auszudrücken. Anstatt dass Entwickler:innen also vorab festlegen, wie Unsicherheit kommuniziert wird, sollen Fachgemeinschaften dies gemeinsam aushandeln. Ärzt:innen, Ethiker:innen und Patientenvertreter:innen könnten beispielsweise gemeinsam Protokolle entwickeln, die festlegen, wie Systeme in sensiblen Situationen formulieren. Diese partizipative Verfeinerung zielt nicht darauf ab, nur Technologie zu optimieren, sondern auf dieser Grundlage gemeinsam Kategorien zu entwickeln, die professionelles Urteilsvermögen stärken.


Naturschutz mit KI: Potenzial trifft auf Paradox

AI for Nature: How AI Can Democratize and Scale Action on Nature, World Resources Institute, 4.11.2025

Können KI-Systeme dabei unterstützen, dem Artensterben entgegenzuwirken? Eine aktuelle Studie zeigt, wie offene, KI-gestützte Systeme wie „iNaturalist“ oder „Global Forest Watch“ dazu beitragen, den Zustand von Ökosystemen transparenter zu machen und politische Entscheidungen auf eine bessere Datengrundlage zu stellen Das klingt zwar vielversprechend, steht aber teilweise auch im Widerspruch zu den Zielen des Naturschutzes, da KI-Systeme einen hohen Energie- und Ressourcenverbrauch haben. Außerdem sind sowohl das KI-Fachwissen als auch die Infrastruktur ungleich verteilt und konzentrieren sich auf wenige Länder im globalen Norden. Ohne gezielte Gegenmaßnahmen könnten bestehende Ungleichheiten sogar verschärft werden. Deshalb sind offene und anpassbare KI-Systeme notwendig, die es lokalen Akteur:innen ermöglichen, eigene Lösungen zu entwickeln, anstatt auf teure proprietäre Systeme angewiesen zu sein. Entscheidend ist auch der bidirektionale Austausch zwischen KI-Entwickler:innen und Naturschützer:innen. „Wildlife Insights“ ist ein Beispiel für so eine gelungene Zusammenarbeit: Mithilfe von KI werden Kamerafallenbilder ausgewertet, wodurch Artenschutzprojekte weltweit unterstützt werden. Ansätze wie dieser verdeutlichen, wie wichtig es ist, KI-Systeme partizipativ zu gestalten.


Follow-Empfehlung: Ruha Benjamin

Ruha Benjamin ist Soziologin und Professorin am Institut für African American Studies der Princeton University und untersucht u. a., wie Technologie mit sozialer Ungleichheit zusammenhängt


Verlesenes: Bald „Zu Risiken und Nebenwirkungen fragen Sie Ihren Chatbot“?


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.