Basismodelle sind das Fundament generativer KI – und damit zahlreicher digitaler Werkzeuge wie ChatGPT oder Gemini. Doch ihr Einsatz birgt Risiken, sei es wegen wahllos zusammengestellter Trainingsdaten, profitgetriebener Geschäftsmodelle oder fehlender Transparenz. Ein neuer Report der Bertelsmann Stiftung verdeutlicht, worauf insbesondere gemeinwohlorientierte Organisationen achten sollten und welche verantwortungsvolleren Alternativen es gibt.

Mit ChatGPT eine Präsentation erstellen, mit Gemini einen Text übersetzen oder mit Copilot den nächsten Tag der offenen Tür planen – immer häufiger kommt Künstliche Intelligenz (KI) im (Arbeits-)Alltag zum Einsatz. Sie soll schnelle Antworten auf Fragen liefern, Denkanstöße geben oder Routinetätigkeiten übernehmen, um mehr Zeit für anspruchsvollere Aufgaben zu schaffen. Wie die digitalen Helfer funktionieren, darüber entscheiden die zugrunde liegenden Basismodelle. Dabei handelt es sich um komplexe KI-Systeme, die auf sehr umfangreichen Datensätzen trainiert werden und vielseitig einsetzbar sind. Ob eine KI-Anwendung richtige oder falsche, zutreffende oder sinnlose, ausgewogene oder verzerrte, vorurteilsfreie oder stereotype Antworten hervorbringt, hängt unmittelbar von den Trainingsdaten ihres Basismodells ab.

Welche Nachteile diese aufweisen können, analysiert die Bertelsmann Stiftung in der neuen Studie Auf Sand gebaut: Die versteckten Risiken generativer KI für das Gemeinwohl. Die Autorin Anne L. Washington, Associate Professor in Technology Policy an der Sanford School of Public Policy der Duke University, untersucht die systemischen Schwächen aktuell verwendeter Basismodelle. Die Analyse basiert auf Expert:inneninterviews, systematischen Vergleichen verschiedener Modelle und einer Auswertung aktueller Forschung. Der „Blick unter die Motorhaube“ zeigt, dass viele Probleme nicht allein in den Anwendungen, sondern vor allem in den Modellen selbst begründet sind.

Erhebliche Risiken für vulnerable Gruppen

Obwohl Basismodelle als sogenannte „General Purpose Models“ und damit für alle möglichen Anwendungsfälle vermarktet werden, zeigt die Praxis, dass sie oftmals gerade nicht für den allgemeinen Einsatz geeignet sind. Für Organisationen mit gesellschaftlicher Verantwortung – sei es in der Sozialen Arbeit, im Umweltschutz oder in der Unterstützung benachteiligter Gruppen – sind die sich daraus ergebenen Risiken besonders schwerwiegend. Denn gerade dort, wo Menschen in vulnerablen Situationen unterstützt werden, können fehlerhafte oder diskriminierende KI-Ausgaben erheblichen Schaden anrichten.

Diese Risiken sind längst keine Theorie mehr. Schon heute gibt es reale Beispiele, die zeigen, wie gravierend die Folgen sein können: Ein Chatbot für Menschen mit Essstörungen gab Diät-Tipps aus, ein System der österreichischen Arbeitsagentur empfahl Frauen stereotypisch Koch- oder Pflegejobs und Männern IT-Stellen und in Kalifornien bestärkte ein Chatbot sogar suizidale Gedanken eines Jugendlichen, statt auf Hilfsangebote hinzuweisen.

Diese Fälle belegen, dass sich die vermeintlich neutrale und objektive Funktionsweise der KI schnell als Trugbild entpuppen kann. Wenn Organisationen mit gesellschaftlicher Verantwortung durch ihren Einsatz von KI-Anwendungen verzerrte, fehler- und zweifelhafte Ergebnisse für ihre Arbeit nutzen, dann drohen sie das Vertrauen zu untergraben, auf das sie essenziell angewiesen sind.

Die Grundlagen von KI kritisch hinterfragen

„Weltweit genutzte KI-Basismodelle bergen das Risiko, bestehende Ungerechtigkeiten zu verschärfen. Unser Report lädt dazu ein, die Grundlagen generativer KI kritisch zu hinterfragen und neu zu denken. Insbesondere Organisationen mit gesellschaftlicher Verantwortung sollten bewusst entscheiden, ob sie ein BasismodellBasismodell Ein großes, auf umfangreichen Datensätzen trainiertes KI-Modell, das als Grundlage für verschiedene spezifische Anwendungen dient. Foundation Models/Basismodelle können für eine Vielzahl von Aufgaben in verschiedenen Anwendungsgebieten feinabgestimmt werden. einsetzen und wenn ja, für welchen Zweck“, sagt Teresa Staiger, Digitalexpertin der Bertelsmann Stiftung.

Ein großes Risiko bei Basismodellen stellen unkuratierte Trainingsdaten dar. Darunter versteht man Datensätze, die nicht sorgfältig zusammengestellt, sondern weitgehend durch automatisiertes Web-Scraping gewonnen wurden. Die Wahrscheinlichkeit, dass sie historisch verzerrte Informationen beinhalten sowie die Perspektiven bestimmter gesellschaftlicher Gruppen nicht berücksichtigen, ist sehr hoch. Auch die Geschäftsmodelle der KI-Anbieter können sich negativ auswirken: Wenn das Streben nach Gewinnmaximierung den Wunsch nach Datenqualität verdrängt, externe Evaluationen der Daten unmöglich sind und keine Rechenschaftspflichten existieren, schlägt sich das im entsprechenden Basismodell nieder. Zudem spielen die systemischen Bedingungen eine Rolle: Es fehlen systematische Instrumente zur Bewertung und Überprüfung, sodass sich Risiken wie ein Folgefehler in nachgelagerten Anwendungen fortsetzen.

Andere Wege sind möglich

Neben den strukturellen Schwächen beschreibt die Studie aber auch konkrete Alternativen. Dabei handelt es sich um technische, partizipative, datenbezogene und kollaborative Ansätze, die zeigen, dass ein anderer Weg möglich ist. Zentrale Empfehlungen lauten:

  • Monokulturen in den Trainingsdaten vermeiden: Basismodelle sollten auf sorgfältig kuratierten Datensätzen beruhen, die gezielt zusammengestellt und verlässlich geprüft sind. Nur so lassen sich Verzerrungen vermeiden und vielfältige Perspektiven abbilden.
  • Auf Transparenz und Feedback setzen: Basismodelle sollten offen für kontinuierliche Evaluation und externe Überprüfung sein, damit Fehler erkannt und Korrekturen ermöglicht werden sowie das Vertrauen in ihre Nutzung gestärkt wird.
  • Bibliotheken als Vorbild nehmen: Basismodelle sollten wie eine (nationale) Bibliothek aufgebaut sein, mit dem Ziel, Wissen langfristig zu bewahren und den Zugang stetig zu erweitern. Trainingsdaten müssten dabei ausgewogen und repräsentativ sein.

„Unsere Studie zeigt deutlich: Wenn Basismodelle dem Gemeinwohl dienen sollen, müssen sie anders entwickelt, bewertet und betrieben werden als bisher“, betont Teresa Staiger.

Ausgangspunkt und Anstoß für gemeinwohlorientierte Organisationen

Der vorliegende Report verdeutlicht, warum es so wichtig ist, Basismodelle kritisch zu hinterfragen. Damit bietet er einen ersten Ausgangspunkt und Anstoß für Entscheidungsträger:innen und Praktiker:innen in gemeinwohlorientierten Organisationen ebenso wie für alle, die eine verantwortungsvolle digitale Zukunft anstreben. Denn um generative KI auch sinnvoll für das Gemeinwohl zu nutzen, muss zunächst klar sein, auf welchen Grundlagen diese Technologie beruht und welche Fragen sich daraus für Organisationen mit gesellschaftlicher Verantwortung ergeben.

Gleichzeitig bleibt das Rennen um die Gestaltung der KI-Infrastrukturen offen. Mit besseren Datensätzen, verlässlicherer Evaluation und breiterem Zugang zu spezialisiertem Wissen können Basismodelle sicherer und gemeinwohlorientierter werden. Denkbar ist eine digitale Infrastruktur nach dem Vorbild von Bibliotheken: Sie könnte Wissen langfristig sichern, zugänglich machen und konsequent am Gemeinwohl ausrichten.

Zusatzinformationen:

Unsere Wissensseite zu KI-Basismodellen bietet eine Übersicht über die Funktionsweise, die verschiedenen Modell-Arten und die Mechanismen im Hintergrund, die diese Technologie erst ermöglichen. Dazu zählen Ressourcenverbrauch, Trainingsdaten und die unsichtbare menschliche Arbeit hinter der Automatisierung.


Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.