Beim Kick-off in Berlin wurde gemeinsam mit Praktiker:innen diskutiert, wie generative KI im Gemeinwohlsektor verantwortungsvoll eingesetzt werden kann. Im Fokus standen konkrete Bedarfe, geeignete Anwendungsfälle und die Frage, wie der Zugang zu offenen Modellalternativen verbessert werden kann.

 

Wie können generative KI-Systeme im Gemeinwohlsektor so eingesetzt werden, dass sie Organisationen unterstützen und gleichzeitig Risiken, insbesondere für vulnerable Gruppen, minimiert werden? Diese Frage stand im Mittelpunkt des Kick-off-Workshops zur Projektaktivität „Fair4Gemeinwohl“, der Mitte März gemeinsam mit Vertreter:innen aus der Praxis stattgefunden hat.

Der Workshop war der Startschuss für ein Projektvorhaben, das über einzelne Chatbots hinausgehen soll und den verantwortungsvollen Einsatz von generativer KI auch als eine infrastrukturelle Frage fasst. Im Kern soll es darum gehen, bessere infrastrukturelle Voraussetzung für den Einsatz von KI im Gemeinwohlsektor zu schaffen, sodass Potenziale gehoben werden können, gleichzeitig, aber vulnerable Gruppen nicht durch sodass unpassende generative KI-Modelle gefährdet werden.

Warum bestehende Ansätze oft unpassend sind

Generative KI wird zunehmend auch in sozialen Organisationen eingesetzt. Gleichzeitig zeigen viele Beispiele, dass bestehende Systeme gerade in sensiblen Kontexten an Grenzen stoßen und zu Risiken für Menschen, die sich ohnehin in vulnerablen Situationen befinden, mit sich bringen. Das gilt besonders für klientenseitige oder -nahe Anwendungen wie etwa Chatbots in psychischen Krisensituationen, die sich in der Praxis häufig als ungeeignet erwiesen haben, wie zahlreiche Beispiele zeigen.

Hinzu kommt ein strukturelles Problem: Vielen Organisationen fehlen technisches Know-how, finanzielle und personelle Ressourcen sowie der Zugang zu geeigneteren Modellalternativen. Geeignetere Alternativen berücksichtigen beispielsweise eine verantwortungsvollere Auswahl und Zusammenstellung von Trainingsdaten. Open SourceOpen Source Ein Entwicklungsmodell, bei dem der Quellcode eines Programms öffentlich zugänglich ist. Jeder kann den Code einsehen, modifizieren und weiterverbreiten. Open Source kann die Transparenz von Forschungsfeldern wie der KI fördern. (nicht nur Open Weight[1]) und stärker gemeinwohlorientierte Basismodelle sind zwar vorhanden – z. B. Apertus der ETH Zürich  – werden aber von diesen Akteuer:innen kaum genutzt. Proprietäre System wie Open AIs ChatGPT sind stattdessen beliebte Optionen, nicht zuletzt weil sie leicht zugänglich, einfach zu nutzen und im Alltag sehr präsent sind. So entstehen Abhängigkeiten von wenigen großen Anbietern, deren Systeme nur begrenzt an die Anforderungen sozialer Arbeit angepasst sind.

 

Die Idee hinter „Fair4Gemeinwohl“

Vor diesem Hintergrund entstand das Konzept von „Fair4Gemeinwohl“. Die These ist, dass es eine gemeinsame Grundlage braucht, die Organisationen einen einfacheren Zugang zu offenen und alternativen KI-Basismodellen ermöglicht und sie gleichzeitig dabei unterstützt, diese sicher und verantwortungsvoll einzusetzen.

Perspektivisch soll eine Struktur entstehen, die mehrere Funktionen verbindet: Unterschiedliche Modelle können eingeordnet und vergleichbar gemacht werden, während der Zugang durch den Abbau technischer Hürden erleichtert werden kann. Organisationen können zudem dabei unterstützt werden, wohlüberlegte Entscheidungen darüber zu treffen, wann und wie generative KI-Systeme in ihrem jeweiligen Kontext sinnvoll eingesetzt werden können.

Langfristig lässt sich diese Idee als Infrastruktur denken, etwa in Form einer Plattform oder einer gemeinsamen Institution, die Wissen, Modelle und technische Ressourcen bündelt und niedrigschwellig zugänglich macht.

Was im Workshop erarbeitet wurde

Ausgangspunkt des Kick-off-Workshops war die Frage, wie Organisationen im Gemeinwohlsektor, etwa aus der Kinder- und Jugendhilfe oder der Aidshilfe, generative KI selbstbestimmt und entlang ihrer eigenen Werte einsetzen können. In einem ersten Schritt wurden zentrale Herausforderungen und Bedarfe aus der Praxis gesammelt. Darauf aufbauend haben die Teilnehmenden erste konkrete Anwendungsideen entwickelt, bewusst jenseits naheliegender Chatbot-Anwendungen. Stattdessen standen andere Einsatzfelder im Fokus, etwa zur Unterstützung interner Prozesse oder zur Entlastung von Fachkräften, beispielsweise in Compliance-Fragen.

Ein weiterer Schwerpunkt lag auf den organisatorischen Voraussetzungen, die es für das Gelingen einer „Fair4Gemeinwohl“-Infrasturktur braucht. Es wurde etwa darüber diskutiert, welche Anforderungen sich an eine mögliche gemeinsame Infrastruktur ergeben, die den Zugang zu offenen und verantwortungsvoll einsetzbaren Modellen erleichtert. Die Idee, Zugang zu geeigneten Modellalternativen stärker gemeinsam zu denken, stieß dabei auf große Resonanz.

Der Workshop markiert den Auftakt einer vertieften Arbeitsphase. In den kommenden Monaten werden die identifizierten Bedarfe weiter untersucht, unter anderem durch Interviews mit Vertreter:innen der Zielgruppen. Ziel ist es, konkrete Anwendungsfälle zu entwickeln und darauf aufbauend tragfähige Konzepte – etwa ein Framework – für einen verantwortungsvollen KI-Einsatz im Gemeinwohlsektor zu erarbeiten.

Warum Zugang und Rahmenbedingungen entscheidend sind

Die Diskussionen im Workshop machen deutlich: Die Frage ist nicht nur, ob und wo KI-Systeme eingesetzt werden, sondern unter welchen Voraussetzungen, mit welchen Produkten und von welchen Anbieter. Solange Organisationen mit gesellschaftlicher Verantwortung vor allem auf leicht verfügbare, aber wenig passende Systeme zurückgreifen (müssen), bleiben sehr konkrete Risiken bestehen und Potenziale ungenutzt.

Ein verantwortungsvoller Einsatz generativer KI im Gemeinwohlsektor wird sich deshalb nicht allein über einzelne Projekte oder Anwendungen lösen lassen. Er braucht wohlüberlegte Entscheidungsgrundlagen, geeignete technische Zugänge und Strukturen, die es Organisationen ermöglichen, selbstbestimmt und mit dem Wohl ihrer Klient:innen im Sinn zu entscheiden. Genau hier möchten wir mit „Fair4Gemeinwohl“ ansetzen: als Versuch, die Voraussetzungen zu schaffen, dass KI im Gemeinwohlsektor verantwortungsvoll genutzt wird. Heißt: reflektierter in der Entscheidung, ob und für welchen Zweck generative KI im jeweiligen Kontext sinnvoll ist, und näher an den tatsächlichen Bedarfen der Fachkräfte und der Klient:innen.

Unser herzlicher Dank gilt den Teilnehmenden des Workshops – vor Ort und digital – für die Offenheit, die Bereitschaft, sich mit vielen klugen Perspektiven einzubringen. Großen Dank auch an Kassandra Becker und Charleen Meyer von work forward für die wunderbare Moderation und Zusammenarbeit.

 

Hintergrund: Das Konzept von „Fair4Gemeinwohl“ knüpft an die bisherigen Arbeiten und Expertise des Projektes im Bereich KI im Gemeinwohlsektor an. Dazu zählen unter anderem Erkenntnisse aus der „Tech-Exploration in der Wohlfahrt“ und der dazugehörigen Publikation „Vom Problem zur Anwendungsidee: Wie Künstliche Intelligenz gemeinwohlorientierte Organisationen unterstützen kann“ sowie vertiefende Analysen zu generativer KI und den damit verbundenen Risiken, etwa zum „Ökosystem der KI-Basismodelle“  sowie dem Report „Fragile Foundation: Hidden Risks of Generative AI“.

[1] Vgl. Liesenfeld, Andreas, und Mark Dingemanse (2024). „Rethinking open source generative AI: open-washing and the EU AI Act“. The 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’24). Rio de Janeiro. 1774–1784 (https://dl.acm.org/doi/pdf/10.1145/3630106.3659005).  Diese Studie zeigt, dass viele als „Open Source“ bezeichnete KI-Modelle zentrale Informationen nicht offenlegen („Open Washing“) und dass erst echte Transparenz über Trainingsdaten und Verfahren eine unabhängige Prüfung, höhere Sicherheit und gesellschaftlichen Nutzen ermöglicht.


Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.