Die Masseneuphorie um KI-Anwendungen hat ein neues Objekt der Begierde gefunden: KI-generierte Videos, die eindrucksvoll, aber auch gelegentlich verstörend oder zumindest amüsant sind. In dieser Erlesenes-Ausgabe blicken wir hinter den Hype und stoßen auf altbekannte Muster, wie Big Tech von dieser Aufregung profitiert – und wie künstlich generierte Bilder den Kulturkampf in den USA weiter anheizen. Ein Bericht der Mozilla Foundation hat derweil verschiedene Kennzeichnungsmethoden für KI-Inhalte gründlich auf Herz und Nieren geprüft. Außerdem: wie Schulbücher in Mali mithilfe von ChatGPT die bisherige Amtssprache Französisch zugunsten der Landessprache ablösen.

Viel Spaß beim Lesen wünschen  
Asena und Teresa 

P.S. Sie wollen Erlesenes alle zwei Wochen als Newsletter im Postfach haben? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.


Regulierung

Licht im Kennzeichnungsdschungel

In Transparency We Trust? Evaluating the Effectiveness of Watermarking and Labeling AI-Generated Content, Mozilla Foundation, 26.2.2024

Der Papst in Designer-Daunenjacke mag noch amüsant sein, andere KI-generierte Inhalte können hingegen recht schnell problematische gesellschaftliche Auswirkungen haben sowie zu Vertrauensverlust auf digitalen Plattformen führen. Es gibt bereits verschiedene Ansätze, wie diese Inhalte gekennzeichnet werden können, darunter menschliche Kennzeichnung und maschinenlesbare Methoden wie kryptografische Wasserzeichen (Erlesenes berichtete). Die Studie der Mozilla Foundation evaluiert diese Ansätze und gibt den Techniken einen „Fitness Check“. Die Kernerkenntnisse der Autor:innen Ramak Molavi Vasse’i und Gabriel Udoh sind, dass zum einen menschliche Kennzeichnung anfällig für Manipulationen ist und zu viele Informationen wiederum Misstrauen in der Öffentlichkeit erzeugen können. Zum anderen bieten maschinenlesbare Methoden wie unsichtbare Wasserzeichen zwar einen relativen Schutz vor Manipulation, können aber ohne die notwendigen Erkennungstools nur als mittelmäßig wirksam eingestuft werden und sind leicht manipulierbar. Drittens kommen die Autor:innen zu dem Schluss, dass es einen ganzheitlichen Governance-Ansatz braucht, um den Schaden von nicht offengelegten KI-generierten Inhalten wirksam zu mindern. 


Regulierung

EU im Digital-Marathon: Jetzt erst mal umsetzen!

Implementing tech rulebooks should be top digital policy priority, EU countries urge, Euractiv, 23.2.2024

Seit Beginn der Legislaturperiode 2019 haben sich die EU-Institutionen mit insgesamt 20 Regulierungsinitiativen mit Digitalisierung befasst. Diese reichen von der Regulierung digitaler Dienste (Digital Services Act, DSA) über den EU Cyber Resilience Act bis hin zu digitalen Identitäten und dem baldigen AI Act, der am 13. Februar im Europäischen Parlament zur finalen Abstimmung stand. „Jetzt ist auch mal gut“, hat sich wohl auch die belgische Ratspräsidentschaft gedacht. In einem Dokument an die EU-Delegierten betont sie die Wichtigkeit der Umsetzung bestehender Vorschriften gegenüber weiterer Gesetzgebung, wie von Euractiv berichtet wird. Besonders für den AI Act wird festgestellt, dass die effiziente Zusammenarbeit zwischen KI-Office, KI-Board und Beratungsgremium entscheidend für die Umsetzung sei. Zudem wird die EU-Kommission aufgefordert, die zukünftige Rolle des Europäischen Zentrums für algorithmische Transparenz über den Digital Services Act hinaus zu überdenken.


Bad Practice

Wenn KI-Generatoren Geschichte neu schreiben 

AI Companies Are Getting the Culture War They Deserve Google’s new image generator is yet another half-baked AI tool designed to provoke controversy, nymag.com, 22.2.2024

Biases sind in vielen KI-Systemen präsent, von sexistischen oder rassistischen Suchergebnissen bis hin zu Gesichtserkennungssystemen, die bei BPOC (Black and People of Color) schlechter abschneiden. Generative KI-Modelle bilden keine Ausnahme. So haben zum Beispiel gesellschaftliche Stereotype über Länder und Kulturen auch Eingang in Bildergeneratoren (Erlesenes berichtete). Der Ursprung des Problems liegt oft in den Daten und Algorithmen. Anstatt sich jedoch mit den Ursachen, sprich den Trainingsdaten und Algorithmen, der KI-Modelle auseinanderzusetzen, versuchen Tech-Unternehmen wie Google oder OpenAI, das Problem über das Prompten – also die Eingaben – zu lösen, so der Artikel. Dies zeigt sich jedoch mit mäßigem Erfolg, wie die Kontroverse um Googles KI-Modell „Gemini“ verdeutlicht. Beim Versuch der angemessenen Repräsentation schießt Gemini über das Ziel hinaus und verzerrt historisch bedingte Darstellungen bei der gewünschten Bilderzeugung. Unter anderem erstellte „Gemini“ auf die Aufforderung nach einer Darstellung der US-Gründerväter Bilder mit Gesichtern von Personen afroamerikanischer und asiatischer Abstammung. Sehr zum Leid von konservativen Kreisen in den USA, die darin eine Verschwörung gegen weiße Menschen in den USA wittern – ein neuer Schauplatz eines alten Kulturkampfes.


Ein Blick hinter den Sora-Hype

Let’s not do this again, please, Blood in the Machine, 16.2.2024

Für die neueste KI-Aufregung sorgt derzeit das KI-Modell „Sora“ – japanisch für Himmel als Symbol für „unendliche Kreativität“ –,  das Videos auf der Basis von Text künstlich generiert. Viele dieser Videos sind täuschend echt, einige setzen jedoch auch die physikalischen Gesetze außer Kraft. In seinem Beitrag ordnet Brian Marchant diese neuen Entwicklungen ein und warnt davor, sich von dem Hype mitreißen zu lassen. Dies würde Unternehmen wie OpenAI in die Karten spielen, da es dem bisherigen Vorgehen folge: Ein Produkt veröffentlichen, es überhöhen und dann zurückrudern – „move fast & break things“ also. Bei nüchterner Betrachtung der Technologie und der Umstände werde deutlich, dass die Zugriffszahlen auf ChatGPT derzeit stagnieren. OpenAI suche also nach neuen Einnahmequellen und Milliardeninvestitionen für sein ressourcenreiches Geschäft. Die generierten Videos seien außerdem weniger ein Produkt „künstlicher Intelligenz“ als vielmehr das Ergebnis anspruchsvoller Automatisierung. Viele Videos ähneln stark bereits existierenden Inhalten von anderen KI-Generatoren und echten Werken. Somit seien die Sora-Outputs keine wirklich neuen Kreationen, sondern automatisierte Kopien bereits existierender Produkte.  Das mache Sora-Videos nicht weniger beeindruckend, die Erklärung dahinter sei aber wesentlich sachlicher als die derzeitige Aufregung um das Modell. Dieser Blick hinter den Hype offenbare bekannte Mechanismen von Big Tech, um Macht und Kapital in einem Unternehmen zu zentralisieren.


Malische Schulbücher dank KI

The AI project pushing local languages to replace French in Mali’s schools, Rest of World, 28.2.2024

Eine Bildungsinitiative in Mali namens „RobotsMali“ nutzt KI-Tools, um Schulmaterialien in der Landessprache zu erstellen. In den letzten 60 Jahren war Französisch die offizielle Sprache Malis, wurde jedoch nach dem Militärputsch im vergangenen Jahr durch lokale Sprachen ersetzt. Dafür wurde aber eine große Anzahl von neuen Schulbüchern benötigt. Hier kommt KI ins Spiel: Innerhalb von acht Monaten wurden mithilfe von ChatGPT und anderen Tools 107 Schulbücher in der Landessprache Bambara konzipiert. Es wurde besonders darauf geachtet, eurozentristische Tendenzen in den Prompt-Formulierungen zu vermeiden, um etwa stereotypische Darstellung wie hypersexualisierte Bilder von afrikanischen Menschen zu verhindern. Allerdings gibt es besorgte Stimmen, dass den Schüler:innen Malis dadurch der Zugang zu anderen Sprachen und damit auch Möglichkeiten verwehrt bleiben könnten. Dennoch bleibt „RobotsMali“ ein erster Versuch, mittels KI bisher marginalisierte Sprache und das darin enthaltene kulturelle Wissen zu bewahren, ähnlich wie es andere Projekte in Afrika, Brasilien oder Neuseeland versuchen.


Follow-Empfehlung: Ramak Molavi Vasse’i

Ramak Molavi Vasse’i (The Law Technologist) ist Rechtsanwältin für digitale Rechte und Senior Researcher bei der Mozilla Foundation. Zu ihren Forschungsschwerpunkten gehören Privatheit und Datenschutz, KI und algorithmische Systeme, Ethik sowie die Regulierung von Technologie.


Verlesenes: Wie von Geisterhand


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.