Über 47 Millionen Mal wurde ein KI-generiertes Nacktfoto von Superstar Taylor Swift auf X geteilt, bevor die Plattform auf die Meldemobilisierung der Fans reagierte und die Bilder entfernte. Die prominente Reaktion auf diesen Vorfall, insbesondere die Besorgnis von höchster Stelle aus Washington, könnte nun dem Kampf gegen Deepfakes in den USA Auftrieb geben: Das Weiße Haus hat den Kongress aufgefordert, legislative Maßnahmen zu ergreifen. In ihrem Artikel skizziert Melissa Heikkilä weitere drei Möglichkeiten, wie man gegen Deepfake-Pornografie vorgehen kann. Ein positives Beispiel für die sinnvolle Nutzung von Künstlicher Intelligenz (KI) zeigt die Jordan Open SourceOpen Source Ein Entwicklungsmodell, bei dem der Quellcode eines Programms öffentlich zugänglich ist. Jeder kann den Code einsehen, modifizieren und weiterverbreiten. Open Source kann die Transparenz von Forschungsfeldern wie der KI fördern. Association (JOSA) mit ihrem KI-Modell Nuha, das Forscher:innen hilft, digitale geschlechtsbezogene Gewalt gegen Frauen in Jordanien zu identifizieren. Mehr dazu gibt es im Bericht der Democracy Reporting International.
Viel Spaß beim Lesen wünschen
Asena und Teresa
P.S. Sie wollen Erlesenes alle zwei Wochen als Newsletter im Postfach haben? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
Katze- und Mausspiel gegen Deepfake-Pornos
Three ways we can fight deepfake porn, MIT Technology Review, 29.01.2024
KI-generierte Nacktdarstellungen von Pop-Superstar Taylor Swift machten letzte Woche die Runde auf X, vormals Twitter und sorgten für einen Sturm der Entrüstung. Die nicht einvernehmlichen Deepfake-Pornos wurden von Millionen gesehen und rücken diese Form der sexuellen Belästigungen aktuell in den Fokus. Leider ist das kein neues Phänomen, durch die Möglichkeiten generativer KI-Modelle ist es aber leichter denn je, KI-generierte pornographische Bilder und Videos zu erstellen. Journalistin Melissa Heikkilä skizziert drei Maßnahmen: Die Nutzung von für das menschliche Auge unsichtbaren Wasserzeichen könnte sowohl KI-generierte Inhalte schneller identifizierbar machen als auch die Erstellung unberechtigter Deepfakes erschweren. Der Einsatz von Abwehrwerkzeugen wie „Nightshade“ (Erlesenes berichtete) schützt Bilder vor der Verwendung in KI-generierten Systemen, indem Trainingsdaten „vergiftet“ werden, wenn Modelle auf damit geschützte Inhalte und Daten zugreift. Am Ende kann aber vor allem eine strengere Regulierung das Problem am wirkungsvollsten bekämpfen. In den USA hat der Fall Taylor Swift eine Debatte im Repräsentantenhaus ausgelöst, während die Europäische Union mit dem AI Act und dem Digital Services Act klare Vorschriften für Kennzeichnung und schnelle Entfernung solcher Inhalte auf Plattformen am Einführen ist.
Using NLP to Detect Mental Health Crises, Stanford University Human-Centered Artificial Intelligence, 8.1.2024
Psychische Krankheiten sind weitverbreitet, Tendenz steigend. Organisationen in diesem Bereich stehen vor der Herausforderung, einem stetig wachsenden Bedarf an Unterstützung nachzukommen, der mit den derzeit verfügbaren Ressourcen kaum zu bewältigen ist. Können hier digitale Werkzeuge wie Krisen-Hotlines und Chatbots unterstützen? Ja, allerdings wird der Mehrheit der Nutzer:innen nicht geholfen, da diese Systeme eine Standard-Warteschlangenmethode für eingehende Nachrichten einsetzen, bei der die Patient:innen nach dem Prinzip „Wer zuerst kommt, mahlt zuerst“ bedient werden, im Gegensatz zu ihrer Dringlichkeitsstufe. Wie als könnten diese Plattformen zwischen Notfall-Nachrichten und nicht dringlichen Nachrichten unterscheiden, um eine Art automatisierte Notfall-Triage machen zu können? Dieser Frage sind Forscher:innen der Stanford Universität nachgegangen und haben ein Modell entwickelt, um mithilfe von KI Hochrisiko-Nachrichten schneller zu entdecken. Sie konnten somit die Zeit, die benötigt wird, um eine:n Patient:in in einer Krise zu erreichen, von zehn Stunden auf zehn Minuten verkürzen – wertvolle Zeit, etwa bei Suizidgefahr. Dieses Beispiel illustriert die Unterstützung, die KI in diesem Bereich leisten kann, sofern eine gute Mensch-Technik-Interaktion gegeben ist. Am Ende kommt es aber natürlich auf die tatsächliche therapeutische Unterstützung von Menschen in Not an, die wird kein KI-System ersetzen können.
Offene Türen für Lobbyaktivitäten durch die Techbranche
AI Act: Neue Dokumente zeigen große Nähe zwischen Aleph Alpha und der Bundesregierung, LobbyControl, 29.1.2024
Am vergangenen Freitag war es endlich soweit: Die EU-Mitgliedstaaten gaben im Ausschuss der ständigen Vertreter grünes Licht für den AI Act. Die Spannung blieb bis zur letzten Sekunde hoch, denn die Unsicherheit darüber, ob Frankreich, Deutschland und Italien nach intensiven Lobbybemühungen der Techbranche dem AI Act noch zustimmen würden, war groß. Die Antwort auf eine Anfrage der Bundestagsabgeordneten Anke Domscheit-Berg zeigt bereits, wie oft Aleph Alpha in Deutschland Einflussnahme betrieben hat. Die Organisation LobbyControl ging einen Schritt weiter und untersuchte im Rahmen einer Informationsfreiheitsgesetz-Anfrage die Inhalte, mit denen Aleph Alpha deutsche Politiker:innen beeinflusste. Dabei wurde darauf gedrängt, Basismodelle wie ChatGPT von Regulierungen auszunehmen und den Anwendungsbereich des AI Act auf die Nutzung von KI zu beschränken. Dass diese Bemühungen nicht erfolglos waren, zeigen der Krimi, den wir alle in den letzten Wochen gemeinsam erleben durften, sowie zahlreiche öffentliche Auftritte aus der deutschen Politik, die Aleph Alphas Narrativ eins zu eins übernahmen.
How to „Transparenzanforderungen“
Report: From Policy to Practice: Prototyping The EU AI Act’s Transparency Requirements, Knowledge Center Data & Society, 2.2.2024
Das Knowledge Center Data & Society, ein Zusammenschluss zahlreicher flämischer Universitäten, hat in einem Bericht die Transparenzanforderungen des AI Acts genauer untersucht. Das Ziel war, anhand verschiedener „Instructions for Use“ abzuleiten, wie ein Use Case, der im Rahmen der europäischen KI-Verordnung bewertet wird, beschrieben sein muss, um die Konformität bestmöglich zu überprüfen. Das Feedback der Teilnehmer:innen betont die Herausforderungen der Einhaltung der Transparenzanforderungen in Artikel 13 und Artikel 52 des AI Act. Kleinere Anbieter von KI-Systemen könnten aufgrund begrenzter Ressourcen Schwierigkeiten haben und konkrete Anleitungen suchen. Die aus dem Bericht resultierenden Vorschläge umfassen unter anderem Best-Practice-Vorlagen sowie ein offizielles Bewertungstool oder automatisiertes Überprüfungssystem. Dadurch soll die Einheitlichkeit von Informationen in Gebrauchsanweisungen erleichtert werden. Zusätzlich sollen Behörden strukturierte Daten extrahieren können, um Berichterstattung und datengesteuerte Politikgestaltung zu verbessern.
Mit KI digitale Gewalt gegen Frauen identifizieren
New Report: Anti-immigrant hate speech, AI solutions, detecting online violence against women and regional strategies, Democracy Reporting International, 23.1.2024
Onlinedesinformation und Hassrede tragen zur Verschärfung politischer Spannungen in der MENA-Region bei. Der neueste Bericht des Democracy Reporting International im Rahmen des WordsMatter-Projekts konzentriert sich auf zwei Gruppen, die von diesem Trend betroffen sind: Subsahara-Migrant:innen in Tunesien, die mit Diskriminierung konfrontiert sind, und weibliche Menschenrechtsverteidigerinnen in Jordanien, die sich mit digitaler geschlechtsbezogener Gewalt auseinandersetzen. Zusätzlich werden in diesem Abschlussbericht des Projekts die Erkenntnisse aus verschiedenen Maßnahmen wie Fallstudien, KI-Lösungen, regionalen Foren und Forschung zusammengeführt. Ein spannendes algorithmisches Beispiel kommt aus Jordanien: Die Jordan Open Source Association (JOSA) erarbeitet gerade ein KI-Modell namens „Nuha“, das arabische Wort für „Geist“ oder „Gehirn“. Das Hauptziel des Modells ist es, Forscher:innen dabei zu unterstützen, digitale geschlechtsbezogene Gewalt gegen Frauen in Jordanien zu identifizieren. Das Open-Source-Modell BERT von Hugging Face bildet die Basis von „Nuha“. AraBERT und andere vortrainierte Modelle sind die Grundlage für „Nuhas“ Fähigkeiten in der Verarbeitung der arabischen Sprache und spielen eine entscheidende Rolle für ihren Erfolg.
Follow-Empfehlung: Dr. Farzaneh Badiei
Dr. Farzaneh Badiei ist Wissenschaftlerin und Gründerin von „Digital Medusa“, wo sie sich mit Fragen digitaler Governance, z. B. bezüglich Plattformen, auseinandersetzt.
Verlesenes: Allheimmittel? KI!
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben