Generative Künstliche Intelligenz (KI) ist in aller Munde, wirft aber auch große Fragen auf: Fungiert KI als Katalysator für eine weitere Verschärfung des Turbokapitalismus? Bestimmen diejenigen, die Sprachmodelle trainieren und anbieten, auch über politische Fragen? Außerdem: Wie Bilderkennung bei der Lungenkrebs-Früherkennung unterstützt. Und: die Gründung der African Content Moderators Union, ein Sieg der gewerkschaftlichen Organisation im Ghost Work-Bereich.

Viel Spaß beim Lesen wünschen
Teresa und Michael

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  


Ist ChatGPT das Leitmedium der Zukunft?

Whoever Controls Language Models Controls Politics, Hannes Bajohr, 8.4.2023

In diesem Artikel ergründet der Philosoph Hannes Bajohr, inwiefern große Sprachmodelle wie ChatGPT weniger eine technische Herausforderung darstellen, sondern eine demokratische: Da es extrem aufwendig ist, große Sprachmodelle zu trainieren, können sich nur wenige Unternehmen diese Forschung leisten. Die Folge: ein Oligopol. Die darin vertretenen Konzerne treffen im Zuge des Trainings politische Entscheidungen, beispielsweise darüber, ob und wie Verzerrungen im Modell begegnet werden soll. Sie verwirklichen – bewusst oder unbewusst, ihre „gesellschaftliche Vision“ im Sprachmodell. Bajohr zeigt auf, wie der politische Diskurs von diesen nicht demokratisch legitimierten Entscheidungen beeinflusst sein wird, wenn immer mehr Text von ChatGPT und Co. produziert werden wird. Seine Schlussfolgerung ist daher: Wer immer Sprachmodelle kontrolliert, kontrolliert Politik.


Good Practice

Ghost Worker gründen Gewerkschaft

150 African Workers for ChatGPT, TikTok and Facebook Vote to Unionize at Landmark Nairobi Meeting, TIME, 1.5.2023

Um KI-Systeme zu trainieren, braucht es eine Menge Arbeit. Immer wieder lesen wir Berichte, wie diese „Ghost Work“ unter schlimmen Arbeitsbedingungen durchgeführt wird (Erlesenes berichtete). Doch die betroffenen Arbeiter:innen wissen sich zu wehren und greifen dafür auf eine klassische Institution zurück: die Gewerkschaft. So haben sich vor Kurzem in Nairobi mehr als 150 Personen zusammengeschlossen, um die African Content Moderators Union zu gründen. Ihre Mitglieder arbeiten bei Unterauftragnehmern, an die Unternehmen wie Facebook, TikTok und OpenAI Aufgaben zur Moderation von Inhalten für das Training von KI-Systemen auslagern. Ihre Anliegen betreffen beispielsweise die große psychische Belastung durch die Arbeit, die bereits bei Arbeiter:innen zu posttraumatischen Belastungsstörungen geführt hat, mangelnde Betreuung Betroffener sowie der sehr niedrige Stundenlohn von teilweise nur 1,50 US-Dollar. Der Artikel gibt auch einen Überblick über aktuell laufende Klagen zu diesen Arbeitsbedingungen.


Wird KPMG bald zu KIMG?

Will A.I. Become the New McKinsey?, The New Yorker, 4.5.2023

Welches Bild hast du vor Augen, wenn du an KI denkst? Einen superschlauen Roboter, große Computer oder vielleicht einen Chatbot? Journalist und Science-Fiction-Autor Ted Chiang denkt bei KI eher an große Beratungsunternehmen. McKinsey und Co. seien „willige Ausführer des Kapitals“ und es würde schwer zu verhindern sein, dass KI nicht auch genau das wird. Schließlich würden KI-Systeme – wie auch Beratungsunternehmen – dazu verwendet, Verantwortung abzuschieben, Kosten zu senken oder schlussendlich von Arbeiter:innen durchgeführte Aufgaben zu übernehmen. Das könnte  dazu führen, die Position etablierter Unternehmen weiter zu stärken und Profit auf Kosten der Allgemeinheit oder der Umwelt bei einigen wenigen Akteuren zu konzentrieren. Zu denken, KI könne Probleme des Kapitalismus lösen, ist für Chiang ein Anzeichen dafür, dass wir die tatsächlich erforderlichen Anstrengungen vermeiden wollen, die es bräuchte, um eine bessere Welt zu bauen. Diese seien aber unumgänglich, wenn man KI-Systeme wirklich für das Gemeinwohl einsetzen wolle.


Lungenkrebs-Früherkennung mit Bilderkennung und klassischen Tests

New artificial intelligence tool can accurately identify cancer, The Guardian, 30.4.2023

Lungenkrebs gehört zu der größten Gruppe unter den tödlich verlaufenden Krebserkrankungen. Gleichzeitig wird diese Krankheit etwa in England in 60 Prozent der Fälle erst im dritten oder vierten Stadium diagnostiziert. Um eine frühere Diagnose zu erleichtern, haben Forscher:innen im Vereinigten Königreich ein Bilderkennungssystem trainiert, das wesentlich verlässlicher funktioniert als bestehende Testmethoden. Das System erkennt dabei, ob es sich bei abnormalen Zellklumpen, die auf Computertomografie-Scans abgebildet werden, um Krebszellen handelt. Als besonders effektiv erwies sich das Modell in Kombination mit dem bestehenden Herder-Test. In einem Versuch konnten 82 Prozent der getesteten Patient:innen, die später Krebs entwickelten, korrekt diagnostiziert werden. Die zugrunde gelegte Studie befindet sich noch in einem frühen Stadium und soll nun auf mehr Patient:innen ausgeweitet werden.


Bad Practice

Zum Einsatz von Chatbots vor Gericht

Are AI chatbots in courts putting justice at risk?, Context, 4.5.2023

Die Fehler, Verzerrungen und Probleme rund um ChatGPT werden in vielen Artikeln diskutiert. Das scheint aber immer mehr Richter:innen nicht davon abzuhalten, dieses Sprachmodell im Rahmen ihrer Urteilfindung einzusetzen. Der Artikel berichtet beispielsweise über den Richter Anoop Chitkara vom Hohen Gericht in Indien, der ChatGPT nutzte, um eine Begründung für seine Entscheidung zugunsten einer Untersuchungshaft zu finden; oder über Juan Manuel Padilla vom städtischen Gericht Cartagena in Spanien, der sich eine Antwort darüber generieren lies, ob in einem Prozess die zusätzlichen Gebühren der Krankenkasse gerechtfertigt waren. Expert:innen kritisieren diese Fälle und warnen, dass Richter:innen sich nicht immer der mit der Nutzung von ChatGPT verbundenen Risiken bewusst sind. Gleichzeitig wachse der Druck auf sie, Werkzeuge wie ChatGPT zu nutzen, etwa aufgrund der großen Zahl offener Gerichtsverfahren: In Indien stehen beispielweise noch über 40 Millionen Gerichtsverfahren aus und 2020 wurden allein 26 Millionen neue Verfahren eröffnet. Hier können die Versprechen großer Unternehmen wie OpenAI auf fruchtbaren Boden stoßen.


Follow-Empfehlung: Hannes Bajohr

Hannes Bajohr ist Philosoph und Autor. Auf seinem Twitter-Kanal dekonstruiert er u. a. Narrative rund um KI.


Verlesenes: Gegenwartsphilosoph Snoop Dogg zu den Gefahren von KI


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.