„Erlesenes berichtete“ – dieser Satz findet sich immer wieder in unseren Newslettern. Deswegen gibt es in dieser Ausgabe gleich drei Lektüreempfehlungen zu Themen wie Ressourcenverbrauch von KI-Modellen, Arbeitsbedingungen im Niedriglohnbereich des Clickworks und Datenerfassung im Arbeitskontext, über die wir bereits berichtet haben: Zum einen erfahren wir mehr darüber, wie das „durstige“ Training von KI-Modellen konkrete Auswirkungen auf die Wasserknappheit in Lagos hat. Zum anderen zeigt der Artikel über minderjährige Clickworker, wer wirklich dafür sorgt, dass KI-Systeme trainiert werden können. Zu guter Letzt etwas Positives: Methoden der Datenerfassung – sonst oft zur Überwachung von Arbeitnehmer:innen eingesetzt – können von diesen gleichermaßen genutzt werden, um etwa unbezahlte Arbeiten zu dokumentieren.

Zudem: Ein Beispiel, dass zeigt, wie Sprachmodelle persönliche Details aus anonymem Text „herleiten“ können.

Viel Spaß beim Lesen wünschen
Teresa und Michael

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.  


Bad Practice

Chatte mit mir und ich sage dir, wer du bist

ChatGPT Can ‚Infer‘ Personal Details From Anonymous Text, Gizmodo, 17.10.2023

Schon länger werden wir gewarnt, in die Anfragen bei ChatGPT keine persönlichen oder sensiblen Daten einzugeben. Doch auch unbewusst verraten wir sehr viel über uns durch die Art und Weise, wie wir die Anfragen stellen. Eine Gruppe von Forscher:innen aus Zürich hat sich dafür im Rahmen einer Studie näher angeschaut, mit welcher Genauigkeit große Sprachmodelle welche Eigenschaften der Personen ableiten können, die einen bestimmten Text geschrieben haben. Ein Beispiel zeigt, wie das aussehen kann: Das untersuchte Sprachmodell konnte mit einer recht hohen Wahrscheinlichkeit bestimmen, dass eine Person eine dunkle Hautfarbe hat. Das geschah nur auf Grundlage eines Textes, in dem die Person erwähnte, dass sie in der Nähe eines Restaurants in New York City wohnt. Im Sprachmodell waren dabei nicht nur das Restaurant selbst hinterlegt, sondern auch statistische Daten über die Zusammensetzung der Bevölkerung im Block um die Gaststätte. Eigenschaften wie Wohnort, Einkommen oder Gender werden mit bis zu 85 Prozent Genauigkeit berechnet. Dies wirft nicht nur die Frage auf, wie viele Informationen wir über uns selbst unbeabsichtigt preisgeben, wenn wir eigentlich glauben, anonym zu sein, sondern macht auch deutlich, welche Konsequenzen das für die Datenschutzreglementierung von Sprachmodellen hat.


Bad Practice

Durstiges KI-Training verschärft Wasserknappheit in Lagos

Data centers ’straining water resources‘ as AI swells, Phys, 16.11.2023

Das Training und der Betrieb von KI-Modellen können große Mengen an Wasser verbrauchen (Erlesenes berichtete). Erste Fälle zeigen, dass dies reale Folgen haben kann. In Lagos in Nigeria bestand schon lange Wasserknappheit, etwa aufgrund des niedrigen Grundwasserspiegels und der Nähe zum Atlantik, der das Grundwasser teilweise versalzt. Diese Knappheit ist nun noch kritischer geworden: Mindestens zehn große Rechenzentren gibt es im direkten Umkreis der Stadt. Für die Kühlung der Rechner wird knappes Frischwasser abgezapft, so Saudat Ajijola, Dozentin an der Fakultät für Architektur an der Lead City University. Und durch die auch in Nigeria boomende KI-Industrie wird sich die Situation wohl noch verschärfen. Forscher:innen bemängeln dabei, dass die in Lagos vorherrschende Situation nicht bei der Planung des Baus weiterer Rechenzentren berücksichtigt wird. Ajijola spricht sich daher dafür aus, mit zusätzlicher Regulierung nachhaltige Praktiken für das Training und den Betrieb von KI-Systemen zu verordnen. Ob die Versprechen mancher der Rechenzentrumsbetreiber, ihren Wasserverbrauch zu senken, in der Zwischenzeit eingelöst werden, bleibt abzuwarten.


Bad Practice

Die Clickwork-Saga geht weiter

Underage Workers Are Training AI, Wired, 15.11.2023

Eine neue Folge von „Die erschreckenden Bedingungen, unter denen KI-Systeme trainiert werden“: Nachdem bereits bekannt wurde, dass Arbeiter:innen im globalen Süden (Erlesenes berichtete) und Gefängnisinsassen (Erlesenes berichtete) für Niedriglöhne zum Labeln von Daten für KI-Trainings genutzt werden, berichtet Journalistin Niamh Rowe nun, dass auch Kinder für diese Zwecke eingesetzt werden. Über Crowdsourcing-Plattformen heuern KI-Unternehmen weltweit Jugendliche an. Der 15-jährige Hassan aus Burewala in Pakistan etwa labelte Daten für zwischen einem und zwei US-Dollar die Stunde. Auch wenn die Plattformen nur für Erwachsene gedacht sind, umgehen Jugendliche die Hürden bei der Anmeldung ohne Probleme. Dabei wird nicht nur die teilweise wirtschaftliche Notlage Minderjähriger wie Hassans ausgenutzt, sie werden auch schädlichen Inhalten ausgesetzt: So musste er etwa unterschiedliche nackte Oberkörper daraufhin bewerten, wann diese anzüglich und wann zulässig waren, oder Beschreibungen von Vergewaltigungen moderieren. Noch fehlen verlässliche Zahlen darüber, wie groß das Problem von minderjährigem Clickwork ist.


So können wir Daten in Arbeitskämpfen nutzen

Explainer: Challenging Worker Datafication, Data Society, 8.11.2023

KI-Systeme werden auch zunehmend am Arbeitsplatz eingesetzt: Arbeitgeber:innen versuchen dadurch etwa, die Produktivität ihrer Mitarbeiter:innen zu erfassen, zu prognostizieren und somit zu erhöhen. Die Systeme stellen nicht nur ein Risiko für die Privatsphäre und faire Arbeitsbedingungen dar, sondern sind auch immer wieder wenig hilfreich (Erlesenes berichtete). Forscherin Alexandra Mateescu fasst die Lage in einem Explainer zusammen und zeigt auf, welche Lösungen und Wege Arbeiter:innen haben, sich zu wehren. Sie beschreibt, wie bestehende rechtliche Werkzeuge, wie z.B. der Datenschutz, einen großen Teil der Verantwortung auf die Schultern der Arbeitnehmer:innen legen. Gewerkschaften können hier einen Teil der Last abnehmen, wenn sie Datenerfassung und -verarbeitung mit auf ihre Agenda setzen. Leitfäden zeigen dabei auf, wie sie das Thema in Arbeitskämpfen und Verhandlungen ansprechen können. Arbeiter:innen können Datenerfassung aber auch umdrehen, um unbezahlte Arbeitszeit zu erfassen und einzufordern und so ihre Arbeitgeber:innen unter Druck zu setzen. Der Explainer liefert einen guten Überblick über die komplexe Gemengelage.


Bad Practice

Protest stoppt Chatbot, der Essstörungen verstärkt

‘This robot causes harm’: National Eating Disorders Association’s new chatbot advises people with disordering eating to lose weight, Daily Dot, 30.5.2023

Die „National Eating Disorder Association“ ist eine US-amerikanische Organisation, die Betroffenen von Essstörungen Beratung anbietet. Vor Kurzem hat sie dabei ihre Beratung komplett neu aufgestellt: Nachdem sich die Berater:innen der Telefonhotline in eine Gewerkschaft zusammenschlossen, wurden diese allesamt entlassen und durch den Chatbot „Tessa“ ersetzt. Dass so ein abrupter Umstieg nicht gut gehen konnte, war da wohl absehbar. Deshalb testeten Aktivist:innen der Szene, wie Sharon Maxwell, das neue Beratungsangebot, mit beunruhigenden Ergebnissen: Der Chatbot empfahl Betroffenen, ihr Gewicht und ihre Kalorien genau zu messen, oder lieferte pauschale Aussagen wie „Genesung von Essstörungen und die bewusste Gewichtsabnahme können gleichzeitig und sicher stattfinden“. Psychologin Alexis Conason, die den Chatbot auch selbst ausprobierte, warnt, dass solche Aussagen bestehende Essstörungen nur verstärken. Immerhin: Der Protest der Aktivist:innen auf Social Media führte dazu, dass der Chatbot nach nur einem Tag wieder abgeschaltet wurde.


Follow-Empfehlung: Niamh Rowe

Niamh Rowe ist Journalistin und untersucht insbesondere die Arbeitsbedingungen, unter denen KI-Systeme trainiert und betrieben werden.


Verlesenes: So löst die KI Ihr Problem!


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.