In den heutigen Lektüreempfehlungen widmen wir uns den Chancen und Risken KI-basierter Sprachsoftware: Während sich Millionen Ruander:innen durch inklusivere Sprachdatensätze besser über die Coronapandemie in ihrer Sprache informieren können, setzt ein Start-up eine Akzent-Übersetzungssoftware für digitales „whitening“ ein. Wir fragen uns auch: Wie steht es um das Recht auf Vergessen in Zeiten von KI-Bildgeneratoren wie DALL-E und Stable Diffusion und ihre Konsequenzen für Urheberrecht und Datenschutz? Zum Schluss können wir im eindrücklichen Artikel über algorithmische Trackingmethoden im Arbeitskontext selbst erleben, welche Herausforderungen für den Schutz von Arbeitnehmer:innenrechten und Privatsphäre auf uns zukommen.  

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  

Viel Spaß beim Lesen wünschen  

Teresa und Michael 


Good Practice

Mbaza spricht jetzt auch Kinyarwanda

(The AI ethicist’s dilemma: fighting Big Tech by supporting Big Tech), 08.12.2021, AI Ethics

Chatbots sind zwar an sich ein alter Hut (auch wir beschäftigen uns gerade mit einem). Es bleibt aber eine Herausforderung, diese textbasierten Assistenzprogramme so inklusiv wie möglich zu gestalten. Mozilla Common Voice arbeitet schon seit einiger Zeit daran, Sprach- und Chatassistenzsysteme für mehr Sprachen verfügbar zu machen – crowdgesourced und open source. Vor einem Jahr hat das ruandische Biomedizinische Zentrum auf dieser Basis den Chatbot Mbaza entwickelt, der auch auf Kinyarwanda funktioniert. Seitdem können Ruander:innen das Tool nutzen, um sich über die Zahl der Coronafälle und den Stand der Impfung zu informieren oder um im Falle eines positiven Tests Hilfe zu bekommen. Das Programm stellt diese wichtigen Informationen Millionen von Menschen zur Verfügung, die weder Englisch noch Französisch sprechen. Wir stimmen Innocent Bagamba Muhizi, dem CEO der Rwanda Information Society, zu, wenn er sagt: Der Mbaza-Chatbot ist ein sehr gutes Beispiel dafür, wie KI eingesetzt wird, um die Verbreitung zuverlässiger gesundheitsbezogener Informationen zu verbessern.“ 


Bad Practice

Can I speak to an American, please?

(An AI startup is selling tech to let call center agents change their accents. They say it’s to protect workers from racism, but critics say it’s a form of ‚digital whitening.‘), 4.9.2022, Insider

Manchmal, wenn wir in schwäbischen Dörfern unterwegs sind, dann kann es einem schon vorkommen, als wäre man im Ausland: Man versteht sich einfach nicht. Das Startup Sanas hat sich aufgemacht, dieses Problem zu lösen und für Verständigung zwischen verschiedenen Dialekten und Akzepten zu sorgen. Es bietet eine Software an, die etwa Callcenter-Mitarbeiter:innen nutzen können, wenn sie ein Gespräch auf Englisch halten, aber am Telefon die Kund:innen nicht verstehen oder nicht verstanden werden. Ihr gesprochenes Wort wird live „übersetzt“. Lindsay Dodgson und Yoonji Han berichten über die Debatte, die das ausgelöst hat: Denn während Sansa angibt, dass es zur weltweiten Verständigung beitragen möchte, sehen Kritiker:innen in dieser Technologie eine Form von „digital whitening“: Nichtamerikanische Akzente würden so verdrängt und künstlich „weiß gewaschen“. Das geschehe nur, um den Vorstellungen von Kund:innen zu entsprechen, die sich nicht mit Personen auseinandersetzen wollen, die anders sind. Es werde eine Welt geschaffen, in der alle nur noch dem nordamerikanischen Ideal entsprächen. Gleichzeitig sehen viele CallcenterMitarbeiter:innen in der Software eine Chance, sich vor rassistischen Beleidigungen zu schützen, indem ihre Dialekte nicht gehört werden. 


Bad Practice

Jeder Klick zählt

(The Rise of the Worker Productivity Score, Jodi Kantor and Arya Sundaram),14.8.2022, The New York Times

Wir bleiben direkt bei Bürojobs. Unternehmen versuchen nämlich zunehmend, die Produktivität ihrer Mitarbeiter:innen zu messen sei es, um unproduktive Zeitfenster oder Personen zu identifizieren oder die Arbeitszeit zu optimieren. Sie messen alles, was messbar ist: Wie oft wird gescrollt und geklickt, wie schnell wird getippt. Dies sind alles Daten, die dann von Algorithmen analysiert werden. Unter den größten privaten Arbeitgeber:innen der USA nutzen bereits acht von zehn Firmen solche Software. Im Artikel können wir alle ausprobieren, wie sich das anfühlt, da wir als Leser:innen getrackt werden. Dabei kommen uns ganz intuitiv die gleichen Fragen, die sich auch die Journalistinnen Jodi Kantor und Arya Sundaram stellen: Ist das, was gemessen wird, überhaupt hilfreich? Und was macht es mit den Mitarbeiter:innen, wenn wir ihren Erfolg mit der Anzahl an Klicks messen? Viele Betroffene haben ihre ganz eigene Art gefunden, damit umzugehen: Auf Tiktok trenden Videos darüber, wie man diese Algorithmen austricksen kann. Auch eine Form der Produktivität. 


Regulierung

Schafft diese Regulierung Fairness in Bewerbungsfiltern?

(New York City AI Bias Law Charts New Territory for Employers, J. Edward Moreno) 29.08.2022, Bloomberg Law 

Die Stadt New York hat eine neue Verordnung verabschiedet, die vor Diskriminierung durch KI-Systeme schützen soll. J. Edward Moreno berichtet, dass das Gesetz Arbeitgeber:innen dazu verpflichtet, einen Audit durchzuführen, wenn sie in Bewerbungsverfahren algorithmische Systeme einsetzen. Diese können von Bewerbungsfiltern bis hin zu Mimikerkennung reichen. Bewerber:innen müssen außerdem mindestens zehn Tage vor Einsatz der Systeme darüber informiert werden. Damit ist die Norm, die im Januar in Kraft treten soll, eine der ersten solchen Regelungen in den USA. Doch noch ist unklar, wie sie genau umzusetzen ist. Einerseits ist noch nicht definiert, wie und von wem der Audit durchgeführt werden soll. Arbeitgeber:innen fordern daher zusätzliche Leitlinien von der Stadt, wie sie das Gesetz umsetzen sollen. Andererseits sollen sich Betroffene nicht direkt ans Gericht wenden können. Stattdessen müssen sie sich entweder mit einer Beschwerde an den städtischen Wirtschaftsrat werden oder eine Sammelklage bemühen. Wir werden ab Januar mit Spannung beobachten, wie die Umsetzung tatsächlich funktionieren wird. 


Artikel

Was passiert, wenn GPT-3 plötzlich meine Adresse ausspuckt?

(What does Europe’s approach to data privacy mean for GPT and DALL-E?, Tristan Greene), 13.9.2022, The Next Web 

In letzter Zeit haben Text- und Bildgenerierung viel Aufmerksamkeit bekommen: Sicherlich haben auch viele von Ihnen schon mit DALL-E oder Stable Diffusion herumgespielt. Eine noch offene Frage ist dabei, wie der Datenschutz oder das Urheberrecht mit diesen Systemen umgeht. Denn sie werden mit einer großen Menge an urheberrechtlich geschützten Daten trainiert, die teilweise auch personenbezogen sind. Besonders aufmerksamkeitserregend waren Fälle, bei denen der Textgenerator GPT-3 solche geschützten Daten auf Anfrage wieder ausgab, wie etwa Adressen oder Telefonnummern. Tristan Greene versucht, die aktuelle Lage zusammenzufassen, und zieht den Schluss: Aktuelle Regelungen sind nicht geeignet, um mit diesem Data Scraping umzugehen. Fraglich sei, ob die Gesetze überhaupt anwendbar sind. So sei beispielsweise unklar, wie das Recht auf Vergessen in solchen Fällen anzuwenden ist: Was passiert mit bereits trainierten Systemen, wenn ich meinen Teil der Trainingsdaten gelöscht haben will? 


Follow-Empfehlung: Sarah Chander

Sarah Chander ist Senior Policy Advisor bei EDRi und arbeitet dort insbesondere zur KIRegulierung. Die Sozial- und Rechtswissenschaftlerin twittert regelmäßig zu Gerechtigkeit im digitalen Zeitalter. 


Verlesenes: Um bei Chatbots zu bleiben – eine Unterhaltung der besonderen Art


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.