Kindern wird zur Weihnachtszeit gerne erzählt, dass die Menge an Geschenken in direkter Abhängigkeit vom guten Benehmen steht. Wie wichtig die Folgen unseres Handels sind, zeigen auch zwei neue Publikationen: In der einen wird endlich dringend benötigtes Licht ins Dunkel gebracht, wie hoch der Energieverbrauch von großen Sprachmodellen ist. Die andere Publikation stellt vor, warum die Folgen von KI-Einsätzen für Menschenrechte verpflichtend abgeschätzt werden sollten.

Drei weitere Beiträge über Onlinefahrdienste in Indien, die automatisierte Transkription in Universitätsvorlesungen und Erkennung von Hauttönen geben wichtige Einsichten in gelingende Mensch-Software-Interaktion. In Kurzform: Nur gemeinsam kann es gut werden!

Mit diesem adventlichen Gedanken verabschieden wir uns in eine kleine Winterpause. Die nächste Erlesenes-Ausgabe wird am 12. Januar in Ihren Posteingang flattern. Bis dahin wünschen wir Ihnen schöne Feiertage und einen guten sowie gesunden Rutsch ins neue Jahr!

Viel Spaß beim Lesen wünschen  

Julia und Michael 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  



Warum wir Klimaauswirkungen großer Sprachmodelle holistisch betrachten müssen
We’re getting a better idea of AI’s true carbon footprint, MIT Technology Review, 14.11.2022

Das Training und der Einsatz komplexer maschinell lernender Systeme haben Auswirkungen auf das Klima, weil sie große Mengen an Energie verbrauchen. Doch welche Auswirkungen genau, ist zumeist unklar: Es fehlt an Messmethoden, um die Umweltauswirkungen von Systemen Künstlicher Intelligenz (KI) überhaupt zu erfassen. Das Startup Hugging Face hat nun eine (nicht peer-reviewte) Studie veröffentlicht, in der es die Emissionen seines großen Sprachmodells BLOOM berechnet hat. Dabei wurde nicht nur das Training der KI betrachtet, sondern ein möglichst holistischer Ansatz angewandt, der auch den Energieaufwand für die Herstellung der Hardware des Supercomputers und die Wartung seiner Recheninfrastruktur sowie den Energieaufwand für den Betrieb von BLOOM nach seiner Bereitstellung beinhaltete. Das Ergebnis waren ca. 50 Tonnen CO2-Emissionen, von denen etwa die Hälfte allein für das Training produziert wurde. Das entspricht etwa 60 Flügen über den Atlantik und ist noch vergleichsweise wenig mit den geschätzten 500 Tonnen, die das Training des Sprachmodells GPT-3 verursachte. Die Studie ist der erste so umfängliche Versuch, den CO2-Fußabdruck großer Sprachmodelle zu ermitteln.


Regulierung

Warum wir verpflichtende menschenrechtliche Folgenabschätzungen brauchen

Human Rights Impact Assessments for AI: Analysis and Recommendations, Access Now, 10.11.2022

Wie können wir gut abschätzen, welche menschenrechtlichen Folgen der Einsatz eines algorithmischen Systems haben wird? Access Now hat nun einen Bericht über menschenrechtliche Folgenabschätzungen für Künstliche Intelligenz (KI) veröffentlicht. Die Autor:innen Brandie Nonnecke und Philip Dawson nennen den Grundsatz der Nichtdiskriminierung als ein Beispiel für ein zu prüfendes Menschenrecht. Dies könnte u. a. dadurch geschehen, dass ermittelt wird, wer von einem KI-Einsatz betroffen sein könnte und welche negativen Auswirkungen damit verbunden wären. Auch die Rolle von Standards und Zertifizierungen in diesem Kontext wird beleuchtet. Der Bericht schlägt vor, dass in der KI-Verordnung die Anforderung an das Risikomanagement dahingehend überarbeiten werden sollten, dass die Bewertung von Menschenrechtsrisiken verpflichtend vorgeschrieben wird.


Indische Fahrer:innen lassen sich Tricks einfallen, um Algorithmen zu überlisten

Gig workers in India are uniting to take back control from algorithms, Rest of World, 14.11.2022

Zu ihren Rechten wollen auch Fahrer:innen von Onlinediensten in Indien kommen und wehren sich gegen für sie intransparente und unverständliche Algorithmen. Mit diesen kontrollieren die Plattformen, wer welche Strecke fährt und wie viel Geld dafür bezahlt wird. Doch warum ihnen bestimmte Anfragen angezeigt werden und andere nicht oder auch warum sie eine bestimmte Bezahlung bekommen, bleibt ihnen verborgen. Fahrer:innen von Uber, Ola, Zomato oder Swiggy tauschen sich daher über dutzende Telegram-Gruppen aus, wie sie die Algorithmen „austricksen“ und mehr Kontrolle über ihren Arbeitstag bekommen können. Gemeinsam analysieren sie Muster im Algorithmus und passen ihr Verhalten daraufhin an:  So markiert die Uber-App Gegenden, in denen gerade wenige Autos verfügbar sind, rot und zeigt dort höhere potenzielle Preise an. Fahrer:innen sollen durch den suggerierten höheren Verdienst angeregt werden, in diese Gegend zu fahren und dort Aufträge anzunehmen. Sobald sie in der Gegend ankommen, sind die höheren Preise aber aus der App verschwunden. Inzwischen ignorieren die meisten Fahrer:innen daher diese Hinweise.


Bad Practice

Für gute automatisierte Transkriptionen braucht es Mensch und Maschine

AI Transcription Isn’t Working for Students with Disabilities. Here’s How to Fix It, Georgetown Law Technology Review, November 2022

Studierende mit Hörschwierigkeiten benötigen Transkriptionen, um Vorlesungen folgen zu können. An der Georgetown University hat bisher ein zentrales Büro für Barrierefreiheit Mitstudierende dafür bezahlt, Notizen zu verfassen. Bis entschieden wurde, dass dies genauso gut eine automatisierte Spracherkennung übernehmen könnte. Dass diese aber bei Weitem nicht genauso gut ist, zeigen E.L. Tremblay, Vorsitzende:r der Georgetown Disability Law Student Association, und Ashwin Ramaswami, Mitarbeiter:in des Georgetown Law Tech Review, in ihrem Artikel. Die automatische Transkription sei so schlecht, dass die Studierenden entweder einen unverständlichen Text erhalten oder ihn hinterher aufwändig korrigieren müssen. Die schlechte Qualität der Transkription würde auch daran liegen, dass die Software nicht mit Fachterminologie trainiert wurde. Der Appell der Autor:innen ist daher, dass KI-gestützte Transkription die händische nur unterstützen sollte und betroffene Personen in den Entwicklungsprozess der Spracherkennung einbezogen werden müssten.


Menschen erkennen Hauttöne am besten

Towards Transparency in Dermatology Image Datasets with Skin Tone Annotations by Experts, Crowds, and an Algorithm, Proceedings of the ACM on Human-Computer Interaction, 11.11.2022

Große dermatologische Datensätze enthalten leider selten Informationen zu dem Hautton der Personen. Dabei wäre das wichtig, schließlich liefern Anwendungen wie etwa zur Hautkrebserkennung wesentlich weniger genaue Ergebnisse für Menschen mit dunkler Hautfarbe.  Forscher:innen aus den USA wollten daher wissen, wie Hauttöne bestmöglich bestimmt werden, und ließen Expert:innen, Crowdsourcing und automatisierte Bildanalyse gegeneinander antreten. Wir hätten erwartet, dass Algorithmen bei einer solchen Aufgabe eigentlich recht präzise sein sollten, schließlich geht es „nur“ um die Klassifikation der Hautpigmentierung entlang einer standardisierten Skala. Doch die computerbasierte Bilderkennung war wesentlich weniger zuverlässig als geschulte Dermatolog:innen und auch die Ergebnisse aus dem Crowdsourcing. Die Forscher:innen empfehlen daher, dass dermatologische Datensätze nicht automatisiert annotiert werden sollten.


Follow-Empfehlung: Srujana Katta

Srujana Katta ist Doktrorantin am Oxford Internet Institute, wo sie zu Plattform-Fahrdiensten und Gewerkschaften in der Plattformökonomie forscht.


Verlesenes: Das große Sprachmodell ChatGPT ist überraschend ehrlich


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.