Kann die (chinesische) Onlinezensur mit Memes, Emojis und ähnlich klingenden Begriffen ausgetrickst werden? Hat die viel zitierte „Gender Shades“-Studie von Joy Buolamwini und Timnit Gebru zu mehr Diversität in Trainigsdatensets geführt? Und können Systeme maschinellen Lernens dabei unterstützen, die kritische Infrastruktur – ein derzeit ja viel diskutiertes Sicherheitsrisiko – zu schützen? Auch diese Woche widmen sich einige unserer Leseempfehlungen diesen Fragen. Des Weiteren spielt wieder die EU-KI-Verordnung eine Rolle sowie der ungesunde Druck, dem sich KI-Ethiker:innen ausgesetzt fühlen.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  

Viel Spaß beim Lesen wünschen  

Teresa und Michael 


Good Practice
Mit Memes gegen die Onlinezensur

How Chinese citizens use puns to get past internet censors, Rest of World, 11.10.2022

Wenn auf Weibo, einem Sozialen Netzwerk in China, der Satz „Wacht auf in den schläfrigen Niederlanden“ trendet, dann ist das keine Kritik an mangelnder Energie in Holland, sondern ein versteckter Protest gegen die chinesische Staatsführung. Denn das Wort für die Niederlande „Helan“, klingt sehr ähnlich wie „Henan“ – ein Ort in Zentralchina, in welchem Bürger:innen gegen das Einfrieren ihrer Bankkonten protestierten. Mit diesen und ähnlichen Techniken versuchen Menschen in China, die staatliche Zensur in den sozialen Medien zu umgehen. Denn während etwa Posts mit Henan blockiert würden, erkennen Algorithmen die Substitution durch ähnlich klingende Begriffe nicht, etwa weil die Schriftzeichen völlig unterschiedlich sind. Mithilfe von gleichklingenden Wörtern, Memes oder gar Bildern von Alltagsgegenständen können Chines:innen so online über die staatliche Coronapolitik, Zensur, Arbeitsbedingungen oder Korruption diskutieren. Der Artikel sammelt viele dieser Beispiele und zeigt damit, auf welche kreative Art Menschen Zensuralgorithmen umgehen.


Bad Practice
Der lange Schatten von „Gender Shades“

The unseen Black faces of AI algorithms, Nature, 19.10.2022

Das Feld der Algorithmenethik ist vergleichsweise jung. Das zeigt sich beispielsweise daran, dass die wegweisende „Gender Shades“-Studie von Joy Buolamwini und Timnit Gebru vor gerade einmal vier Jahren veröffentlicht wurde. Darin stellten die beiden Forscher:innen fest, dass Algorithmen zur Gesichtserkennung bei Menschen mit dunkleren Hauttönen wesentlich schlechter funktionieren als bei Weißen. Außerdem wurden Männer wesentlich besser erkannt als Frauen. Das lag auch an Verzerrungen in den Trainingsdaten. Forscherin Abeba Birhane fasst in diesem Artikel zusammen, welche Bedeutung diese Erkenntisse bis heute haben: Seitdem ist die Frage nach der Diversität in Datensets Standard geworden. Auch viele Unternehmen, die zunächst skeptisch reagierten, passten schlussendlich ihre Gesichtserkennungssysteme an und verringerten ihre Fehlerraten um bis zu 30 Prozent. Doch die in der Studie angesprochenen Verzerrungen bleiben und sind auch in anderen Systemen präsent – beispielsweise in Sensoren für die Sauerstoffsättigung des Blutes. Insofern bleiben die Probleme, die Buolamwini und Gebru ansprachen, (noch) ungelöst.


Regulierung

Wie die US-Regierung für ihre Tech-Branche lobbyiert

The US unofficial position on upcoming EU Artificial Intelligence rules, Euractive, 24.10.2022

Die KI-Verordnung der EU befindet sich gerade in der Bearbeitungsphase. Entsprechend stark sind die Versuche von Wirtschaft und auch Zivilgesellschaft, die Inhalte der Norm zu beeinflussen. Nachdem die KI-Verordnung auch über die EU hinaus Strahlkraft haben wird (Erlesenes berichtete), arbeiten auch andere Staaten daran, auf den europäischen Gesetzgeber einzuwirken. Journalist Luca Bertuzzi fasst ein Dokument der US-Regierung zusammen, das an einige EU-Hauptstädte und an die Europäische Kommission geschickt wurde. Darin spiegeln sich viele Positionen der Tech-Branche: So wird darin eine engere KI-Definition auf Grundlage der OECD sowie eine Ausnahmeregelung für Allzweck-KI-Systeme gefordert. Letzteres sei notwendig, weil die Verpflichtungen zum Risikomanagement für die Anbieter sehr aufwendig, technisch schwierig oder sogar unmöglich sein könnten. Auch die weiteren Argumente liefern uns einen guten Blick in die Denkweise der US-Administration.


Verantwortungsvolle KI zu bauen schafft enormen persönlichen Druck

Responsible AI has a burnout problem, MIT Technology Review, 28.10.2022

Journalistin Melissa Heikkilä betrachtet in diesem Artikel einen besorgniserregenden Trend: Immer mehr Menschen, die an verantwortungsvoller KI arbeiten, leiden an Burnout. Auch wenn die Beweise eher anekdotisch sind, zeigen sie eine ungesunde Tendenz in diesem Sektor: Gerade diejenigen, die in Unternehmen beispielsweise in „KI-Ethik-Teams“ beschäftigt sind, arbeiten auf der einen Seite hochmotiviert daran, dass „ihre“ Anwendungen keine negativen Auswirkungen haben. Gleichzeitig fühlen sich viele aber alleine gelassen mit einer nie enden wollenden Aufgabe. Denn Herausforderungen wie Diskriminierungen durch algorithmische Systeme oder die bevorzugte Verbreitung von Falschinformationen durch Newsfeed-Algorithmen sind stets auf größere, gesellschaftliche Probleme zurückzuführen. Diese lassen sich aber nicht schnell lösen, auch wenn viele Firmenleitungen eher auf der Suche nach einfachen Lösungen sind. Das schafft zusätzlichen psychologischen Stress. In diesem Sinne: Gebt auf euch acht!


Steht KI für Kritische Infrastruktur?

So kann KI Wasser- und Stromnetze schützen, Tagesschau, 30.10.2022

Spätestens seit dem russischen Angriff auf die Ukraine und der davon ausgelösten Energiekrise diskutieren wir auch hierzulande zunehmend über den Schutz kritischer Infrastruktur. Darunter fallen Organisationen oder Einrichtungen, die besonders wichtig für das Gemeinwesen sind, wie beispielsweise das Bahnnetz oder die Strom- und Wasserversorgung. Forscher:innen des Karlsruher Instituts für Technologie und der Universität Oldenburg nutzen nun Systeme maschinellen Lernens, um mögliche Schwachstellen in technischen Systemen rechtzeitig zu erkennen und zu beheben. So werden beispielsweise in größeren Simulationen Fehler und Störungen ermittelt. Das gelang bisher insbesondere bei gut messbaren Systemen wie der Stromversorgung, soll später aber auch auf andere Sektoren der kritischen Infrastriktur ausgeweitet werden. Die Hoffnung ist, durch solche Simulationen Engpässe in der medizinischen Versorgung oder größere Stromausfälle zu vermeiden.


Follow-Empfehlung: Luca Bertuzzi

Luca Bertuzzi, Journalist bei Euractive, der über Tech-Policy berichtet. Sein Feed liefert einen guten Überblick über den Stand der KI-Verordnung und anderer Rechtsakte.


Verlesenes: Schon auf der Suche nach einem Weihnachtsgeschenk für andere KI-Nerds?


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.