Das Warten hat ein Ende: Erlesenes ist zurück?! Wir – Michael Puntschuh und Teresa Staiger – werden zweiwöchentlich die Welt der Algorithmen und Künstlichen Intelligenz (KI) durchforsten und Ihnen fortan mit diesem Newsletter eine kuratierte Auswahl an Artikeln, Studien und Beiträgen zusammenstellen. Wir wollen die Einordnung erleichtern und gemeinwohlorientierten Algorithmeneinsätzen mehr Raum geben, ohne die Augen vor den Risiken zu verschließen.  

Aus Ethik der Algorithmen wird reframe[Tech]! Wir haben uns inhaltlich weiterentwickelt und setzen uns im Projekt reframe[Tech] – Algorithmen fürs Gemeinwohl dafür ein, dass sich die Entwicklung und der Einsatz von Algorithmen und KI stärker am Gemeinwohl ausrichten. Dennoch: Die Auseinandersetzung mit ethischen Prinzipien hat natürlich nicht an Relevanz verloren. Der Artikel The AI ethicist’s dilemma ist ein schöner Denkanstoß zu den moralischen Fallstricken einer/eines jeden, die/der sich mit der Stärkung des Gemeinwohls im Tech-Sektor beschäftigt.   

Weiter geht es mit einer spannenden Studie, die sich die derzeit diskutierte EU-Verordnung zu Künstlicher Intelligenz genauer anschaut und den sogenannten „Brüssel-Effekt“ thematisiert. Die beiden Wissenschaftler:innen legen dar, wie Regulierung Schule machen kann – auch außerhalb ihres Geltungsbereichs. Wie wichtig die Regulierung besonders von Hochrisikosystemen ist, zeigt der dritte Artikel zum Einsatz von automatischer Gesichtserkennung in Indien, bei der unschuldige Menschen Gefahr laufen, ins Visier der Polizei zu geraten.  

Getreu unserem Projektnamen zeigen wir an zwei Fallbeispielen gemeinwohlorientierte Einsatzmöglichkeiten algorithmischer Systeme auf. Das Beispiel des „Great Reef Census“ zeigt etwa sehr schön, wie Engagement in Form von Citizen Science Hand in Hand gehen kann mit Maschinellem Lernen.   

Abgerundet wird die erste Ausgabe „Erlesenes“ von einer Twitter-Followempfehlung für die Schnittstelle Kognitionswissenschaften, KI und Dekolonialismus und mit einem nicht ganz ernst gemeinten Twitter-Video zum Thema „Roboter übernehmen die Weltherrschaft“.  

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  


Macht kaputt, was euch kaputt macht! 
(The AI ethicist’s dilemma: fighting Big Tech by supporting Big Tech), 08.12.2021, AI Ethics

Welche Strategie ist besser, um das Gemeinwohl im Tech-Sektor zu stärken: Sollten wir versuchen, Unternehmen von innen heraus zu verändern? Oder müssen wir die großen Tech-Konzerne von außen kritisieren, neue Organisationen und Strukturen schaffen? Dies sind Fragen, die auch unserem Projektteam immer wieder durch den Kopf gehen. Glücklicherweise müssen wir uns diesem moralischen Dilemma nicht mehr alleine stellen: Die drei Philosophen Henrik Skaug Sætra, Mark Coeckelbergh und John Danaher vergleichen beide Strategien miteinander. Wenn Ethiker:innen aus den Tech-Konzernen heraus arbeiten und ihre Werkzeuge, wie Soziale Medien, nutzen, könnten sie die unmoralischen Praktiken dieser Unternehmen legitimieren und stabilisieren. Um die Gefahren wirklich zu bändigen, brauche es Disruption, und diese könne nur von außen kommen. Auch wenn Ethiker:innen für grundlegende, systemische Veränderungen einen langen Atem brauchen, lohne es sich, so die Autor:innen. Ein Artikel, der uns in jedem Fall einen Motivationsschub gibt.


Regulierung

Wird die KI-Verordnung der EU zum Exportschlager? 

(The Brussels Effect and Artificial Intelligence), 16.8.2022, Centre for the Governance of AI 

Der Entwurf der KI-Verordnung der Europäischen Union wird gerade noch diskutiert – da schauen Charlotte Siegmann von der Universität Oxford und Markus Anderljung vom Centre for the Governance of AI bereits auf die Zeit danach. Sie beschäftigen sich in diesem umfangreichen, vorausschauenden Bericht mit der Frage, ob die KI-Verordnung zu einem neuen globalen Standard werden wird. Dass Regulierung auch über den Geltungsbereich hinaus Wirkung entfalten kann, konnte beispielsweise bei der Datenschutz-Grundverordnung beobachtet werden: Der sogenannte Brüssel-Effekt führt dazu, dass Europa aufgrund seiner Marktmacht weltweit den Datenschutz prägt. Folgerichtig gehen die Autor:innen der Frage nach, ob ein ähnlicher Effekt auch bei der KI-Verordnung zu erwarten sei. Ihre Schlussfolgerung: Der Brüssel-Effekt ist insbesondere bei sogenannten Hochrisiko-Systemen zu erwarten. Dies sei aber nur der Fall, wenn die neue Verordnung stringent, in sich schlüssig und zukunftsfähig ist. 


Bad Practice

Ist sich die Gesichtserkennung unsicher, greift die Polizei trotzdem ein

(The Low Threshold for Face Recognition in New Delhi), 21. August 2020, WIRED

Anfragen nach dem Informationsfreiheitsgesetz haben so manche fragwürdige staatliche Praxis zutage gefördert. So nun auch in Indien, wie Tech-Journalistin Varsha Bansal aus Delhi berichtet. Dort hat eine solche Anfrage nicht nur bestätigt, dass die örtliche Polizei Gesichtserkennungssoftware verwendet, sondern auch, für welche Straftaten und mit welcher (Un)Genauigkeit. So wurde diese KI-Software insbesondere während öffentlicher Unruhen verwendet, um Verdächtige zu erkennen. Dabei reichte der Polizei in Delhi bereits eine 80 Prozent Wahrscheinlichkeit bei der Zuordnung aus, um gegen Verdächtige rechtlich vorzugehen. Und auch bei einer noch niedrigeren Zuordnungswahrscheinlichkeit geraten Personen auf das Radar der Sicherheitsbehörden. Nur zum Vergleich: 80 Prozent war auch die Genauigkeit des KI-Systems, das 28 Mitglieder des US-Kongresses fälschlicherweise als Straftäter:innen identifizierte.  Damit haben wir ein weiteres Beispiel, bei dem der Einsatz von Gesichtserkennungssoftware zu hochproblematischen Ergebnissen führt. 


Good Practice

Die KI, die nachts trainiert

(How to shrink AI’s ballooning carbon footprint), 19.7.2022, Nature 

Doch es gibt auch gute Nachrichten: Eine kanadisch/US-amerikanische Forschungsgruppe hat sich mit dem Problem beschäftigt, dass das Training von großen KI-Systemen viel Energie verbraucht und damit dem Klima schadet. In einem Artikel fasst Elizabeth Gibney die Ergebnisse der Forscher:innen zusammen: Der CO2-Fußabdruck der KI kann um ein Drittel reduziert werden, wenn darauf geachtet wird, wo und wann sie trainiert wird. Wenig überraschend ist dabei beispielsweise die Erkenntnis, dass das Training einer KI in Norwegen (mit Energie aus beinahe 100 Prozent Wasserkraft) umweltfreundlicher verläuft als in Deutschland. Schon wesentlich spannender ist etwa das Ergebnis, dass auch die Uhrzeit eine Rolle spielt: So wird der Energiebedarf im US-Bundesstaat Washington nachts mit Wasserkraft gedeckt. Solche und weitere Erwägungen können in Zukunft dabei helfen, diejenigen Rechenzentren und Trainingszeiten zu wählen, die eine möglichst geringe Auswirkung auf die Umwelt haben. Wenn das einmal gegeben ist, brauchen wir vielleicht bald einen Algorithmus, um die optimalen Trainingszeiten für andere Algorithmen zu berechnen. 


Good Practice

Crowdsourcing zur Korallenerkennung hilft beim Umweltschutz

(Artificial Intelligence and Deep Learning Models Will Be Used to Protect the Great Barrier Reef), 26.8.2022, Tech Times   

In Australien können nun alle zum Schutz des Great Barrier Reefs beitragen: Sogenannte Citizen Scientists schossen bereits etwa 52.000 Fotos von Korallen, welche dann von einer KI-Bilderkennung analysiert werden. So werden besonders gefährdete Bereiche des über 2.300 km langen Riffs schnell identifiziert, etwa indem verbleichende Korallen oder korallenfressende Seesterne erkannt werden. So entsteht ein Great Reef Census. Die Erkenntnisse werden dann mit den Forscher:innen der Universitäten Queensland und James Cook geteilt, um Schutzmaßnahmen zu konzentrieren. Während bisher nur etwa 5 bis 10 Prozent der insgesamt etwa 3.000 individuellen Riffe kontrolliert werden konnten, können nun Australier:innen und Touristen dieses Überwachungsnetz deutlich weiter spannen und eigene Bilder der Korallen zur Analyse einsenden. So bleibt die Hoffnung, Teile des auch aufgrund des Klimawandels sterbenden Riffs zu retten. 


Follow-Empfehlung: Abeba Birhane

Kognitionswissenschaftlerin und aktuell Senior Fellow im Bereich vertrauenswürdige KI bei der Mozilla Foundation. In ihrer Doktorarbeit beschäftigte sich die Äthiopierin mit den Herausforderungen der Automatisierung menschlichen Verhaltens. Sie twittert regelmäßig zur Schnittstelle von Kognitionswissenschaft, KI und Dekolonialismus.


Verlesenes: Übernehmen Roboter morgen schon die Weltherrschaft?