Willkommen zur ersten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“. 

Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖 Something is wrong on the internet:

Der Autor und Künstler James Bridle hat mit diesem ausführlichen Essay für viel Aufmerksamkeit gesorgt. In seinem Text beschreibt er im Detail, wie dubiose Inhalteproduzenten die algorithmischen Empfehlungen und damit verbundenen Entdeckungsmechanismen von Googles Videoportal YouTube ausnutzen. Dubios Produzenten, die sich mit ihren teilweise gewalttätigen oder sexualisierten Inhalten gezielt an Kinder richten. Für Leserinnen und Leser in Eile empfehlen wir folgende deutschsprachige Zusammenfassung: „Das Geschäft mit verstörenden Kindervideos”.  Die Tragweite des Problems ist angesichts der enormen Popularität von YouTube gerade bei Kindern und Jugendlichen nicht zu unterschätzen.


🔖 The Ghost of Cognition Past, or Thinking Like An Algorithm:

Aus Sicht des Bloggers Geoff Manaugh sind nicht die Inhalte der von Bridle analysierten Videoempfehlungen bei YouTube besonders verstörend, sondern eher die Art, wie Algorithmen des Videoportals semantische Bezüge zwischen Inhalten herstellen, die Menschen nie bewusst in den Sinn gekommen wären. Manaugh nimmt dies zum Anlass, darüber nachzudenken, ob und wie die zunehmende Konfrontation mit algorithmisch generierten Narrativen das Denken von Menschen beeinflussen könnte und ob Menschen gar anfangen, wie Algorithmen zu denken.


🔖 Facing Facts: Artificial Intelligence and the Resurgence of Physiognomy:

Vor einigen Wochen sorgte eine für Wirbel, die zu belegen versuchte, dass künstliche neuronale Netze in der Lage seien, Anhand von Fotos auf Datingportalen Schlüsse über die sexuelle Neigung der Nutzer zu ziehen. Die Verantwortlichen zogen mit der Veröffentlichung einige Kritik auf sich, sowohl in Bezug auf ethische Bedenken als auch hinsichtlich ihrer wissenschaftlichen Methodik. Die sogenannte ist seit jeher umstritten. Doch in einer Zeit, in dem Computer in enormen Datenmengen explizite Muster finden können, erscheint es wenig verwunderlich, dass sich manche abermals an ihr versuchen. Dieser Beitrag von Jesse Emspak gibt einen guten Überblick über die Debatte und präsentiert die Ursprünge der Physiognomik.


🔖 How Adversarial Attacks Work:

Viel Software, mit der wir tagtäglich in Kontakt kommen, basiert auf Algorithmen des maschinellen Lernens. Der “Output”, den diese Algorithmen produzieren, resultiert, vereinfacht ausgedrückt, daraus, mit welchem “Input” man sie versorgt. An dieser Stelle existiert jedoch eine Schwachstelle: Wer es schafft, den Algorithmus beim Input durch minimale Modifikationen gezielt in die Irre zu führen, der kann dadurch die ausgegebenen Informationen manipulieren. Wer die verschiedenen Typen von“Adversarial Attacks” und ihre Funktionsweise verstehen will, sollte diesen Artikel von Emil Mikhailov und Roman Trusov lesen. Resultate derartiger Angriffe in der Praxis werden hier beschrieben.


🔖 Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth:

Forscher haben mit Hilfe eines Algorithmus des maschinellen Lernens erfolgreich Probanden identifiziert, die Suizidgedanken hegen. Die Studie hat eine kleine Teilnehmerzahl: Die Forscher untersuchten und verglichen dazu die Gehirnaktivität von jeweils 17 Personen mit und ohne Suizidgedanken, die mit positiven, negativen Worten und Begriffen mit einem Bezug zum Thema Tod konfrontiert wurden. Der Algorithmus bestimmte anschließend mit 91-prozentiger Treffsicherheit die suizidgefährdeten Testpersonen und sogar mit 94-prozentiger Sicherheit, wer tatsächlich einen Suizidversuch hinter sich hatte. Der Versuch zeigt auf jeden Fall eines: Was messbar und korrelierbar ist, wird gemessen und korreliert. Ohne die Validität des Ergebnisses kommentieren zu wollen, ist die Studie Ausdruck einer Entwicklung, die man im Auge behalten sollte. Der Zugriff auf  ist kostenpflichtig. Hier finden Sie eine redaktionelle Zusammfenassung


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.