Willkommen zur elften Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


?Wie der YouTube-Algorithmus die Wahrheit verzerrt

(“Fiction is outperforming reality”: how YouTube’s algorithm distorts truth), 2. Februar 2018, The Guardian

Der Algorithmus von YouTube ist dafür optimiert, Nutzer dazu zu bringen, möglichst viele Videos möglichst lange zu gucken. Ob diese Videos die Wahrheit abbilden oder ein differenziertes Bild der Wirklichkeit darstellen, ist dabei irrelevant. Das erklärt der ehemalige YouTube-Softwareentwickler Guillaume Chaslot im Gespräch mit Paul Lewis, dem Leiter des US-Westküsten-Büros der britischen Zeitung The Guardian. In seinem Text berichtet Lewis von seinen Recherchen rund um die Frage, wie viel Einfluss das zu Google gehörende Videoportal auf die öffentliche Meinungsbildung ausübt und welche Rolle der Empfehlungsalgorithmus dabei spielt. Eben jener Algorithmus sei der mit Abstand wichtigste Wachstumstreiber für YouTube und zeige eindeutige Tendenzen, systematisch solche Inhalte ins Rampenlicht zu befördern, die auf Polarisierung, Spaltung und das Verbreiten von kruden Verschwörungstheorien ausgelegt sind. Angesichts von 1,5 Milliarden aktiven YouTube-Nutzern könnten die Folgen für die Welt weitreichend sein.


?Die Oberflächlichkeit von Google Translate

(The Shallowness of Google Translate), 30. Januar 2018, The Atlantic

Wenn Google Translate einen Absatz aus einem Werk Sigmund Freuds ins Englische übersetzen soll, dann stolpert es im Gegensatz zu einem sich ernsthaft mit dem Textstück auseinandersetzenden Menschen über so manche Formulierung des österreichischen Denkers. So macht die Maschine aus den “Ungeraden” anstelle von “undesirables” fälschlicherweise “the odd”. Durchaus nachvollziehbar, hat der selbstlernende Algorithmus doch korrekt erkannt, dass “ungerade” statistisch tatsächlich fast immer mit “odd” übersetzt wird. Nur eben nicht in diesem speziellen Fall. Douglas Hofstadter, Professor der Kognitionswissenschaften an der Indiana University Bloomington, führt in diesem Essay anhand verschiedener Beispiele vor, dass die Maschine den Inhalt von Texten schlicht nicht versteht. Sie ist allerdings ziemlich gut darin, den Nutzern aus Fleisch und Blut vorzugaukeln, dass dies anders sei.


?Funktioniert psychologisches Targeting bei Facebook? (PDF)

(Psychological targeting as an effective approach to digital mass persuasion), 28. November 2017, pnas.org

Lassen sich Menschen bei Facebook massenhaft gezielt manipulieren? Können Werbetreibende den “Gefällt mir”-Angaben so viele Informationen über die Persönlichkeit und Präferenzen von Nutzern entnehmen, dass sie ihre Anzeigen psychologisch abstimmen können und Nutzer für diese empfänglicher werden? Ein Team aus Forschern einiger US-Universitäten sowie der University of Cambridge in Großbritannien hat diese seit Längerem im Raum stehende Hypothese näher untersucht. Das Ergebnis von drei durchgeführten Studien: Die Forscher fanden “sich verdichtende Hinweise” darauf, dass psychologisches Targeting bei Facebook tatsächlich funktioniert. Sie sehen darin nicht nur Nachteile, warnen aber vor der gezielten Ausnutzung psychischer Schwächen. Bei Spektrum.de schreibt der Wissenschaftsjournalist Philipp Hummel über die Ergebnisse und führt eine Reihe von Schwachstellen der Studien auf, die auch die Wissenschaftler selbst eingestehen. So können Scheinkorrelationen beispielsweise nicht ausgeschlossen werden. Insofern sind weitere Studien notwendig, um Klarheit zu erhalten.


?Wie Automatisierung Ungleichheit verstärken könnte

(How Automation Could Worsen Racial Inequality), 16. Januar 2018, The Atlantic

Die Gefahr der verstärkten Diskriminierung und Zementierung struktureller Ungleichheiten durch den breitflächigen Einsatz von Algorithmen existiert nicht nur in Bezug auf die unmittelbaren Entscheidungen von Software, sondern bereits einen Schritt davor: wenn es darum geht, darüber zu entscheiden, welche Arbeitsprozesse mithilfe von Algorithmen automatisiert werden sollen. Alexis C. Madrigal, Journalist bei The Altantic, befasst sich in diesem Artikel mit den negativen Folgen der Automatisierung, die für unterschiedliche gesellschaftliche Gruppen ungleich verteilt sein können. Er beschreibt dies am Beispiel der geplanten Einführung selbstfahrender Busse in US-Städten. Überdurchschnittlich viele Busfahrer sind Afroamerikaner. Generell besitzen Arbeitsplätze im öffentlichen Dienst in den USA gerade für Schwarze eine besondere Bedeutung. Wenn nun der Staat in diesem Bereich die Automatisierung forciert, würde das Verschwinden dieser Jobs dementsprechend besonders diese Bevölkerungsgruppe treffen.


?In eigener Sache: Wo Maschinen irren können – Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung (PDF)

5. Februar 2018, blogs.bertelsmann-stiftung.de/algorithmenethik

Bei der Entwicklung algorithmischer Systeme kann viel schiefgehen. Dies wird deutlich, wenn man bedenkt, dass in den verschiedenen Prozessphasen unterschiedliche Menschen involviert sind, die alle individuell Entscheidungen treffen: Wissenschaftler, Programmierer, Data Scientists sowie staatliche und wirtschaftliche Institutionen oder NGOs als Datensammler, Anwender oder Überprüfer. Wo tauchen welche Fehler auf und wie lassen sich Fehler, unerwünschte Nebenwirkungen oder unklare Verantwortlichkeiten vermeiden? Prof. Dr. Katharina A. Zweig von der TU Kaiserslautern hat im Auftrag der Bertelsmann Stiftung unter Mitwirkung von Dr. Sarah Fischer und Konrad Lischka (beide Bertelsmann Stiftung) dieses Arbeitspapier entwickelt, das die unterschiedlichen Phasen im Entwicklungsprozess algorithmischer Systeme und mögliche Fehlerquellen analysiert. Prof. Dr. Zweig präsentiert darüber hinaus lösungsorientiert Instrumente und Maßnahmen, um Sensibilität bei allen Beteiligten zu schaffen und den Herausforderungen zu begegnen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren