Der Erlesenes-Newsletter meldet sich aus der Sommerpause mit frischen Impulsen aus der Algorithmenethik-Welt zurück. Daten sind das neue CO2, nicht Öl. Wieso braucht die oft verbreitete Metapher eine Überholung? Wie kann Künstliche Intelligenz (KI) bald Gebärdensprache noch schneller und einfacher erkennen? Warum müssen Suchmaschinen-Algorithmen dringend verbessert und auf den Prüfstand gestellt werden? Diese und andere Fragen erwarten Sie in der neuen Ausgabe!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Smartphone gibt Stummen eine Stimme

22. August 2019, NZZ

Ein neues System soll mithilfe von Künstlicher Intelligenz (KI) Gebärdensprache erkennen und in Echtzeit übersetzen können. Es handele sich gar um eine Lösung, die keine leistungsstarken Server benötigt, sondern direkt auf Smartphones eingesetzt werden kann. Das berichtet der freie Journalist Jochen Siegle in der Neuen Züricher Zeitung (NZZ). Trainiert wurde das KI-System mit 30.000 Fotos, die Hände mit unterschiedlichsten Gesten in verschiedenster Qualität zeigen. Drei Algorithmen seien am Werk: Einer ortet die Handfläche, ein zweiter generiert eine exakte 3-D-Karte von Hand und Fingern und ein dritter analysiert die Gesten. Das System, das von Google-Forscher:innen entwickelt wurde und als Open-Source-Projekt veröffentlicht wird, erziele eine durchschnittliche Erkennungsquote von mehr als 95 Prozent. Die Entwickler:innen hoffen, dass der Ansatz für andere Anwendungen und weitere Experimente auch künftig genutzt wird.


?Der Google-Algorithmus ist frauenfeindlich und die deutsche Sprache hat daran Schuld

30.07.2019, t3n-digital pioneers

Websites von Frauen werden in der deutschsprachigen Google-Suche tendenziell schlechter gerankt als solche von Männern. Etwa bei Recherchen nach Berufsbezeichnungen gibt es Benachteiligung, wie die selbstständige Texterin Kathi Grelck in diesem Ratgeberartikel beim Onlinemagazin t3n informiert. Die dahinterliegenden Mechanismen: Wer sich beispielsweise die Haare schneiden lassen möchte oder juristische Hilfe benötigt, würde nach wie vor öfter nach der männlichen Form suchen, also “Friseur” oder “Anwalt”. Websites, die aber die korrekte weiblichen Form, also “Friseurin” oder “Anwältin” benutzen, würden weniger oft angezeigt. Gemäß Grelck fehlt dem Google-Algorithmus die eigentlich trivial klingende Fähigkeit, Websites mit Begriffen der weiblichen Form bei Suchen nach der männlichen Form gleichberechtigt mitzuberücksichtigen. Die Autorin liefert im Text eine Reihe von Lösungsvorschlägen für Website-Betreiberinnen, drückt jedoch ihre Hoffnung aus, dass die Verantwortlichen bei Google den Algorithmus dahingehend verbessern.


?Algorithmische Entscheidungen erfordern wachsame Augen

(Mind The Algorithm), 22. Juli 2019, AlgorithmWatch

Die Verantwortung für eine Entscheidung auf einen Computer zu schieben, sei entweder der Ausdruck von Hilflosigkeit oder eine bewusste Irreführung durch diejenigen, die einen Algorithmus einsetzen. In jedem Fall ist es immer falsch, argumentiert der Journalist und Chef von AlgorithmWatch, Matthias Spielkamp, in diesem pointierten Essay. Als Gesellschaft müssen wir uns gegen derartige Rechtfertigungsversuche für die Folgen algorithmischer Entscheidungsfindung (Automated Decision Making, ADM) stemmen, so der Bürgerrechtler. Denn die Effekte der Anwendungen sowie ihr Diskriminierungspotenzial seien weitreichend – gerade, wenn sie vom Staat und seinen Behörden genutzt würden. Deren Aufgabe sei es, sich für eine gerechtere Welt einzusetzen. Manche Algorithmen reproduzieren und verstärken stattdessen historische Benachteiligungen. Ein kritischer Blick sei deshalb ebenso notwendig wie eine breite öffentliche Debatte. Die Diskussion zu ADM stelle nichts dar, woran nur Computerwissenschaftler:innen und Mathematik:erinnen teilnehmen können, so Spielkamp.


?Daten sind nicht das neue Öl, sondern das neue CO2

(Data isn’t the new oil, it’s the new CO2), 24. Juli 2019, Luminate

Gerne (und zu oft) werden Daten als das neue Öl bezeichnet, also als Antrieb und Motor für neue Möglichkeiten, Innovationen und Wachstum. Martin Tisné, Chef der auf gemeinnützige, Fairness schaffende Projekte fokussierten Investmentorganisation Luminate, sieht eher Parallelen zwischen Daten und CO2: In beiden Fällen genüge das eigene Verhalten nicht, um sich vor Folgen zu schützen, die durch andere verursacht werden. Wir seien stärker von den Daten anderer Personen betroffen, mit denen wir durch Algorithmen gruppiert werden, als durch unsere eigenen Daten, die wir generieren (zu den Folgen der Gruppierung empfehlen wir auch diesen Beitrag von Niklas Eder aus unserem Blog). Ob wir als Individuen unser Einverständnis für eine Datenverarbeitung geben oder nicht, spiele daher kaum noch eine Rolle – zumal zu diesem Einverständnis oft keine wirkliche Alternative existiere. Wie beim Kohlendioxid brauche es ein System zum Umgang und der Reduktion unserer “Datenemissionen”, so Tisné.


?Algorithmen benoten standardisierte Tests – teilweise ganz ohne menschliche Kontrolle

(Flawed Algorithms Are Grading Millions of Students’ Essays), 20. August 2019, vice.com

In 21 Staaten der USA kommen bei der Benotung von standardisierten Tests wie dem bekannten Sprachtest TOEFL oder Zulassungstests für Hochschulprogramme Algorithmen zum Einsatz. In nur drei dieser Staaten wird jede Einreichung grundsätzlich auch von einem Menschen geprüft. In den meisten anderen erfolgen lediglich Stichproben. Warum das ein Problem darstellt, erklärt der freie Journalist Todd Feathers in diesem Artikel bei Vice: Es habe sich gezeigt, dass die verwendeten Computerlinguistik-Algorithmen bestimmte Kriterien überbewerten, wie etwa die Länge von Texten oder das Auftreten bestimmter Satzstrukturen. Andere Aspekte der Schreibkunst, etwa Kreativität, erkennen sie dagegen nicht an. Daraus resultierten einerseits qualitative Mängel bei der individuellen Benotung. Zudem bestehe das Risiko, dass einzelne demografische Gruppen, bei denen ein spezieller Schreib- beziehungsweise Arbeitsstil dominiert, systematisch bevor- oder benachteiligt werden, so Feathers.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren