Haben Sie diese Woche das bei Twitter gehypte Spiel #ImageNetRoulette ausprobiert? Dahinter steckt wohlmöglich etwas anderes als nur ein harmloser Gesichtserkennungsspaß! Außerdem im Erlesenes-Newsletter der Woche: Wie können Algorithmen bei der Obdachlosenhilfe unterstützen? Und was sind die fünf Vorschläge von Nesta-Chef Geoff Mulgan für effektivere Algorithmenethik?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Fünf Maßnahmen, damit Algorithmenethik mehr Durchschlagskraft erhält

(AI ethics and the limits of code(s)), 16. September 2019, Nesta

Zwar sei es gut, dass Algorithmenethik mittlerweile erhebliche Aufmerksamkeit erhält, doch er befürchte, dass die zahlreichen Ethikinitiativen und -richtlinien vergleichsweise wenig erreichen werden. Das schreibt Geoff Mulgan, Vorsitzender der britischen Innovationsstiftung Nesta. In seinem Beitrag präsentiert er fünf konkrete Vorschläge, um diesen Ansätzen zu mehr Durchschlagskraft zu verhelfen. Unter anderem argumentiert er für eine Abkehr von der Fokussierung auf ein starr strukturiertes Regelwerk. Ethik erfordere auch immer Rücksichtnahme auf den Kontext und individuelle Interpretationen. Dies sei nicht zuletzt wichtig im Hinblick auf die Integration unterschiedlicher globaler Perspektiven. Änderungsbedarf besteht nach Ansicht des Experten auch bei der Fokussierung auf das Hier und Jetzt der Herausforderungen. Zu viel Energie fließe in Szenarien, die entweder weit in der Zukunft lägen oder rein theoretischer Natur seien, wie etwa das Trolley-Problem.


🔖Wie der Hype die gesellschaftliche Debatte über Künstliche Intelligenz behindert

(When hype is harmful: why what we think is possible matters), 19. September 2019, The Startup

Kluge Konversationen über die gesellschaftliche Nutzung und den Einfluss neuer Technologien scheitern häufig am fehlenden Verständnis darüber, wozu sie überhaupt in der Lage sind. Dieser Ansicht ist Alix Dunn, Ethikexpertin und Unternehmerin. In ihrem Beitrag beleuchtet sie die durch Hypes verursachten Stolpersteine von Diskussionen über beispielsweise Künstliche Intelligenz (KI). Sie beschreibt die Dynamik des Entstehens überzogener Erwartungen und ihre negativen Folgen, stellt wichtige Fragen dazu, wer von falschen Versprechungen profitiert, und macht Vorschläge, um der Situation zu begegnen. Unter anderem ruft sie Menschen dazu auf, mehr wie Wissenschaftler:innen zu denken und ungesicherte Behauptungen zu einer Technologie systematisch zu hinterfragen. Den am Innovationsprozess beteiligten Akteur:innen rät die Autorin, bei der Beschreibung der Technolgien in höchstem Maße akkurat und explizit zu sein – auch in ganz frühen Phasen.


🔖Kunstprojekt “ImageNet Roulette”: Warum die Bilderkennungs-KI zu Beleidigungen neigt

(The Viral App That Labels You Isn’t Quite What You Think), 19. September 2019, WIRED

Mit welchen Etiketten kategorisiert Künstliche Intelligenz (KI) Gesichter? Neugierige konnten dies in den letzten Tagen mit “ImageNet Roulette” herausfinden. Allerdings mussten sie sich auf eine rassistische, beleidigende oder zumindest wenig schmeichelhafte Einschätzung seitens des Algorithmus gefasst machen. Gregory Barber, Journalist beim Wired, erklärt die Hintergründe zu dem Projekt des Künstlers Trevor Paglen und der KI-Forscherin Kate Crawford. Das Duo wolle mit dem Vorhaben auf die Schwächen des viel genutzten freien Datensatzes ImageNet aufmerksam machen. Als dieser vor zehn Jahren zusammengestellt wurde, ging es Wissenschaftler:innen nur darum, Algorithmen zur Objekterkennung zu optimieren. Der plötzliche Erfolg von Anwendungen mit Künstlicher Intelligenz habe das Feld überrascht, zitiert Barber den Computerwissenschaftler Alexander Wong. Erst kürzlich hätten die ImageNet-Macher:innen damit begonnen, fragwürdige Teile des Datensatzes zu entfernen. Wer ImageNet Roulette selbst ausprobieren möchte, muss sich beeilen: Am dem 27. September 2019 soll es aus dem Netz verschwinden.


🔖AMS gibt grünes Licht für Bewertung von Arbeitslosen durch Algorithmus 

17. September 2019, futurezone

Der österreichische Arbeitsmarktservice (AMS)darf nach einer kurzen Testphase nun offiziell einen Algorithmus einsetzen, um die Arbeitsmarktchancen von Arbeitssuchenden zu bewerten. Das System, das beim AMS vorstellig werdende Personen in eine von drei Kategorien einteilt – darunter eine für Menschen mit „geringen Integrationschancen“ in den Arbeitsmarkt –, hat seit dem Bekanntwerden entsprechender Pläne viel Kritik auf sich gezogen, schreibt futurezone-Reporterin Barbara Wimmer. Im Wesentlichen drehe sich diese um drei konkrete Schwachpunkte: dass bestimmte Gruppen (etwa Frauen oder ausländische Staatsbürger:innen) systemintern pauschal Punktabzüge erhalten, dass das AMS mangelnde Transparenz an den Tag legt sowie dass es statistisch zu einer relativ hohen Zahl an falschen Klassifizierungen kommt. Aus Anlass der Lancierung des Systems hat Barbara Wimmer außerdem ein Interview mit Carla Hustedt, die bei uns das Projekt “Ethik der Algorithmen” leitet, über Vorurteile von Computern geführt.

Hinweis der Redaktion: Das AMS-Modell und die Wirkungsweise können im Sinne der Transparenz unter diesem Link nachvollzogen werden: Dokumentation der Methode.


🔖Künstliche Intelligenz soll bei Obdachlosigkeit helfen

(How machine learning is being used to tackle homelessness), 23. September 2019, Sifted

Die gemeinnützige britische Organisation StreetLink plant den Einsatz eines Algorithmus, um auf offener Straße schlafende Obdachlose schneller mit notwendiger Hilfe und mit Schlafplätzen versorgen zu können. Das schreibt Kim Darrah, Journalistin beim Onlinemagazin Sifted. Konkret solle die Software verwendet werden, um von Privatpersonen übermittelte Hinweise zu potenziell Hilfebedürftigen so kategorisieren zu können, dass trotz stark begrenzter Ressourcen der Organisation bestmögliche Effekte für die Betreffenden erzielt werden. Bislang habe nur eine in sieben Meldungen dazu geführt, dass eine hilfsbedürftige Person tatsächlich gefunden wurde. Anhand historischer Daten zu Meldungen könne der Algorithmus Notfälle effizienter als Menschen erkennen und erlaube eine Priorisierung der Hilfemaßnahmen. Die Lösung soll in den nächsten Monaten erstmals von StreetLink in London erprobt werden, so Darrah.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren