4 Tage Wochenende! Eine gute Chance, die vielen spannenden Artikel zu #Algorithmenethik zu lesen, für die man sonst nicht die nötige Zeit findet. Von uns gibt es diese Woche daher eine Extra-Empfehlung zu einer Artikelreihe aus unserem Blog. Wer wissen will, wie sich Finanzbehörden und Steuerbetrüger mit Algorithmen bekämpfen, der ist hier richtig. Außerdem: Neuronale Netzwerke, die sich selbst replizieren. Algorithmen, die Qualitätsjournalismus im Netz aufspüren. Neue Erkenntnisse zu Fake News in Deutschland und vieles mehr…

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten!
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de


🔖Ein Algorithmus soll Qualitätsjournalismus im Web aufspüren

(A progress report on Deepnews.ai), 19. März 2018, Monday Note

Die automatisierte, systematische Entdeckung von qualitativen journalistischen Inhalten mithilfe maschinellen Lernens – diesem Ziel haben sich der Journalist und Forscher Frederic Filloux und ein Team der Stanford Universität verschrieben. In seinem Beitrag gibt Filloux Einblicke in die Arbeit des “Deepnews.ai” titulierten, von Google mitfinanzierten Projektes. Der in der Entwicklung befindliche Algorithmus soll anhand eines umfangreichen Datensets quantifizierbare Merkmale erlernen, die typisch sind für ausgezeichnete journalistische Werke. Unterstützung erhält die Software von Freiwilligen, die auf der Site deepnews.ai Beispieltexte anhand verschiedener Kriterien wie Relevanz, Artikeltyp, inhaltliche Tiefe und Ausgewogenheit bewerten und einordnen. Den Rest übernimmt dann der Algorithmus. So lautet zumindest der Plan. Filloux zeigt sich optimistisch hinsichtlich der Umsetzbarkeit des Vorhabens. Er kündigt an, in weiteren Beiträgen über den Fortschritt zu informieren.


🔖Wenn Künstliche Intelligenz von heute auf morgen über Zugang zu Krankenpflege entscheidet

(What happens when an algorithm cuts your health care), 21. März 2018, The Verge

Der plötzliche Übergang von menschlichen zu algorithmischen Entscheidungsvorgängen kann für Betroffene gravierende Folgen haben. Diesen Sachverhalt beleuchtet Collin Lecher, Reporter bei The Verge, hier am Beispiel von Personen mit besonders hohem und dauerhaftem Krankenpflegebedarf. Lecher berichtet über den Einsatz eines Algorithmus im US-Bundesstaat Arkansas, der seit Kurzem berechnet, wie viele Stunden der Krankenpflege Patienten wöchentlich benötigen. Das Ziel: der effizientere Einsatz des raren Pflegepersonals. Für manche Patienten reduziert die Software das Pensum im Vergleich zu der bis dato durch Menschen vorgenommenen Bewertung massiv, ohne dass sich die gesundheitliche Situation der Patienten verändert hat. Ein Grundproblem ist die schlagartige Implementierung eines solchen Systems ohne transparente Erklärungen der Entscheidungskriterien für Betroffene – was auch ein Entwickler des Algorithmus eingesteht. Noch eines zeigt das Beispiel: Auch der effiziente Einsatz von Ressourcen kann das Problem des Ressourcenmangels nur begrenzt lösen.


🔖Ein KI-System vermehrt sich selbst, um besser zu werden

22. März 2018, Golem.de

Sich selbst optimierende Algorithmen stellen eine der Königsdisziplinen der künstlichen Intelligenz (KI) dar. Doch Wissenschaftler der Columbia University wollen dem noch eins draufsetzen: Der Journalist Oliver Nickel berichtet über deren Vorhaben, ein neuronales Netzwerk zu entwickeln, das sich selbst repliziert. Zur Erinnerung: Neuronale Netzwerke sind dem Gehirn nachempfundene Netze aus künstlichen Neuronen, die eine zentrale Rolle bei der Realisierung von KI spielen. Die Forscher untersuchen mit ihrem Projekt, ob und wie sich ein Algorithmus kopiert und dabei von alleine verbessert. Auffällig ist bei ihrem in diesem Papier (PDF) dokumentierten Verfahren die für den Replizierungsprozess benötigte enorme Rechenkapazität. Sie führt dazu, dass das neuronale Netzwerk seiner eigentliche Aufgabe (hier: Bilderkennung) nur mit Abstrichen nachkommen kann. Doch auch in der Natur stelle die Vermehrung häufig einen Trade-off zu anderen Tätigkeiten dar, merken die Wissenschaftler an.


🔖Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017

26. März 2018, Stiftung Neue Verantwortung

“Fake News” spielten für den Bundestagswahlkampf 2017 nur eine untergeordnete Rolle. Diesen Schluss legt eine gerade veröffentlichte Studie der Stiftung Neue Verantwortung nahe. Die Autoren Alexander Sängerlaub, Miriam Meier und Wolf-Dieter Rühl konstatieren in ihrer empirischen Untersuchung, dass es weder viele Falschmeldungen aus Russland gab noch bedeutende Vorgänge im linkspopulistischen Raum auftraten. Tatsächlich scheint es sich bei Fake News in Deutschland bisher vor allem um ein Phänomen aus dem rechtspopulistischen Spektrum zu handeln. Insgesamt blieb die Reichweite im Vergleich zu klassischen Medien aber gering – es sei denn, klassische Medien agierten als Verbreiter, was ab und an vorkam. Das Studienteam analysierte am Beispiel der zehn reichweitenstärksten Fake News einen Großteil der deutschen Onlineöffentlichkeit – sowohl Social-Media-Plattformen als auch Nachrichtenseiten, Blogs und Foren – und führte eine repräsenattive Wählerbefragung durch. Wir haben die Studie bei uns im Blog kommentiert. (Disclaimer: Die SNV ist ein Kooperationspartner des Ethik der Algorithmenprojektes der Bertelsmann Stiftung.)


🔖Ein Vorschlag zur Optimierung der Nutzung von Datensets (PDF)

(Datasheets for Datasets), 23. März 2018, jamiemorgenstern.com

Der Einsatz von kKünstlicher Intelligenz (KI) setzt das Vorhandensein von umfangreichem Datenmaterial voraus. Fehler im Datenmaterial oder die Verwendung eines für eine spezifische Problemlösung ungeeigneten Datensets können verheerende Folgen haben. Sie können zu Diskriminierung führen oder gar die Funktionsweise gesamter Anwendungen gefährden. Eine Gruppe von KI-Wissenschaftlerinnen und -Wissenschaftlern verschiedener US-Institutionen schlägt angesichts der elementaren Bedeutung von Daten in diesem sich noch in Arbeit befindlichen Papier vor, jedes Datenset mit einem erläuternden Datenblatt zu versehen. Dieses Datenblatt würde Programmierer und andere Nutzer einer KI unter anderem darüber informieren, wie die Daten gesammelt wurden, was sie repräsentieren, wo ihre Grenzen liegen und in welcher Form sie bereits anderweitig eingesetzt wurden. Inspiration für ihren Vorschlag holten sich die Forscher aus dem Bereich von Elektrokomponenten und -geräten, zu denen Hersteller stets erklärende Datenblätter bereitstellen.


🔖In eigener Sache: Das automatische Finanzamt

Dank eines 2016 verabschiedeten Gesetzes muss die Einkommensteuererklärung von den Finanzämtern nicht mehr in jedem Fall manuell geprüft werden. Stattdessen kommt es in manchen Fällen nun zu einer automatischen Prüfung. Bis zum Jahr 2022 soll die Hälfte der Steuererklärungen automatisch bewilligt werden. Positiv für die Steuerpflichtigen: Die Neuerung macht eine deutlich schnellere Bearbeitung möglich. Dass die Funktionsweise der eingesetzten Algorithmen nicht offengelegt wird, sorgt unterdessen für Kritik. Der freie Journalist Torsten Kleinz liefert im Algorithmenethik-Blog die Hintergründe zu dem neuen Verfahren und thematisiert mögliche Vor- und Nachteile. Hier gehts zu Teil 2 „Wie Schummel-Software in Kassen Steuern hinterzieht“ und Teil 3 „Wenn das Finanzamt Big Data entdeckt„.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren