Was wäre, wenn… Künstliche Intelligenz (KI) ihre “Denkvorgänge” erklären könnte? Algorithmen kranke Menschen und Organspender:innen zusammenbringen könnten? Man Geld damit machen könnte, diskriminierende Software zu bekämpfen?

Ihr stellt Euch diese Fragen? Dann seid Ihr hier genau richtig. Denn bei Erlesenes gibt es Antworten – und viele neue Fragen.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Eine KI, die ihre “Denkvorgänge” erklären kann

(Artificial intelligence system uses transparent, human-like reasoning to solve problems), 11. September 2018, MIT News

Für Menschen war es bislang unmöglich, die Entscheidungen von lernfähiger, dem Gehirn nachempfundener Künstlicher Intelligenz (KI) voll und ganz nachzuvollziehen. Diese Intransparenz hindert Softwareentwickler:innen daran, den Algorithmus zu verbessern oder etwa die exakte Ursache für einen diskriminierenden Beschluss ausfindig zu machen. Doch nun hat ein Forscher:innenteam des Massachusetts Institute of Technology (MIT) laut der MIT-News-Redakteurin Kylie Foy ein Verfahren entwickelt, bei dem eine KI Schritt für Schritt für menschliche Betrachter verständlich ihren “Denkprozess” visualisiert – ohne dass es dabei zu Einbußen bei der technischen Leistungsfähigkeit kommt. Erreicht wurde dieser Erfolg durch eine Modularisierung der einzelnen KI-Denkvorgänge, für die der Algorithmus dann jeweils eine Darlegung präsentierte. Den Wissenschaftler:innen sei es durch die gewonnene Transparenz gelungen, das Resultat für eine der KI gestellten Testaufgabe qualitativ deutlich zu verbessern.


🔖YouTube-Stars: Berühmt, gut verdienend, dem Algorithmus ausgeliefert

(The YouTube stars heading for burnout: ‘The most fun job imaginable became deeply bleak’), 8. September 2018, The Guardian

Diverse bekannte und sehr erfolgreiche YouTube-Stars beklagen Symptome, die einem Burnout ähneln. Verantwortlich hierfür ist neben der Erwartungshaltung der Nutzer:innen sowie anderen Verpflichtungen, die mit dem plötzlichen Berühmtsein im Internet einhergehen, auch der YouTube-Algorithmus: Dieser belohnt ständiges Produzieren von Content und dabei bekanntermaßen besonders solche Inhalte, die Emotionen wecken. “Der Punkt, an dem du am Ende deiner Kräfte bist, ist der Punkt, an dem dich der Algorithmus besonders liebt”, zitiert der freie Journalist Simon Parkin einen der YouTube-Stars, mit denen er für diese umfangreiche Reportage sprach. Viele von ihnen glaubten, ihren Traumberuf gefunden zu haben. Doch nun sehen sie sich mit einer Situation konfrontiert, in der sie zwar Anerkennung erhalten und Geld verdienen, aber auch massiven Druck verspüren. Sie wissen genau: Sobald sie nachlassen, entzieht ihnen der Algorithmus die Aufmerksamkeit und damit ihre Existenzgrundlage. Eine deutschsprachige Zusammenfassung des Artikels gibt es bei der NZZ.


🔖Wie KI in den USA Nierenspenden revolutioniert

(How AI changed organ donation in the US), 10. September 2018, Quartz

Die Revolution der Suche nach lebenden Organspender:innen für Patient:innen mit endgültigem Nierenversagen ist in den USA eine der großen Erfolgsgeschichten von Künstlicher Intelligenz (KI), schreibt Quartz-Reporterin Corinne Purtill. In diesem längeren Beitrag beleuchtet sie die Schwierigkeiten, die Nierentransplantationen mit einem Organ von lebenden Spender:innen historisch im Wege standen, und erklärt anschaulich, wie der Einsatz von Algorithmen komplexe Tauschringsysteme ermöglicht hat, die heutzutage Tausenden Menschen das Leben retten. Die ethisch-moralischen Aspekte rund um die Frage, wer eine Spenderniere bekommen darf – denn die Nachfrage ist weitaus größer als das Angebot –, muss jedoch weiterhin von Menschen entschieden werden. Laut Purtill arbeiten Wissenschaftler:innen derzeit daran, KIs auch für derartige Entscheidungen fit zu machen. So unvorstellbar dies auch sein mag – zu bedenken ist, dass die bislang für Beschlüsse zur Nierenspende üblichen Ethikräte trotz aller guten Intentionen selbst nie tatsächlich unparteiisch und objektiv entscheiden.


🔖Geschäftsmodell? Faire Algorithmen!

(These Entrepreneurs Are Taking on Bias in Artificial Intelligence), 5. September 2018, Entrepreneur

Das Engagement gegen diskriminierende Algorithmen ist nicht nur eine gesellschaftliche Notwendigkeit, sondern birgt auch lukrative Geschäftsmöglichkeiten. Liz Webber, Redakteurin beim Onlinemagazin Entrepreneur, porträtiert fünf Köpfe, die Geschäftsmodelle und Projekte entwickeln, um Algorithmen fairer zu machen. Mit dabei ist unter anderem Cathy O’Neil, Autorin des Buches “Angriff der Algorithmen”, deren Firma Dienstleistungen rund um die Prüfung von Algorithmen anbietet. Webber sprach auch mit Rediet Abebe, deren Initiative “Black in AI” die Präsenz schwarzer Wissenenschaftler:innen in der KI-Forschung erhöhen will. Ebenfalls vorgestellt wird Chad Steelberg. Seine Firma entwickelt Algorithmen, die unter anderem in der Lage sein sollen, in Datensets kodierte Vorurteile und stereotypische Rollenbilder zu eliminieren, um so das Risiko von diskriminierenden Resultaten zu verringern. Die von uns geförderte Initiative AlgorithmWatch wird in dem Artikel zwar nicht genannt, verdient an dieser Stelle aber auch eine Erwähnung.


🔖Wenn Mensch und KI zusammen die besten Ergebnisse erzielen

(AI-Human “Hive Mind” Diagnoses Pneumonia), 13. September 2018, IEEE Spectrum

Die Zusammenarbeit von Menschen und Künstlicher Intelligenz (KI) funktioniert zwar bei selbstfahrenden Autos bislang nicht gut, kann in anderen Anwendungsbereichen jedoch zum bestmöglichen Ergebnis führen. Das zeigt eine Studie der Stanford University School of Medicine und des Unternehmens Unanimous AI, über die Megan Scudellari, freie Journalistin bei IEEE Spectrum, berichtet. Für die Studie bewerteten acht Radiolog:innen für 50 Röntgenbilder die Wahrscheinlichkeit des Vorliegens einer Lungenentzündung und interagierten dazu mit einem speziellen “Schwarm-KI”-System. Dieses beobachtete und analysierte in Echtzeit ihre Interaktionen und bewertete davon ausgehend, wie sicher sich die Fachleute jeweils waren, um daraus eine Gesamtwahrscheinlichkeit abzuleiten. Das Ergebnis überzeugte: Das Team Mensch-KI erzielte ein 33 Prozent genaueres Resultat als individuelle Radiolog:innen und ein 22 Prozent genaueres als eine auf die Erkennung von Lungenentzündungen trainierte, autonom agierende KI.


 

Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren