Die ausgewählten Beiträge dieser Woche machen zwei Dinge mal wieder sehr deutlich: Algorithmen können in diversen Bereichen eingesetzt werden – zur Automatisierung von Waffensystemen, zur Hautkrebserkennung oder auch, um Gedichte zu schreiben. Somit bestimmt nicht die Technologie, sondern die Art, wie sie genutzt wird, welchen Einfluss die Systeme auf die Gesellschaft haben.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Vielen Dank an dieser Stelle auch an Peter Diekmann und Steven Hill für das Einsenden von Artikelempfehlungen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


?Missing Link: Ein Plädoyer wider den KI-Populismus

3. Juni 2018, heise online

Die Geschichte der Künstlichen Intelligenz (KI) ist seit ihren frühen Tagen geprägt von populistischen Bildern und Vorstellungen, konstatiert der Wirtschaftsinformatikdozent und Autor Timo Daum in diesem Essay. Daum zeigt am Beispiel verschiedener Meilensteine der KI-Geschichte – wie etwa der Konzeption des berühmten Turing-Tests durch Alan Turing oder des ersten, von Joseph Weizenbaum geschaffenen Chatbots namens “Eliza” – wie das Verständnis von KI stets durch die Vermenschlichung und Emotionalisierung von Technik geprägt wurde und meist wenig mit den tatsächlichen Fähigkeiten und der Komplexität der Programme zu tun hat. Dieses Phänomen trete auch bei heutigen KI-Anwendungen auf und sorge dafür, dass selbst ein gebildetes Publikum der Technologie häufig weitaus mehr Fähigkeiten zuschreibt, als sie derzeit besitzt. Der Autor schlägt vor, die Diskussion über etwaige Intelligenz einer Maschine gar nicht zu führen, sondern stattdessen schlicht die konkreten Fähigkeiten der Technologie zu betrachten. Auch könne es helfen, statt von KI und Algorithmen von “Software 2.0” zu sprechen – “dann werden Eliza, Deep Blue oder Watson plötzlich zu etwas ganz und gar Irdischem”.


?Die Killer-Roboter sind im Anmarsch

2. Juni 2018, FAZ.NET

Laut Ansicht des Bundesverteidigungsministerums gibt es bislang lediglich “automatisierte”, aber keine “autonomen” Waffensysteme. Aus ethischer Sicht ist der Unterschied enorm: Automatisierte Systeme halten sich an streng geregelte Abläufe und können vom Menschen jederzeit abgeschaltet werden. Autonome Systeme dagegen handeln in Eigenregie und häufig ohne die Möglichkeit der Intervention durch Menschen. Christoph Schäfer, Journalist bei FAZ.NET, schildert in dieser Analyse, dass die Grenze zwischen beiden Ansätzen in Wirklichkeit aber weniger glasklar ist als angenommen. Er liefert einen sachlichen und differenzierten Überblick zu den möglichen Auswirkungen des Einsatzes von Künstlicher Intelligenz (KI) für militärische Zwecke und erklärt, wieso ein globales Verbot von “Killer-Robotern” trotz der teils drastischen Warnungen von Persönlichkeiten wie Elon Musk oder dem jüngst verstorbenen Stephen Hawking unwahrscheinlich ist. Die öffentliche Aufmerksamkeit für das Thema scheint jedoch dennoch ihre Wirkung zu zeigen: Google sah sich gerade gezwungen, einem KI-Projekt mit dem Pentagon nach erheblichen Protesten der Mitarbeiterinnen und Mitarbeiter den Laufpass zu geben.


?Algorithmus übertrifft Dermatologen bei Hautkrebserkennung

(Artificial Intelligence Can Spot Skin Cancer Better Than Doctors Now), 29. Mai 2018, Gizmodo

Ein von einem Forscherteam aus Deutschland, den USA und Frankreich entwickelter Algorithmus zur Erkennung von Hautkrebs wies eine höhere Treffsicherheit auf als 58 Dermatologen aus 17 Ländern, wie Gizmodo-Redakteurin Rae Johnston berichtet. Die Software wurde von den Wissenschaftlern mit 100.000 Bildern von gutartigen und bösartigen Hautveränderungen gefüttert und erkannte bei 95 Prozent der Fotos diese korrekt als Hautkrebs. Die Dermatologen lagen im Durchschnitt in 86,6 Prozent der Fälle richtig. Gleichzeitig war bei ihnen die Zahl der fälschlicherweise als Hautkrebs klassifizierten, eigentlich gutartigen Hauttumore höher als bei dem Algorithmus. Die Diagnose der menschlichen Experten verbesserte sich in der Studie jedoch, sobald sie zusätzliche Informationen über die Patienten und ihre Haut erhielten. Eine klinische Untersuchung ersetzt das algorithmische Verfahren laut Johnston allerdings (noch) nicht, da einige Hautveränderungen an bestimmten Körperteilen schlecht anhand von Fotos festgehalten werden können.


?Wenn Künstliche Intelligenz Kunst erschafft

(„Computer befreien uns von Monotonie“), 31. Mai 2018, Tagesanzeiger

Wenn man dem Pianisten das Instrument wegnimmt oder der Malerin den Pinsel, dann können sie ihr künstlerisches Werk nicht produzieren. Kunst setzt fast immer Technologie voraus. Künstliche Intelligenz (KI) kommt als weitere Technologie infrage, um Kunst zu erschaffen. So verteidigt Ross Goodwin, ehemaliger Redenschreiber der Obama-Regierung und heute “Creative Technologist” bei Google, im Interview mit Tagesanzeiger-Journalist Rafael Zeier die von Kritikern belächelten Versuche, mithilfe von KI Kunst zu schaffen. Laut Goodwin ist der Fokus auf die häufig skurrilen Resultate von KI-”Kunst” (siehe Algorithmenethik Erlesenes #16: “Wenn ein neuronales Netzwerk sich Stricken beibringt”) ein Irrtum. Wenn man einen Computer anhand eines Bildes ein Gedicht generieren lasse, dann sei nicht das Gedicht allein das Kunstwerk, sondern auch die Maschine. Der Mensch bleibe der Künstler. So wie Fotografie die Malerei befreit habe, könnte auch KI weitere Befreiungen herbeiführen, glaubt Goodwin. Und noch einen Vorzug haben KI-Experimenten im künstlerischen Bereich: Mit Kunstwerken lässt sich leichter auf die Gefahren von KI aufmerksam machen als mit IT-Fachaufsätzen.


?Ein “KI-Winter” steht bevor

(AI winter Is Well On Its Way), 28. Mai 2018, blog.piekniewski.info

Über viele Jahre nahm die Euphorie rund um Deep Learning, eine Form des Maschinellen Lernens und ein wesentliches Element Künstlicher Intelligenz (KI), stetig zu. Doch damit ist vorerst Schluss, glaubt der KI-Forscher Filip Piekniewski. In seinem ausführlichen Blogpost sammelt er Indizien, welche die Vermutung nahelegen, dass derzeit bei vielen der Akteure der Disziplin Ernüchterung eintritt. Zwar habe es in den letzten Jahren viele kleinere, dafür aber medienwirksame Fortschritte gegeben – doch bahnbrechende, „große Würfe“ blieben aus. Für Piekniewski ist vor allem die von ihm beobachtete Stagnation bei den Algorithmen für selbstfahrende Autos ein eindeutiger Beleg dafür, dass der Hype der letzten Zeit keine Verankerung in der Realität hat. Er prognostiziert einen neuen “KI-Winter” – also eine Phase, in der zumindest die öffentliche Beachtung sowie die Summe an investiertem Geld in den Sektor deutlich abnehmen werden. Piekniewskis Text hat etwas Spekulatives, allerdings ist er nicht der einzige mit einer zumindest kurzfristig pessimistischen Sicht: siehe Algorithmenethik Erlesenes #26 “Wieso ein Pionier des Maschinellen Lernens seinen Bereich heute kritisch sieht” und Algorithmenethik Erlesenes #7 “Ein kritischer Blick auf Deep Learning”.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren