Was kann KI? Das ist die Leitfrage Frage, der wir uns in dieser Woche im Erlesenes-Newsletter stellen. Speziell: Können Algorithmen bei Amokläufen Schlimmeres verhindern? Wie könnte Künstliche Intelligenz den Beruf von Psychiater:innen verändern? Welche Rollen nehmen algorithmische Systeme in der künftigen Arbeitswelt ein? Mit unseren Algorithmenethik-Impulsen decken Sie zahlreiche KI-Mythen auf und bleiben auf dem neusten Stand!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
?Können Algorithmen die Anzahl der Opfer von Amokläufen verringern?
(How gun-detection technology promises to help prevent mass shootings), 23. August 2019, Fast Company
Verschiedene Unternehmen in den USA bieten Software für existierende Überwachungskamerasysteme an, die mithilfe Künstlicher Intelligenz Waffen erkennen und Einsatzkräfte informieren sollen. Der freie Journalist DJ Pangburn diskutiert in diesem längeren Text das Potenzial derartiger Technologie, die bereits an zahlreichen Schulen, Regierungseinrichtungen und religiösen Gebäuden eingesetzt wird. Tatsächlich scheint der Ansatz vielversprechend, hat aber auch Schwächen, so Pangburn. Das Tragen von Waffen in der Öffentlichkeit in einigen US-Staaten sei legal, was beispielsweise datenschutzrechtliche Fragen aufwerfe. Zudem dauerten viele (aber nicht alle) Schießereien oft nur Sekunden, womit ein schnelleres Alarmieren der Polizei nicht unbedingt helfe. In jedem Fall dürfe der Einsatz von Technologie zur Verkürzung laufender Amokläufe nicht auf Kosten der zahlreichen politischen, sozialen und zivilgesellschaftlichen Anstrengungen zur Prävention dieser Taten gehen.
?KI im journalistischen Einsatz: Zu schnell für die Kontrolle
26. Juli 2019, Süddeutsche Zeitung
Wer ist verantwortlich, wenn „Roboterjournalismus“ Falschmeldungen produziert? Dies ist eine der Fragen, die der freie Journalist Adrian Lobe in der Süddeutschen Zeitung stellt. Sie besitzt zunehmende Relevanz: Vermehrt setzen Redaktionen von Nachrichtenagenturen und Verlagen auf automatisierte Systeme, um fachlich weniger anspruchsvolle Inhalte zu produzieren: Erdbebenmeldungen, Finanzberichte, Nachrichten zu Statistiken. Im Idealfall können so Kapazitäten für einen etwas aufwendigeren Journalismus freigesetzt werden. Doch Fehler passieren, denn die eingesetzten Lösungen sind nicht perfekt. Ein Aktiencrash infolge einer nicht akkuraten, algorithmisch erstellten Meldung gehöre zu den realistischen Szenarien. Eine weitere Herausforderung des Einsatzes derartiger Technologie sei es, bestimmte sprachliche Aspekte in vordefinierte Regeln zu übersetzen. Etwa: Wann kann man von einem Trend sprechen? Wann führt eine Partei in einer Wahl „haushoch“? Für menschliche Journalist:innen ein weniger großes Problem, für Maschinen schon.
?Was Psychiater:innen über Chancen und Risiken Künstlicher Intelligenz in ihrem Beruf denken
(Are psychiatrists really ready for the AI revolution?), 27. August 2019, MIT Technology Review
83 Prozent des psychiatrischen Fachpersonals halten es für unwahrscheinlich, dass Künstliche Intelligenz (KI) jemals eine vergleichbare empathische Betreuung bieten kann wie Psychiater:innen. So lautet eine Erkenntnis aus einer Befragung von 750 Fachexpert:innen aus aller Welt, durchgeführt von Wissenschaftler:innen der Duke University School of Medicine in Durham, North Carolina. Lediglich vier Prozent der Befragten gaben an, sich vorstellen zu können, dass die Technologie eines Tages ihren Job komplett überflüssig machen werde. Deutlich weniger als die Hälfte der Expert:innen waren der Ansicht, dass die Vorzüge des Einsatzes von KI überwiegen, und rund die Hälfte ging nicht davon aus, dass KI den Beruf signifikant verändern werde. Die Studie lege die Vermutung nahe, dass viele Psychiater:innen nicht ausreichend auf die kommenden Veränderungen vorbereitet seien.
?Mit zweierlei Maß: Ein Algorithmus entlarvt Geschlechterklischees in der Literatur
(Women are beautiful, men rational), 27. August 2019, University of Copenhagen
Männer werden tendenziell mit Adjektiven beschrieben, die ihr Verhalten betreffen, Frauen mit Eigenschaften ihres Aussehens – eine verbreitete und regelmäßig empirisch erlebbare Vermutung, die nun von Forscher:innen der University of Copenhagen und weiterer Institutionen mithilfe eines Algorithmus statistisch belegt wurde. Das berichtet die dänische Universität auf ihrer Website: Das Team unterzog circa 3,5 Millionen englischsprachige Bücher, die zwischen den Jahren 1900 und 2008 publiziert wurden, einer Sentimentanalyse; rund elf Milliarden Wörter insgesamt. Das Ergebnis zeigt eine klare Diskrepanz hinsichtlich der auf Männer und Frauen angewendeten Attribute. Dies sei unter anderem ein Problem, weil viele Systeme Künstlicher Intelligenz (KI) Teile ihres Datenmaterials aus eben solcher Literatur beziehen – und damit in dieser enthaltenes Klischeedenken verinnerlichen und als Entscheidungsmaßstab nutzen. Entwickler:innen von KI müssten dies beim Training ihrer Modelle bedenken.
?Kollegin KI: Wie arbeiten wir künftig zusammen?
(Are AI systems team players?), 5. August 2019, Medium
In vielen Unternehmen und Organisationen, besonders im Technologiesektor, werden Managementfunktionen bereits von Künstlicher Intelligenz (KI) erledigt, etwa bei den zahlreichen Anbietern der „Gig-Ökonomie“, die algorithmische Aufträge an Vertragsarbeiter:innen vergeben. Doch seien heutige „KI-Manager“ entmenschlichende Systeme, die Arbeiter:innen ohne Respekt und Würde behandeln, schreibt Marko Balabanovic, Technikchef bei einer Digitalagentur. Aus seiner Sicht sind Algorithmen als „Chef:innen“ gerade aufgrund zahlreicher ethischer Probleme ungeeignet. Weitaus mehr Potenzial liege darin, ihnen den Status von „Kolleg:innen“ zuzuweisen, die mit menschlichen Angestellten zusammenarbeiten. Unvermeidbar seien die hohe Komplexität, die Unwägbarkeiten und die unerwünschten Nebeneffekte, die aus der aktuellen Transformationsphase resultieren. Je stärker sich Algorithmen als Team Player herausstellten, desto erfolgreicher könne das Endergebnis ausfallen.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben