YouTube hat in den letzten Wochen für viele (analoge) Diskussionen gesorgt, aber wie genau geht die Plattform mit der konkreten Kritik an ihrem Algorithmus um? Ist Künstliche Intelligenz (KI) teamfähig? Wie verhält sich ein algorithmisches System als Chef:in? Das sind u. a. die Fragen, denen wir auch diese Woche im Erlesenes-Newsletter nachgehen!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
1. Juni 2019, Zeit Online
Immer mehr Menschen sind neben- oder hauptberuflich für Onlineplattformen wie etwa Beförderungsdienste tätig und haben dort keine:n Chef:in aus Fleisch und Blut, sondern eine:n algorithmische:n Vorgesetzte:n. Meike Laaff, Digital-Journalistin bei Zeit Online, spricht im Interview mit der Technik-Ethnografin Alex Rosenblat, die zu diesem Thema Fahrer:innen eines solchen Dienstleisters vier Jahre begleitete. Rosenblat betont die Vorzüge der Unabhängigkeit, die Services wie beispielsweise Uber ihren “Gig-Workern” bieten, und merkt an, dass viele traditionell Angestellte mit ihren menschlichen Chef:innen sowieso nicht sonderlich zufrieden seien. Andererseits löse ein Algorithmus, der die Aufträge zuteilt oder im Falle schlechter Bewertungen mit der Verbannung von der Plattform droht, leicht ein Gefühl der Unfairness aus. Meist existiere kein Handbuch, in dem die zugrunde liegenden Regeln verständlich erklärt würden. Für erwähnenswert hält Rosenblat zudem den Mangel an direkten Interaktionsmöglichkeiten. Zumal die per E-Mail erreichbaren Kundenbetreuer:innen mitunter am anderen Ende der Welt sitzen.
?Der Empfehlungsalgorithmus von YouTube “sexualisiert” Clips mit Kindern
(On YouTube’s Digital Playground, an Open Gate for Pedophiles), 3. Juni 2019, New York Times
Die Eltern eines zehnjährigen Mädchens laden bei YouTube ein Video hoch, das ihr Kind beim unschuldigen Baden im Pool des heimischen Gartens zeigt. Kurze Zeit später hat der eigentlich für niemanden relevante Clip über 400.000 Zugriffe. Der seit Langem in der Kritik stehende Einsatz des YouTube-Algorithmus empfahl das Video Personen mit vermuteten pädophilen Neigungen. Max Fisher, Autor bei der New York Times, legt in diesem Text dar, wie YouTube trotz aller seit Langem bekannten Probleme rund um die Effekte seines Algorithmus Anwender:innen auf Basis ihres Nutzungsverhaltens noch immer fragwürdige Videos vorschlägt – und damit in diesem speziellen Fall eigentlich harmlose Clips von Kindern implizit sexualisiert. Zwar beteuere das Unternehmen, gegen Pädophile auf der Plattform vorzugehen. Vor der laut Expert:innen effektivsten Maßnahme aber schrecke YouTube noch immer zurück: Das Empfehlungssystem für Videos, in denen Kinder im Zentrum stehen, abzuschalten.
?Schneefiguren überqueren keine Straßen
(How do you teach a car that a snowman won’t walk across the road?), 31. Mai 2019, Aeon
Menschliche Autofahrer:innen verstehen bei einem auf der Straße liegenden Ball sofort: Dort könnte gleich ein Kind auftauchen – selbst wenn sie das nie explizit für sich artikuliert haben. Ein derartiges Verständnis sei schlicht Teil des frühzeitig erworbenen Menschenverstandes. Für Künstliche Intelligenz (KI) existiere ein derartiges Konzept noch überhaupt nicht, schreibt Melanie Mitchell, Professorin der Computerwissenschaft an der Portland State University. Das Fehlen eines Äquivalents sei eine entscheidende Einschränkung für KI und für die auf ihr fußenden Anwendungen, wie zum Beispiel selbstfahrende Autos – die mitunter wegen einer zusammengefalteten Papiertüte eine Vollbremsung einlegen. Vielleicht ließe sich das Problem lösen, wenn es gelänge, Maschinen mehr wie Babys lernen zu lassen. Nach vielen Jahren des von Neugier getriebenen sozialen und physischen Erfassens der Welt würden so vielleicht “Agenten mit Menschenverstand” heranreifen, so Mitchell. Denen könne man dann auch irgendwann vielleicht die Autoschlüssel übergeben.
?KI entwickelt Teamfähigkeit, zumindest in Videospielen
(DeepMind Can Now Beat Us at Multiplayer Games, Too), 30. Mai 2019, New York Times
Teamfähigkeit gehörte bislang nicht zu den dokumentierten Stärken Künstlicher Intelligenz (KI). Forscher:innen des zu Google gehörenden Unternehmens DeepMind hätten nun jedoch einen großen Fortschritt auf diesem Gebiet gemacht, schreibt Cade Metz, Technologie-Korrespondent bei der New York Times. Den Spezialist:innen sei es gelungen, automatische Agenten zu erschaffen, die im Modus “Erobere die Flagge” im Videospiel Quake III ihre Ziele zu erreichen versuchen, indem sie mit menschlichen Spielern kooperieren. Möglich wurde dies nach 450.000 Spielrunden, in denen sich der Algorithmus die besten Strategien beibrachte. In seinem Text gibt Metz zu bedenken, dass derartige Experimente enorme Kapazitäten benötigen, weshalb sie für viele Organisationen und Institutionen mit weniger Ressourcen schwierig oder gar nicht umsetzbar seien. Es bestehe das Risiko, dass einige wenige hervorragend finanzierte Einrichtungen die Zukunft der KI-Forschung dominieren werden.
?Medizinische KI mit Datenschutz
24. Mai 2019, Technology Review
Künstliche Intelligenz (KI) bietet enormes Potenzial für die Medizin, leidet bislang aber unter ihrem enormen Datenhunger. Denn medizinische Aufnahmen, genetische Informationen und elektronische Patientenakten gehören zu den sensibelsten Daten überhaupt. Will Knight, KI-Chefredakteur bei Technology Review, berichtet in diesem ins Deutsche übersetzen Text über ein Projekt von Forscher:innen der Stanford Medical School, der University of California (UC) Berkeley und der ETH Zürich, bei dem es darum geht, den KI-Lernprozess so abzusichern, dass Daten nicht in unbefugte Hände geleakt oder anderweitig missbraucht werden können. Möglich mache dies ein speziell entwickelter Chip, der sämtliche Zugriffe mittels einer Blockchain-Lösung überwacht. Diese prüfe zudem, ob eine Maschinenlernprogrammierung korrekt ausgeführt wurde. Der Ansatz sei zuverlässig, biete jedoch auch Risiken, da verschiedene teils noch nicht ausgereifte Technologien zum Einsatz kommen. Die Sicherheit von Blockchains etwa sei noch relativ unbewiesen.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben