Diese Erlesenes-Ausgabe führt uns sehr deutlich die Fehleranfälligkeit und Limitiertheit von Künstlicher Intelligenz (KI) und algorithmischer Technologie vor Augen: Der Facebookalgorithmus hat die US-Unabhängigkeitserklärung als Hassrede gekennzeichnet. Selbstfahrende Autos haben Probleme mit ungewöhnlichen Situationen umzugehen. Algorithmen zur Benotung von Schüleraufsetzen können sehr einfach ausgetrickst werden.

Trotz dieser eher negativen Perspektiven hoffen wir, dass die ausgewählten Artikel auch die Chancen der Technologie aufzeigen. Am Ende dürfen wir nicht vergessen, dass auch Menschen alles andere als unfehlbar sind.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Wenn Menschen so tun, als seien sie Künstliche Intelligenz

(The rise of ‚pseudo-AI‘: how tech firms quietly use humans to do bots‘ work), 6. Juli 2018, The Guardian

Künstliche Intelligenz (KI) in eigene Technologieprodukte zu integrieren, ist noch immer derart schwierig, dass viele junge Firmen lieber Menschen anheuern, die so tun, als seien sie Maschinen. Dieses skurrile Phänomen beschreibt Olivia Solon, Journalistin bei The Guardian, mit Blick auf die zahlreichen, teils erstaunlichen “KI”-Lösungen von Startups. Sie schreibt über einen angeblichen Terminplanungsbot, der in Wirklichkeit von Personen gesteuert wurde, “automatische” Abrechnungsdienste, bei denen Mitarbeitende die Quittungen bearbeiten, sowie Vorhaben, bei denen Personen aus Fleisch und Blut Kamera- oder Sensorendaten für die KI händisch mit Labels versehen. Derartige Verfahren laden nicht nur zu zynischen Kommentaren ein, sondern haben auch ernstzunehmende Implikationen: Für die involvierten Mitarbeitenden handelt es sich in der Regel um äußerst stupide, ermüdende Tätigkeiten. Derweil würden Anwender bestimmte persönliche Informationen nicht mit dem Algorithmus teilen, wüssten sie, dass anschließend Menschen diese begutachten.


🔖Algorithmus bewertet Schüleraufsätze

(More States Opting To ‚Robo-Grade‘ Student Essays By Computer), 30. Juni 2018, NPR

In den USA werden mittlerweile jedes Jahr viele Dutzend Millionen Schüleraufsätze von Algorithmen bewertet. Menschliches Lehrpersonal muss mitunter nur noch die Arbeiten anschauen, bei denen sich das System unsicher ist. Die NPR-Korrespondentin Tovia Smith erläutert, wieso sogenannte “Robo-Grade”-Software, die erst eine Vielzahl von bereits bewerteten Aufsätzen analysiert und anschließend die neuen Aufsätze anhand der gelernten Kriterien für gutes Schreiben bewertet, in immer mehr Bundesstaaten zum Einsatz kommt. Zu den primären Vorzügen gehören Kosteneinsparungen sowie die hohe Geschwindigkeit, mit der Resultate generiert werden können. Gemäß Smith existieren aber auch diverse Schwächen des Verfahrens: Die Software lasse sich relativ leicht austricksen. Zudem bestehe das Risiko, dass Lehrkräfte ihren Stoff für den Algorithmus “optimieren”, anstatt für Regeln guten Schreibens an sich. Manche Kritiker stören sich auch einfach daran, dass die Kunstform des Schreibens von Software bewertet wird.


🔖Der Facebook-Algorithmus und die US-Unabhängigkeitserklärung

5. Juli 2018, Zeit Online

Der Facebookalgorithmus, der von Nutzern geteilte Inhalte automatisch auf Regelkonformität prüft, hat am 4. Juli zwei von der US-Lokalzeitung “The Vindicator” veröffentlichte Teile der amerikanischen Unabhängigkeitserklärung temporär gesperrt. Sie sollen gegen die Regeln zur Hassrede verstoßen haben. Einen Tag später entschuldigte sich das soziale Netzwerk und gab die zwei blockierten Zitate wieder frei. In einem als Reaktion auf die DSGVO für EU-Nutzer gesperrten Blogbeitrag erklärt der Chefredakteur des betroffenen Blattes, dass man die von Facebook zunächst verbannten Passagen, in der Amerikas Ureinwohner als „gnadenlose Indianer-Wilden” bezeichnet werden, gemäß heutiger Standards in der Tat für problematisch halten muss. Der Vorfall verdeutlicht somit zwei maßgebliche Aspekte algorithmischer Entscheidungen: Moderationsalgorithmen versagen noch immer darin, Kontext zu erkennen und zu abstrahieren. Stattdessen interpretieren sie alles wörtlich. Gleichzeitig artikuliert Künstliche Intelligenz (KI) mitunter auch schonungslos die Probleme, die Menschen aus Gewohnheit oder aus historischen beziehungsweise kulturellen Gründen lieber ignorieren.


🔖Sollten Menschen ihr Verhalten an autonome Fahrzeuge anpassen?

(Bothersome Bystanders and Self Driving Cars), 4. Juli 2018, rodneybrooks.com

Künstliche Intelligenz (KI) ist grundsätzlich schlecht darin, mit Außergewöhnlichem und unbekannten Dingen umzugehen. Für die Anwendung von KI in selbstfahrenden Autos bedeutet dies, dass die Fahrzeuge nicht immer in der Lage sein werden, in erstmals erlebten Ausnahmesituation sofort die beste Entscheidung zu treffen. Sollten daher Fußgänger und andere Verkehrsteilnehmer durch neue Verhaltensregeln und Gesetze dazu gebracht werden, sich im Sinne autonomer Fahrzeuge zu verhalten? Für den australischen Informatiker und Kognitionswissenschaftler Rodney Brooks wäre dies eine schlechte Lösung, wie er in dieser emotionalen Polemik schreibt. Er reagiert auf eine Aussage seines Branchenkollegen Andrew Ng, gemäß der auch Fußgänger in der Pflicht seien, ihren Teil zur Erhöhung der Sicherheit von autonomen Fahrzeugen im Straßenverkehr zu leisten. Brooks sieht ein grundsätzliches Problem darin, wenn die Tech-Branche auf Gesetze und Verhaltensänderungen beim Menschen angewiesen ist, um ihre Technologie marktfähig zu machen. Allerdings ist ein Hauptziel autonomer Fahrzeuge nunmal die deutliche Reduktion der Todesopfer von Verkehrsunfällen. Damit dies erreicht werden kann, müssen wohl alle Beteiligten an einem Strang ziehen.

 


Der Mann hinter der umstrittenen KI, die sexuelle Neigungen erkennen soll

(‚I was shocked it was so easy‘: meet the professor who says facial recognition can tell if you’re gay), 7. Juli 2018, The Guardian

Mit einem Algorithmus, der angeblich anhand von Gesichtsmerkmalen die sexuelle Neigung einer Person bestimmen kann, sorgte der Psychologe und Wissenschaftler Michal Kosinski im Herbst für eine Kontroverse. Später stellte sich heraus, dass die Software nicht wie suggeriert physiognomische Muster erkennt, sondern kulturell bedingte wie Makeupwahl, Kopfbedeckung oder Gesichtsbehaarung (siehe Erlesenes #8). Kosinski machte sich mit der Veröffentlichung seiner Forschung viele Feinde – doch er hält den Schritt auch heute trotz der irreführenden Darstellung der Resultate noch für richtig, wie er in diesem vom „The Guardian“-Journalisten Paul Lewis verfassten Porträt zu verstehen gibt. Kosinski sei durch Zufall auf die Ergebnisse des Algorithmus gestoßen und habe es nicht vertreten können, sie zu ignorieren, um dann eines Tages vielleicht mit ansehen zu müssen, dass eine Regierung oder ein Konzern eine solche Technologie einsetzt, um Menschen Schaden zuzufügen. Die Debatte über die Ethik von KI-Forschung, die durch die Veröffentlichung angestoßen wurde, ist zweifelsfrei dringend notwendig.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren