Am heutigen Valentinstag gibt es statt Blumen Beiträge zu Algorithmen und ihren gesellschaftlichen Auswirkungen: Wie kann KI beim Sprachenlernen helfen? Können Algorithmen anhand der Stimme erkennen, ob Menschen wütend sind? Und werden Maschinen Humor erlernen?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Der Computer hilft beim Sprachenlernen

2. Februar 2019, NZZ

Wie wäre es, wenn sich mithilfe von Künstlicher Intelligenz (KI) das Risiko des Vergessens von Informationen verringern ließe? Genau dies haben Forscher:innen mithilfe eines Algorithmus zum optimierten Lernen von Fremdsprachen erreicht, wie der freie Journalist Christian Honey in diesem Artikel erörtert. Konkret ging es dem Team um den Wissenschaftler Manuel Gomez-Rodriguez vom Max-Planck-Institut für Software-Systeme darum, mithilfe einer KI die optimale Repetitionsrate beim Erlernen einer Fremdsprache zu errechnen. Der Verlauf von Vergessenskurven hängt dabei stark vom jeweiligen Lerninhalt und der Person ab. Der Algorithmus von Gomez-Rodriguez und seinem Team berücksichtigt dies. Er generiert zunächst ein Modell der Vergessenswahrscheinlichkeit für einen spezifischen Lerninhalt. Anschließend berechnet er eine optimierte Wiederholungsrate. Das Verfahren könne laut Gomez-Rodriguez auch als Werkzeug in der Kognitionsforschung eingesetzt werden. Als Nächstes plant er die Zusammenarbeit mit einer Onlinesprachlernplattform, um die Effektivität der Methode in der Praxis zu testen.


🔖Eine KI, die Wut in der menschlichen Stimme erkennt

(Affectiva’s AI hears your anger in 1.2 seconds), 7. Februar 2019, Venturebeat

Die Künstliche Intelligenz (KI) des Jungunternehmens Affectiva, ein Spin-off des Massachusetts Institute of Technology (MIT), ist laut Aussage seiner Entwickler:innen in der Lage, innerhalb von gut einer Sekunde und damit mit ähnlicher Geschwindigkeit wie ein Mensch, Wut in einer menschlichen Stimme zu identifizieren – unabhängig von der Sprache. Kyle Wiggers, KI-Reporter bei Venturebeat, berichtet über die Methode mit Bezug auf ein wissenschaftliches Papier, in dem die Forscher:innen von Affectiva ihren Ansatz vorstellen. Sie trainierten ihren Algorithmus mit Audiomaterial aus rund zwei Millionen Videos sowie rund zwölf Stunden Toninhalten samt Transkription und kommentierter Emotionsdaten. Anwendbar sei der Algorithmus auch für eine andere Sprache als die, mit der er trainiert wurde. Es gäbe lediglich ein geringes Nachlassen der Genauigkeit.


🔖“YouTubes Algorithmenänderung ist ein historischer Sieg”

9. Februar 2019, Twitter

Dass YouTube Änderungen an seinem Empfehlungsalgorithmus vornehmen will, um die Sichtbarkeit von Verschwörungstheorien und Falschinformationen auf der Plattform zu verringern, sei ein historischer Sieg. So kommentiert der ehemalige Google-Ingenieur, YouTube-Kritiker und KI-Forscher Guillaume Chaslot die kürzlich getroffene Entscheidung des zu Google gehörenden Videoportals. In einer Reihe von meinungsstarken Tweets bewertet Chaslot die bislang geltenden Anreize, nach denen der YouTube-Algorithmus Clips empfiehlt. Das System habe sich an einer kleinen Gruppe von Usern orientiert, um anschließend möglichst viele weitere Anwender in den Sog von Verschwörungstheorien, Fakes und extremistischen Inhalten zu ziehen (siehe auch Erlesenes #11 “Wie der YouTube-Algorithmus die Wahrheit verzerrt”). Nach 13 Jahren sei YouTube nun bereit, die ausschließliche Fokussierung auf “Engagement” anzugehen. Chaslot zeigt sich optimistisch, dass wir am Anfang einer stärker auf den Menschen fokussierten Technologie stehen.


🔖Fake News allein an Sprachmustern erkennen

(Peering under the hood of fake-news detectors), 6. Februar 2019, MIT News

Wenn ein Nachrichtenartikel Begriffe wie “Hillary” oder “Trump” enthält, erhöht sich die Wahrscheinlichkeit aus Sicht herkömmlicher Algorithmen zur Identifizierung von Fake News, dass es sich um eine Falschmeldung handelt – selbst wenn dies nicht zutrifft. Denn derartige Software sei bislang anhand eines spezifischen Themas sowie mit Informationen aus Quellen wie Wikipedia trainiert worden. Eine nun von Wissenschaftler:innen mehrerer US-Universitäten vorgestellte Methode setzt im Gegensatz dazu auf eine Analyse von Textmustern, wie Rob Matheson von MIT News berichtet. Der Vorteil des Ansatzes: Der Algorithmus könne für beliebige Themen eingesetzt werden. Er schaue allein auf linguistische Charakteristika, etwa das Vorkommen von Superlativen. Zudem löse er das Black-Box-Problem bisheriger Methoden, da er auffällige Muster für Nutzer:innen hervorheben kann. Ansätze wie diese könnten in Zukunft großen Techplattformen helfen, effektiver gegen Desinformation und Manipulation vorzugehen. Passend dazu richtet sich die Mozilla Foundation mit einem offenen Brief an Facebook mit der Forderung, im Zuge der Europawahl Nutzer:innen stärker vor systematischer Manipulation zu schützen.


🔖Was braucht es, damit Künstliche Intelligenz (KI) einen Sinn für Humor bekommt?

(Here’s what makes satire so funny, according to science), 1. Februar 2019, ScienceNews

Künstliche Intelligenz (KI) und ein Sinn für Humor schlossen sich bislang aus. Doch die aktuelle Arbeit von Robert West, Forscher an der Eidgenössischen Technischen Hochschule Lausanne (EPFL), und Eric Horvitz, Leiter von Microsoft Research, könnte dies bald ändern: Die zwei Wissenschaftler untersuchten, mit welchen Modifikationen sich humoristische Überschriften der Satire-Website The Onion ernsthafter klingen lassen könnten. Maria Temming, Technologieautorin bei ScienceNews, berichtet über ein Ergebnis der Studie: Viele Satireüberschriften würden auf sogenannte “falsche Analogien” setzen. Damit sei das Potenzial geschaffen, KI Humor verstehen und in der Konsequenz natürlicher mit Menschen interagieren zu lassen. Zu optimistisch sollte man jedoch nicht sein: Temming zitiert den KI-Experten Dan Goldwasser, der glaubt, dass auch diese neuen Fähigkeiten nicht den für menschlichen Humor notwendigen Common Sense vermitteln kann.


🔖In eigener Sache: Was Europa über Algorithmen weiß und denkt

Fast die Hälfte der Europäer:innen weiß nicht, was Algorithmen sind. Dennoch bestimmen sie über die Werbung, die wir sehen, über die Vergabe von Krediten und Studienplätzen oder machen uns auf Datingportalen Vorschläge für passende Partner:innen. Jede:r Einzelne von uns ist Tag für Tag von Entscheidungen betroffen, die Algorithmen für und über uns treffen. Doch was wissen und denken die Menschen in Europa eigentlich genau über Algorithmen? Dieser Frage sind wir in unser jüngsten repräsentativen Bevölkerungsumfrage nachgegangen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren