Können Algorithmen posttraumatische Belastungsstörungen erkennen? Braucht es ein neues Forschungsfeld zu Künstlicher Intelligenz (KI)? Müssen wir algorithmische Systeme vor Menschen schützen? Diese und andere spannende Fragen gibt es im Erlesenes-Newsletter.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Ein Algorithmus, der posttraumatische Belastungsstörungen an der Sprache erkennt

(The Military Wants Better Tests for PTSD. Speech Analysis Could Be the Answer), 22. April 2019, New York Times

Das Forschungsinstitut SRI International, von dem das heute von Apple verwendete Sprachassistenzsystem Siri entwickelt wurde, sowie ein Team von Wissenschaftler:innen der New York University School of Medicine haben einen Algorithmus geschaffen, der an der Sprache von Patient:innen Anzeichen für eine posttraumatische Belastungsstörung (PTBS) erkennt. New-York-Times-Reporter Dave Philipps berichtet über das vom US-Militär mitfinanzierte Verfahren, das aus über 40.000 Charakteristika menschlicher Sprache 18 identifiziert, die bei gleichzeitigem Auftreten auf PTBS hindeuten. Der Algorithmus erreiche eine Trefferquote von 89 Prozent. Die Methode sei nützlich, da manche PTBS-Patient:innen – gerade im Militär – ihr eigenes Befinden trotz vorliegender Symptome aus Angst vor Stigmatisierung verheimlichen, und andere es als überzeichnet darstellen würden, um möglicherweise mehr Krankengeld zu erhalten. Die Methode könne Psycholog:innen künftig in unklaren Fällen bei der Diagnose assistieren, schreibt Philipps.


?Wissenschaftler:innen fordern neues Forschungsfeld “Machine Behaviour”

(MIT finally gives a name to the sum of all AI fears), 25. April 2019, ZDNet

Die rasante Entwicklung auf dem Feld der Künstlichen Intelligenz (KI) erfordert ein neues, interdisziplinäres akademisches Forschungsfeld, das bestehende Silos aufbricht, konstatieren Forscher:innen des MIT Massachusetts Institute of Technology sowie zahlreicher anderer Institutionen, darunter auch des Berliner Max-Planck-Instituts für Bildungsforschung, in einem aktuellen Papier (Blogbeitrag dazu hier). Der von ihnen vorgeschlagene Begriff: “Machine Behaviour” (frei übersetzt “Maschinenverhalten”). Tiernan Ray, Reporter bei ZDNet, erklärt die Beweggründe der Forscher:innen und das von ihnen vorgeschlagene, aus den vier Elementen “Mechanismus”, “Entwicklung”, “Funktion” und “Evolution” bestehende Rahmenwerk, um das Verhalten von maschinellen Systemen zu studieren. Wie Ray anmerkt, werde aber auch eine Bündelung der Disziplinen die verschiedenen Herausforderungen von KI-Forschung nicht vom Tisch fegen können. Das seien vor allem das Zusammenbringen der unterschiedlichen Perspektiven und die Tatsache, dass Forscher:innen der Zugang zu kommerziellen Algorithmen häufig verwehrt wird.


?Die neue digitale Spaltung: Das Wissen über Algorithmen

(The new digital divide is between people who opt out of algorithms and people who don’t), 17. April 2019, The Conversation

Die digitale Spaltung ist inzwischen mehr als die bloße Zugangsfrage, sondern vollzieht sich verstärkt darüber, wie gut Menschen über den Einfluss von Algorithmen auf ihr Leben informiert sind. Diese These vertritt Anjana Susarla, Professorin im Bereich Informationssysteme an der Michigan State University. Für die Mehrheit der Anwender:innen seien die Algorithmen Black Boxes. Dennoch würden viele Menschen Empfehlungen von Algorithmen ein größeres Vertrauen schenken als menschlichen Urteilen (“Algorithmic Appreciation”). Ohne Grundwissen über die Funktionsweise der Systeme sei es unmöglich, die Konsequenzen des “Always-on”-Lebensstils zu beurteilen und durchdachte Entscheidungen darüber zu treffen, sich von Fall zu Fall einem Algorithmus zu entziehen. Dies, so Susarla, sei ein Luxus, der derzeit und de facto nur wenigen offenstehe.


?Zwei Philosophen diskutieren ethischen Schutz von KI analog zu Tieren

(AIs should have the same ethical protections as animals), 26. April 2019, Aeon Magazine

Künstliche Intelligenz (KI) mit einem Intelligenzgrad, der mindestens dem des Menschen entspricht, ist  – sofern sie überhaupt jemals entwickelt wird – noch pure Science Fiction. KI, die in ihren Kognitionsfähigkeiten und ihrem Wesen Tieren ähnelt, sei allerdings nicht mehr weit entfernt. Deshalb sei es Zeit für eine Diskussion über ethische Regeln im Umgang mit solcher KI, schreiben die Philosophieprofessoren John Basl und Eric Schwitzgebel in diesem Beitrag. Das Duo vertritt den Standpunkt, dass eine mit dem Denken und der Wahrnehmung von Tieren vergleichbare KI auch dem  Tierschutz ähnliche Maßnahmen benötige. Basl und Schwitzgebel schlagen beispielsweise die Bildung interdisziplinärer Komitees vor, die künftige Forschung an KI hinsichtlich ihrer ethischen Implikationen prüft. Damit solle nicht die Erforschung gesellschaftlicher Konsequenzen gemeint sein, sondern vielmehr die Diskussion über mögliche Implikationen für die KI selbst. Die Autoren stellen die Frage, welche negativen Wirkungen der Mensch auf KI-basierte Systeme haben könne, somit in den Mittelpunkt künftiger Überlegungen.


?Ein Algorithmus löscht für tausende Betroffene Vorstrafen

(An algorithm wipes clean the criminal pasts of thousands), 29. April 2019, BBC

Weil Kalifornien im Jahr 2016 den Cannabis-Besitz legalisierte, könnten viele Tausend Bürger:innen rückwirkend ihre Vorstrafen eliminieren lassen – doch der Prozess ist bürokratisch umständlich und wenig bekannt. Ein Algorithmus der Non-Profit-Organisation Code For America löst das Problem nun auf elegante und sehr effiziente Weise, wie Dave Lee, Technologiereporter der BBC, in diesem Artikel berichtet. Das System könne innerhalb weniger Minuten Jahrzehnte von Gerichtsdokumenten durchforsten, relevante Fälle identifizieren und auch gleich noch die nötige Papierarbeit übernehmen, um eine Löschung von nicht mehr illegalen Delikten der Vergangenheit zu beantragen. Code For America wolle den Algorithmus auch in anderen Regionen der USA einsetzen und habe sich zum Ziel gesetzt, dieses Jahr 250.000 Delikte löschen zu lassen. Angesichts der Hindernisse, die den Betroffenen aus Einträgen im Vorstrafenregister entstehen können, seien die Chancen dieser Methode weitreichend.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren