Wer kennt es nicht: das Gedankenexperiment des Trolley-Problems – besonders beliebt im Kontext des autonomen Fahrens und oft belächelt in der KI-Ethik. Eine Studie der TU Münchens verdeutlicht nun, dass die Prinzipien, die in der Lösung des Dilemmas abgewogen werden müssen, zwar transparenter und anschaulicher gemacht werden können, aber schlussendlich gesellschaftlich verhandelt werden müssen. Des Weiteren gibt es aus den USA eine erste Version eines Standards für die Vertrauenswürdigkeit eines KI-Systems. Das alles und mehr erwartet Sie in dieser Ausgabe von Erlesenes.

Viel Spaß beim Lesen wünschen 
Teresa
 und Michael 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.  


Regulierung

KI-Standardisierung made in the USA

NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence, NIST, 26.01.2023

Während in Europa darüber diskutiert wird, ob Standards die Rechte von Verbraucher:innen hinreichend schützen können, werden in den USA Nägel mit Köpfen gemacht: Das National Institute of Standards and Technology (NIST) hat die erste Version eines Standards für Vertrauenswürdigkeit von KI-Systemen veröffentlicht. Das Artificial Intelligence Risk Management Framework beschreibt vier zentrale Funktionen, die Organisationen auf dem Weg zu vertrauenswürdigen KI-Systemen erfüllen müssen: regeln, abbilden, messen und verwalten (govern, map, measure und manage). Für jede dieser Funktionen werden Unterkategorien beschrieben, die es je nach Anwendungskontext zu erfüllen gilt. Um es für Organisationen einfacher zu machen, die Vorgaben umzusetzen, wurde parallel ein Playbook veröffentlicht, das Hinweise zur Operationalisierung und Hintergrundinformationen bietet. Wer es einmal ausprobieren will: Bis Ende Februar läuft eine offene Konsultationsphase.


Darum handeln Unternehmen verantwortlich

The state of responsible technology, MIT Technology Review, 11.01.2023

Wir stellen uns immer wieder die Frage: Wie überzeugen wir andere davon, Technologie vertrauenswürdig zu entwickeln und einzusetzen? Eine Antwort auf diese Frage kann uns vielleicht eine Umfrage liefern, die MIT Technology Review durchgeführt hat – zumindest teilweise. Gefragt wurden weltweit 550 Personen in Leitungsfunktionen, insbesondere in großen IT-Unternehmen. Die Kernerkenntnis: Verantwortungsvolle Technologieentwicklung ist kein reines Buzzword mehr, sondern wird zunehmend Teil unternehmerischer Praxis. Besonders interessant dabei ist die meistgenannte Hürde auf dem Weg dahin: Mehr als die Hälfte der befragten Unternehmer:innen gibt fehlende Unterstützung durch die Leitung an. Inhaltlich gibt es aber durchaus große Unterschiede, beispielsweise darin, welche konkreten Praktiken mit verantwortungsvoller Technologieentwicklung einhergehen sollten.


Bad Practice

Wenn Algorithmen präziser sind als gedacht

Confidential document reveals key human role in gunshot tech, 20.01.2023

In den USA setzen mehr als 140 Polizeibehörden ShotSpotter ein. Diese Software soll mittels Audiosensoren in Fällen von Gewaltanwendung den Einsatz von Schusswaffen automatisiert erkennen und an die Behörden melden. Die Software ist jedoch fehlerbehaftet: Sie ordnet regelmäßig Feuerwerk als Schusswaffen ein und sorgt so für unnötige Polizeieinsätze. Eine Studie kam deshalb zu dem Schluss, dass der Einsatz der Software keine Auswirkungen auf die Aufklärung von Schusswaffeneinsätzen hatte. Veröffentlichte interne Dokumente belegen, dass Kontrollmaßnahmen ebenfalls nicht wirklich helfen. So setzt Shotspotter auf menschliche Kontrolle, um möglicherweise falsch erkannte Schüsse zu prüfen. Im Fall von Michael Willams hat jedoch der:die Kontrolleur:in einen vom System korrekt als Feuerwerk erkannten Lärm als gefährlich markiert. Die Folge: Michael Williams verbrachte fast ein Jahr in Untersuchungshaft. Der Fall zeigt, dass menschliche Kontrolle wichtig, aber kein Allheilmittel bei der Überprüfung von Gefährdungspotenzialen ist.


Regulierung

Trolley-Problem reloaded

Autonome Autos: Ethischer Algorithmus soll Risiko vor Unfällen abwägen, Heise Online, 02.02.2023

Alle, die sich mit Algorithmenethik beschäftigen, kennen und fürchten es: Das Trolley-Dilemma. Es wird immer reflexhaft herangezogen, sobald Ethik in Zusammenhang mit autonomem Fahren diskutiert wird. Forscher:innen der TU München haben sich nun ausführlich mit 2000 simulierten Fahrunfall-Szenarien beschäftigt und versucht, Lösungen zu entwickeln. Dabei konnten sie grundlegende Prinzipien herausarbeiten, die gegeneinander abgewogen werden müssen: das akzeptable Maximalrisiko eines Manövers, der besondere Schutz der gegebenenfalls am stärksten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmenden. Eine wichtige Erkenntnis dabei ist, dass es keine allgemeingültige Gewichtung dieser Prinzipien gibt, sondern dieses Thema gesellschaftlich verhandelt werden muss. Außerdem zeige sich, dass solche simulierten Fälle extrem unwahrscheinlich sind.


Wenn KI Sprache generiert

Neural prosthesis uses brain activity to decode speech, Medical Xpress, 19.01.2023

Menschen können aufgrund verschiedener Ursachen ihre Fähigkeit zu sprechen verlieren, beispielsweise nach einem Schlaganfall. Russische Forscher:innen haben nun ein KI-System entwickelt, das Sätze, die eine Person zu sagen beabsichtigt, auf Grundlage ihrer Gehirnaktivität erkennt. Dabei wurde bei Patient:innen etwa 70 Prozent Genauigkeit erzielt. Bisher gingen solchen Experimenten sehr invasive Operationen voraus, bei denen Elektroden über einen großen Teil der Gehirnrinde verteilt werden mussten. Das Neue an dem Vorgehen, das die Forscher:innen in ihrer Studie festhalten, ist die Nutzung einer minimalinvasiven Prozedur. Diese könnte es für viele Patient:innen wesentlich attraktiver machen, solche neuralen Prothesen zu verwenden.


Follow-Empfehlung: Vidushi Marda

Vidushi Marda arbeitet als Senior Programme Officer bei der Digitalrechteorganisation Article 19 und twittert beispielsweise über die Gefahren automatisierter Emotionserkennung.


Verlesenes: ChatGPT war gestern – CatGPT ist heute


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.