„Verantwortungsvolle KI – von Prinzipien zur Praxis“ lautet der Titel der ersten DigiLounge, einer neuen digitalen Eventreihe von Microsoft. Ihren Input zur gemeinsamen Diskussion mit Anna Christmann, Obfrau der Enquete-Kommission KI für Bündnis 90/Die Grünen und Thomas Langkabel, National Technology Officer von Microsoft Deutschland, am 13. August 2020 fasst Carla Hustedt in diesem Beitrag zusammen und fordert neue Fokuspunkte in der Debatte um KI-Ethik.
Es ist sehr erfreulich, wie sich die Diskussion um die gesellschaftlichen Auswirkungen von Künstlicher Intelligenz (KI) in den letzten Jahren weiterentwickelt hat. Aus den Fachzirkeln heraus ist das Thema zu einem wichtigen Punkt auf der politischen Agenda geworden. Auf nationaler wie europäischer Ebene wird an Lösungen für die ethische Gestaltung automatisierter Entscheidungsfindungen gearbeitet. Zugleich hat die Diskussion an Tiefe gewonnen, was man auch an der Fragestellung der ersten DigiLounge erkennen konnte. Es ging nicht um die Frage, was „ethische KI“ ausmacht, sondern vor allem darum, wie wir KI-Ethikrichtlinien in die Praxis bringen können.
Zu Beginn des Projekts „Ethik der Algorithmen“ der Bertelsmann Stiftung vor drei Jahren haben wir internationale Fälle analysiert, in denen der Einsatz von KI zu problematischen Ergebnissen geführt hat und uns dabei gefragt, wie es dazu kommen konnte. Dabei mussten wir schnell feststellen: Fehlerquellen sind komplex. Die Probleme können in Daten, Code, Zielvorgaben oder der organisationalen Einbettung liegen.
Zugleich wurde deutlich: Es gibt nicht die eine „ethische KI“. In verschiedenen Anwendungskontexten werden wir vor unterschiedliche ethische Fragen gestellt, Werteabwägungen müssen immer wieder neu getroffen werden. Innerhalb von Gesellschaften und auch zwischen ihnen wird es außerdem immer unterschiedliche Verständnisse davon geben, was richtig und was falsch ist. Was in allen Kontexten auch klar sein muss, ist, dass algorithmische Systeme, genau wie wir Menschen, nie fehlerfrei sein werden.
Unser aller Hauptaufgabe ist es daher sicherzustellen, dass wir Wege finden, gut mit Fehlern umzugehen und zu verhindern, dass Verantwortlichkeiten hinter der Technologie versteckt werden. Aus diesem Grund sind Prinzipien wie Transparenz, menschliche Aufsicht und Anfechtbarkeit von Algorithmen-basierten Entscheidungen auch so wichtig und tauchen nicht nur in unseren Algo.Rules, sondern in fast allen KI-Ethikrichtlinien auf. Damit die Prinzipien in die Praxis übertragen werden können, müssen sie nun eindeutiger definiert, weiter konkretisiert und operationalisierbar gemacht werden.
Fokus nicht auf die Technik, sondern auf die verantwortlichen Akteure!
Damit auf Worte Taten folgen, braucht es außerdem einen neuen Fokus in der Diskussion über KI-Ethik: Wir müssen uns nicht nur fragen, welche Ethikprinzipien umgesetzt werden sollen und wie, sondern vor allem darüber sprechen, welche Personen und Organisationen für die Umsetzung verantwortlich sind und warum sie ihrer Verantwortung bisher nicht gerecht werden. Wir müssen uns mit den Motivationen, Interessen, Kompetenzen und mit der Macht unterschiedlicher Akteure auseinandersetzen. Wer sitzt an den wichtigen Schalthebeln und entscheidet über die Ziele von algorithmischen Entscheidungssystemen? Wer bestimmt den Diskurs zum Technologieeinsatz? Wissen die relevanten Akteure um die Bedeutung ethischer Fragen und haben sie die notwendigen Instrumente, um algorithmische Systeme ethisch zu gestalten? Gibt es Akteure, die ihre Verantwortung bewusst ignorieren? Und wie steht es um Organisationen, die Schutz und Kontrollfunktionen einnehmen?
Die Auseinandersetzung mit diesen Fragen führt uns deutlich vor Augen, dass es nicht die eine einfache Lösung gibt, um KI ethisch zu gestalten. Die Vorstellung eines magischen KI-Gesetzes, des KI-TÜVs als eierlegende Wollmilchsau mag verführerisch sein, doch sie greifen zu kurz. Um der Komplexität der ethischen Fragen, der Vielfalt und Unterschiedlichkeit der relevanten Akteure und der Dynamik der Technikentwicklung gerecht zu werden, braucht es vielmehr ein Ökosystem der KI-Ethik!
In biologischen Ökosystemen nehmen unterschiedliche Organismen verschiedene Funktionen ein. Nur durch ihre Unterschiedlichkeit und ihr Zusammenwirken entsteht ein ökologisches Gleichgewicht, welches sich dynamisch an Veränderungen anpassen kann. Um ein Ökosystem der KI-Ethik zu bauen, braucht es eine große Vielfalt an Maßnahmen, die für sich genommen nur begrenzte Wirkung entfalten könnten, zusammengenommen aber die Grundlage für Technikgestaltung im Sinne des Gemeinwohls schaffen.
Es braucht eine große Vielfalt an Maßnahmen, die zusammen Wirkung und Stabilität versprechen
So sind unternehmerische Selbstverpflichtungen der Tech-Konzerne zum ethischen Einsatz von KI wichtig, weil sie auf die Relevanz des Themas aufmerksam machen und Mitarbeiter:innen sensibilisieren können. Zugleich braucht es einen Kompetenzaufbau unter Anwender:innen (Sachbearbeiter:innen, Ärzt:innen, Lehrer:innen, Polizist:innen,…), da sie eine große Mitverantwortung tragen, häufig aber nicht das nötige technische Verständnis haben, um Technologien angemessen in ihre Arbeit einzubetten.
Theoretische Konzepte zu Themen wie KI-Zertifizierung, Transparenz von komplexen lernenden Systemen, Auditing-Verfahren für Black-Box Systeme, die in der Wissenschaft erarbeitet werden, müssen aus wissenschaftlichen Kreisen heraus getragen und im engen Austausch mit Akteuren aus der Praxis erprobt werden.
Eine starke Zivilgesellschaft und externe Kontrollen sind entscheidend, weil es immer wieder Fälle geben wird, in denen berechtigte wirtschaftliche Interessen im Konflikt mit individuellen oder gesellschaftlichen Interessen stehen. Ebenso wird die Zivilgesellschaft dafür gebraucht, auf Rechtsverstöße aufmerksam zu machen, Diskussionen zu ethischen Fragen anzustoßen und Akteure aufzudecken, die ihre Verantwortung bewusst verschleiern.
Damit die Interessen, Sichtweisen und Bedürfnisse der gesamten Gesellschaft mitgedacht werden, brauchen wir außerdem eine größere Vielfalt an Akteuren, die digitale Technologien entwickeln und über ihren Einsatz entscheiden. Ausbildungen in den Bereichen Informatik, Statistik und Data Science müssen für Frauen und bisher unterrepräsentierte Gruppen attraktiver gestaltet und vermarktet werden. Digitale Unternehmen müssen ihre Recruiting-Praktiken mit Blick auf Diversität anpassen, diskriminierende Strukturen und Organisationskulturen aufbrechen. Geschlechter-Stereotype müssen abgebaut und diverse Vorbilder in der Digitalisierungsbranche sichtbar gemacht werden.
Wenn wir aufhören, Ausschau nach der eierlegenden Wollmichsau zu halten und stattdessen die Vielfalt an guten Ideen und Lösungsansätzen in einem Ökosystem zusammenzubinden, kann digitale Technologie uns zu einer besseren Gesellschaft verhelfen!
Das Video der DigiLounge Diskussion finden Sie hier.
Kommentar schreiben