Algorithmen-TÜV, Enquete-Kommission, öffentlich-rechtliche Plattformen: Was zu maschinellen Entscheidungen in den Wahlprogramme steht, zeigt dieser große Vergleich.

Darum geht’s: Maschinelle Entscheidungen

Welches Gewaltrisiko geht von einem Angeklagten aus? Welche Verdächtigen sollte die Polizei besonders im Auge behalten? Von wem fordert der Staat Sozialleistungen zurück? Bei solchen Fragen unterstützen heute weltweit algorithmische Systeme menschliche Entscheidungen – in Polen, in Australien, in den USA. In diesen Staaten sehen wir negative Folgen, wenn Technik ohne gesellschaftliche Debatte, Folgenabschätzung und sorgfältige Prüfung eingesetzt wird. Dann diskriminieren maschinelle Entscheidungssysteme systematisch oder kommen in Einzelfällen zu absurden, für die Betroffenen existenzbedrohenden Schlussfolgerungen. Von diesen internationalen Erfahrungen können wir in Deutschland lernen und algorithmische Entscheidungsfindung zum Wohl der gesamten Gesellschaft gestalten.

Denn noch sind algorithmische Systeme in Deutschland nicht so präsent. Gerichte nutzen hierzulande keine maschinellen Risikoprognosen, die Polizei in einigen Bundesländern verwendet Software als Unterstützung auf der Suche nach ortsbezogenen Mustern bei Wohnungseinbrüchen. Erst 60 der 1.000 größten Unternehmen hierzulande hatten 2016 computergesteuerte Verfahren zur Bewerberauswahl im Einsatz. Und automatisierte Gesichtserkennung ist in Deutschland nur an sieben Flughäfen in das Grenzkontrollsystem EasyPASS eingebunden. Doch der Einsatz urteilender Maschinen nimmt auch in Deutschland zu: In Pilotprojekten testet die Bundespolizei automatisierte Gesichtserkennung in Berlin, das Bundesamt für Migration und Flüchtlinge will automatisierte Dialekterkennung erproben.

Es ist Zeit für einen Diskurs über die gesellschaftliche Gestaltung maschineller Entscheidungen in Deutschland. Andere Staaten sind da schon deutlich weiter: Das Weiße Haus hatte noch unter Präsident Barack Obama mehrere Berichte zu den Herausforderungen durch maschinelle Entscheidungen vorgelegt, basierend auf einem Diskurs mit Zivilgesellschaft und Wissenschaft. Im britischen Oberhaus untersucht ein Ausschuss die ethischen, sozialen und wirtschaftlichen Auswirkungen maschineller Entscheidungen – auch hier mit Zivilgesellschaft und Wissenschaft.

Wie sollen wir in Deutschland diese Entwicklung gestalten? Die Antworten der Parteien darauf haben wir in den Programmen zur Bundestagswahl gesucht. Basis sind die im Wahlkompass Digitales verschlagworteten Parteiprogramme sowie die Antworten der Parteien auf einige Wahlprüfsteine des Vereins D64 (weitere Details zu unserer Methodik).

Wir gliedern die Aussagen in drei Themenblöcke:

  1. Einsatz und Entwicklung: Welche – insbesondere staatliche Nutzung – maschineller Entscheidungen wollen die Parteien?
  2. Prüfung, Klärung und Falsifizierung maschineller Entscheidungen: Wie soll gesichert werden, dass die Systeme das tun, wofür sie gestalten wurden?
  3. Sicherung gesellschaftlicher Angemessenheit: Wie soll ein breiter gesellschaftlicher Diskurs darüber entstehen, ob und wann der Einsatz maschineller Entscheidungen gesellschaftlich wünschenswert ist?

Hier die Ergebnisse: CDU/CSU | SPD | Die Grünen | Die Linke | FDP | AfD | Fazit

CDU/CSU: Autos und Überwachung

Das Thema ist wichtig! Das steht im Unionsprogramm, wenn auch im Themenblock zur Forschungspolitik („Forschung und neue Technologien fördern“). Wörtlich: „Das Forschungs- und Anwendungsgebiet der Künstlichen Intelligenz wird immens an Bedeutung gewinnen.“ Deshalb soll das Thema auch einer der „wichtigen Schwerpunkte“ der „künftigen Regierungsarbeit“ werden (Seite 22). Angesichts dieses Anspruchs überrascht es, wie wenig im Rest des Programms zu „künstlicher Intelligenz“ steht.

Einsatz und Entwicklung

Autos und Überwachung– das sind die einzigen Politikfelder, bei denen die Nutzung maschineller Entscheidungen im Programm thematisiert wird. Falls wir etwas übersehen haben sollten, freuen wir uns über Anmerkungen in den Kommentaren. Konkret:

Autos:

„Wir wollen Autoland Nr. 1 bleiben und die Innovationsführerschaft für autonomes Fahren und die Vernetzung des Verkehrs erlangen. Denn künftig werden die meisten PKW und LKW autonom fahren und damit die Mobilität neu erfinden. Menschen werden weniger im Stau stehen, es wird weniger schwere Unfälle geben, Mobilität wird für alle möglich und erschwinglich. Wir haben bereits jetzt die gesetzlichen Voraussetzungen für autonomes Fahren in Deutschland geschaffen. Wir wollen die Besten sein beim Bau intelligenter Autos und intelligenter Straßen“ (Seite 51).

Eigentlich wollte ich diesen Punkt „Mobilität“ nennen, aber es geht tatsächlich nur um Autos nach herkömmlichen Verständnis. Welchen Zielen soll Technik dienen? Wie soll der Staat die technische Entwicklung bei Aufgaben der Daseinsvorsorge (dem Nah- und Fernverkehr zum Beispiel) nutzen und vorantreiben?

Überwachung:

„An öffentlichen Gefahrenorten wie etwa in Einkaufszentren, vor Fußballstadien und an Verkehrsknotenpunkten werden wir den Einsatz intelligenter Videotechnik auch zu Fahndungszwecken verstärken und eine Mindestspeicherfrist für die Daten einführen“ (Seite 61).

Die grundsätzlichen Fragen nach dem Sinn solcher Systeme und der Achtung der Grundrechte lasse ich außen vor. Darüber kann und muss man streiten, aber das ist eine größere Frage. Mit Blick auf den Einsatz maschineller Entscheidungen fehlt mir ein Punkt: Wenn man automatisierte Überwachungssysteme fordert, muss man Evaluation, Zulassung, Falsifizierbarkeit und gesellschaftliche Angemessenheit zumindest als Ziele benennen und bestenfalls Ideen zur Umsetzung vorschlagen. Wenn der Staat überhaupt maschinelle Entscheidungen einsetzt, muss das vorbildlich geschehen. Der Einsatz automatisierter Überwachungssysteme in den USA zeigt, was sonst passiert: Unzuverlässige, nie unabhängig getestete Systeme liefern fehlerhafte und zum Teil auch systematisch verzerrte und diskriminierende Ergebnisse. Das hat der US-Rechnungshof an einem FBI-System kritisiert (Seite 18).

Das US-Beispiel zeigt, dass die Skalierbarkeit maschineller Entscheidungen schnell zu Einsatzszenarien führen kann, deren gesellschaftliche Angemessenheit und Folgen nicht debattiert worden sind. Maschinelle Gesichtserkennung mit einer zentralisierten Datenbank ermöglicht Abfragen in einer Breite und Häufigkeit, die mit analogen Mitteln nicht möglich war. Bekannte Folgen aus den USA: Einsatz bei Bagatelldelikten, mehr Anfragen führen zu absolut mehr Fehlern, für einige Menschen steigt das Risiko von Fehlidentifikationen, weil ihre Porträts wegen systematischer Verzerrungen in der Datenbasis enthalten sind.

Prüfung, Erklärung und Falsifizierung maschineller Entscheidungen

Im Programm haben wir nichts dazu gefunden. Die Reaktion auf den entsprechenden Wahlprüfstein des Vereins D64 („Die Transparenz über den Einsatz von Algorithmen sowie deren wesentliche Kriterien soll gesetzlich vorgeschrieben sein.“) ist ein unklares Einerseits-anderseits:

„Transparenz über den Einsatz der Algorithmen ist wichtig, auch die Kenntnis über wesentliche Kriterien. Eine Regulierung des Suchalgorithmus zur Sicherstellung von Suchneutralität halten wir zumindest derzeit für keinen praktikablen und erforderlichen Regulierungsansatz. Jedoch ist den Betreibern zu untersagen, den Suchalgorithmus so zu gestalten, dass eigene Angebote bevorzugt angezeigt werden. Meinungen dürfen nicht gewichtet werden.“ (Antwort zu Wahlprüfstein 11 des Vereins D64)

Dass Transparenz über den Einsatz „wichtig“ ist, sagt nichts darüber aus, welche Maßnahmen eine Regierung anstreben kann und will, um diese Transparenz zu sichern.

Dass Betreiber sozialer Netzwerke dafür sorgen sollen, dass Bots als solche zu erkennen sind, bejaht die Union bei der Antwort zu Wahlprüfsteinen des Vereins D64, schränkt aber ein: „Wobei es vor allem um eine Kennzeichnung von Social Bots für die politische Kommunikation geht.“

Sicherung gesellschaftlicher Angemessenheit

Auch hier ist die Antwort auf den entsprechenden Wahlprüfstein des Vereins D64 („Der Gesetzgeber soll für die Verwendung von künstlicher Intelligenz in IT-Anwendungen verbindliche ethische Standards erarbeiten.“) wenig erhellend und ambitioniert:

„Hier ist nicht nur der Gesetzgeber gefragt. Standards müssen gemeinsam mit der Wirtschaft und auch der Gesellschaft insgesamt erarbeitet werden. So hat etwa eine Ethikkommission unter Vorsitz des Verfassungsrechtlers Prof. Dr. Dr. Udo Di Fabio erste Leitlinien für automatisierte Fahrsysteme erarbeitet.“ (Antwort zu Wahlprüfstein 12 des Vereins D64)

Wenn der Gesetzgeber selbst als Akteur maschinelle Entscheidungssysteme einsetzt, ist er in erster Linie bei diesem Punkt gefragt. Und zumindest bei sogenannter „intelligenter Videoüberwachung“ plant die Union den staatlichen Einsatz. Abgesehen davon gestaltet der Staat in anderen Bereichen durchaus ethische Diskurse mit und institutionalisiert die auch, etwa in der Medizin mit zum Teil gesetzlich verankerten Ethikkommissionen.


SPD: Algorithmen-TÜV und Daten-Ethikkommission

Einsatz und Entwicklung

Die SPD adressiert in ihrem Wahlprogramm sowohl Chancen als auch Risiken der neuen Verfahren und stellt sie unter einen eindeutigen normativen Imperativ (Sicherheit!), den sie selbst erst drei Sätze später um eine Fairnessanforderung erweitert:

„Bürgerinnen und Bürger müssen Produkte und Dienstleistungen aus dem Internet sicher nutzen können. Das persönliche Profil aus Daten ermöglicht es im Internethandel, Waren und Dienstleistungen an die Wünsche und Bedürfnisse einzelner Verbraucherinnen und Verbraucher anzupassen. Es lässt aber auch zu, dass sich etwa die Höhe der aufgerufenen Preise an Zahlungsfähigkeit, Alter, Wohnort oder anderen Faktoren ausrichtet. Unfaire individuelle Preisbildung als Folge der Profilbildung aus Nutzerdaten lehnen wir ab. Gegen einen solchen Missbrauch werden wir wirksame Regelungen treffen“ (Seite 36).

An dieser Formulierung lassen sich bereits drei Grundprinzipien der SPD-Position ablesen:

Erstens der Fokus auf das Ergebnis, nicht auf das Verfahren. Wirksame Regeln sollen den Missbrauch verhindern, die Profilbildung an sich ist aber grundsätzlich akzeptabel. Hier zeigen u. a. die Beispiele aus Frankreich, dass diese Trennung in der Praxis nicht funktioniert: Ob ein Algorithmus Abiturienten nach Wohnortnähe oder nach Notendurchschnitt an Universitäten verteilt, ist keine Frage von „Missbrauch“, sondern eine politische Entscheidung, die gesellschaftlich diskutiert werden muss. Um das tun zu können, reicht aber die bloße Regelung des Ergebnisses nicht aus.

Zweitens konzentriert sich die SPD insgesamt stark auf die Frage nach adäquater Datennutzung, nimmt also eine inputorientierte Perspektive ein. Beide Standpunkte entsprechen den derzeit geführten gesellschaftlichen Diskussionen, die ebenfalls noch stark im Datenschutz verankert sind und die eher prozessorientierte Frage der maschinellen Verarbeitung dieser Daten ausklammern. Spannend übrigens: „Unfaire individuelle Preisbildung“ suggeriert, dass es auch eine faire individuelle Preisbildung gibt.

Drittens beschäftigt sich die SPD – auch hier konform zur gesamtgesellschaftlichen Debatte – vor allem mit der Sicherheit digitaler Verfahren, nicht mit deren Fairness oder Ausgewogenheit. Das ist nicht falsch, nur erstaunlich angesichts einer Partei, die sich die Forderung nach „mehr Gerechtigkeit“ sogar aufs Deckblatt schreibt.

Prüfung, Erklärung und Falsifizierung maschineller Entscheidungen

Grundsätzlich spricht die SPD sich für eine stärkere Regulierung digitaler Infrastrukturen aus:

„Wir wollen durch Zertifizierung, Zulassungsregeln, Meldepflichten und bessere Produkthaftung eine sichere IT-Infrastruktur erreichen“ (Seite 73).

Auch wenn es um die Transparenz von und den Umgang mit maschinellen Bewertungsverfahren geht, äußert sich die SPD bemerkenswert deutlich:

„Beim ‚Scoring‘, also der individuellen Risikovorhersage für einzelne Verbraucherinnen und Verbraucher, müssen die herangezogenen Daten und ihre Gewichtung der Aufsicht offengelegt werden. Es soll klare Regeln für Löschfristen und Löschpflichten für negative, falsche und veraltete Einträge geben“ (Seite 36).

Dabei gehen ihre Forderungen über die Transparenz einzelner Prozesse hinaus und widmen sich vielmehr der Frage, wie die Vielfalt algorithmischer Verfahren gesichert werden kann. Wege dazu sieht die SPD insbesondere in einer Erweiterung des Kartellrechts, der Verbraucherrechte sowie Haftungspflichten auf digitale Unternehmen und Produkte:

„Auch gegenüber Vermittlungsplattformen (Sharing Economy) werden wir Verbraucherrechte stärken: mehr Informationen für Nutzerinnen und Nutzer und bessere Absicherung gegen gravierende Risiken. Bei der kartellrechtlichen Bewertung der Plattformen sollen neben dem reinen Umsatz auch der Wert von Nutzerzahlen und personenbezogene Daten eine Rolle spielen, um Monopole zu verhindern und Pluralität der Anbieter sicherzustellen. Die Produkt- und Herstellerhaftung werden wir so anpassen, dass auch Schäden aufgrund von Programmierfehlern oder unzureichenden Verschlüsselungen oder mangelnder IT-Sicherheit so geregelt sind, wie Schäden aufgrund von Produktionsfehlern“ (Seite 37).

Sicherung gesellschaftlicher Angemessenheit

Das Programm stellt den Anspruch, neue Technik nicht nur nach dem Möglichen, sondern vor allem auch dem gesellschaftlich Sinnvollen zu bewerten. Dazu fordert die SPD eine „Daten-Ethikkommission“. Diese soll sich allerdings eher auf den Dateninput als auf die algorithmischen Prozesse der Verarbeitung konzentrieren:

„Die Aufgabe von Datenpolitik ist auch, Antworten auf zukünftige Entwicklungen zu liefern und den rechtlichen Rahmen vorzugeben. Aus der Verknüpfung von Daten, dem zunehmenden Umgang mit neuen Technologien – wie autonomem Fahren und dem Einsatz von künstlicher Intelligenz – ergeben sich viele neuartige rechtliche und ethische Fragen. Diese wollen wir in einem umfassenden Dialog mit der Zivilgesellschaft, der Wissenschaft und der Wirtschaft im Rahmen einer Daten-Ethikkommission klären“ (Seite 38).

Und auch das Gerechtigkeitselement zieht doch noch ein, wenn es um den konkreten Umgang mit Algorithmen geht:

„Ein sogenannter Algorithmen-TÜV soll dafür sorgen, dass niemand durch softwaregestützte Entscheidungen diskriminiert wird oder zu Schaden kommt“ (Seite 73).

Insgesamt gehört die SPD somit zu den Parteien mit den konkretesten Vorschlägen, wie eine Algorithmenpolitik aussehen könnte.


Die Grünen: Enquete-Kommission und nachhaltige IT-Beschaffung

Einsatz und Entwicklung

Das Wahlprogramm der Grünen beschreibt an mehreren Stellen recht konkret, welchen gesellschaftlichen Zielen maschinelle Entscheidungen dienen sollen. Einmal klingt eine gestaltende Rolle des Staats an, unter der Überschrift „Ökologische Chancen der Digitalisierung nutzen“:

„Wir können Verkehrsträger digital miteinander vernetzen und Verkehrsströme so intelligenter steuern. Bits und Bytes können Energie und Material nicht nur reduzieren, sondern teilweise auch ganz ersetzen“ (Seite 45).

Hier ist mit Mobilität ein Bereich der Daseinsvorsorge angesprochen, den der Staat als Akteur gestaltet. Wie eine intelligente Steuerung und Vernetzung aller Verkehrsträger allerdings aussehen soll oder wie der Weg dahin beginnt, wird da nicht ausgeführt.

An anderer Stelle geht es um den Gesetzgeber in einer schützenden Rolle. Bestimmte Eingriffe durch maschinelle Entscheidungen in das Leben aller sind abzuwehren – sei es von Unternehmen oder von staatlichen Stellen:

„Automatisierte Diskriminierung wollen wir unterbinden, sei es beim individuellen Preis-Profiling, beim Kredit-Scoring oder auch bei der inneren Sicherheit. Und wir müssen dafür sorgen, dass sich alle Unternehmen an die rechtlichen Vorgaben wie das neue EU-Datenschutzrecht halten“ (Seite 169).

Prüfung, Erklärung und Falsifizierung maschineller Entscheidungen

Die Grünen befürworten abgestufte Transparenzanforderungen an maschinelles Entscheiden. Kriterium soll die gesellschaftliche Wirkung sein:

„Automatisierte Entscheidungen mit gesellschaftlichen Implikationen bedürfen einer stärkeren Transparenz und Kontrolle“ (Antwort zu Wahlprüfstein 11 des Vereins D64).

In einem Punkt wird diese Aussage im Wahlprogramm sehr konkret: Sogenannte Social Bots sollen kennzeichnungspflichtig sein:

„Im Netz muss erkennbar sein, ob Mensch oder Maschine kommunizieren. Wir fordern deshalb eine Kennzeichnungspflicht für Computerprogramme (Social Bots), die eine menschliche Identität vortäuschen und zu Zwecken der Manipulation und Desinformation eingesetzt werden können“ (Seite 166).

Neben Transparenz über den Einsatz und nicht näher ausgeführte Kontrollanforderungen schreibt das Wahlprogramm dem Staat als Softwarebeschaffer besondere Verantwortung zu: Bei der Vergabe von Softwareaufträgen sollten auch Kriterien wie Nachhaltigkeit, Transparenz und Vielfaltssicherung zählen:

„Freie, quelloffene Software und freie Formate und Standards sind für uns einer der Eckpfeiler für sichere und zukunftsfähige IT-Systeme. Wir wollen diese deshalb bei öffentlichen IT-Beschaffungen bevorzugen, insbesondere dann, wenn Bürger*innen diese einsetzen sollen. So senken wir die Abhängigkeit von einzelnen Herstellern, erhöhen die Transparenz und sichern die Nachnutzung. Die öffentliche Förderung für die Entwicklung von freier Standardsoftware wollen wir mit Blick auf IT-Sicherheit ausbauen“ (Seite 168).

Sicherung gesellschaftlicher Angemessenheit

Das Wahlprogramm enthält diesen Gestaltungsauftrag:

„Es ist uns wichtig, die Digitalisierung mit klaren Regeln so zu gestalten, dass die Vorteile nicht nur wenigen in unserer Gesellschaft zugutekommen, und Risiken, zum Beispiel beim Datenschutz oder bei der Machtkonzentration einiger weniger Internetkonzerne, begrenzt werden, um einem potenziellen Machtmissbrauch gerade mit Blick auf die Verletzung von Persönlichkeitsrechten entgegenzuwirken“ (Seite 223).

Die Lösungsansätze der Grünen sind Transparenz, Bildung und Verbraucherschutz:

„Algorithmen bestimmen heute, wer wie viel zahlt, welche Werbung angezeigt wird und welche Kreditbedingungen wir bekommen. Je nach Wohnort oder Endgerät sind manche Produkte unterschiedlich teuer. Gegen Ausspähung und Diskriminierungseffekte braucht es klare Regeln – für Transparenz und Verbraucher*innenschutz im Digitalen“ (Seite 160).

Unter anderem zur gesellschaftlichen Gestaltung maschineller Entscheidungen wollen die Grünen eine Enquete-Kommission einsetzen:

„Angesichts der zahlreichen und komplexen ethischen und regulatorischen Fragen, ist zu prüfen, ob der Bundestag in der kommenden Wahlperiode eine Enquete-Kommission zu ‚Ethischen Fragen der digitalen Transformation‘ einsetzt, um Aspekte wie Künstliche Intelligenz, Automatisierung, autonome Systeme und Robotik zu bearbeiten“ (Antwort zu Wahlprüfstein 12 des Vereins D64).


Die Linke: Kein Predictive Policing, kein Scoring

Die Linke befasst sich sehr grundsätzlich und positioniert sich eindeutig, aber wenig spezifisch mit der Frage nach maschinellen Entscheidungen:

„Die automatisierte Auswertung von großen Datenmengen (Big Data) soll dem Gemeinwohl nicht entgegenstehen. Algorithmische Verfahren zur automatisierten Überwachung, Bewertung oder Verhaltensvorhersagen von einzelnen Menschen sehen wir kritisch. Bei der Bewertung und Einordnung von individuellem Verhalten zum Beispiel im Rahmen der Bewertung der Kreditwürdigkeit (Scoring), hinsichtlich der Inanspruchnahme sozialer Sicherungssysteme oder bei Ermittlungstätigkeiten (Predictive Policing) lehnen wir sie ab“ (Seite 124).

Eine etwas differenzierte Haltung nimmt sie ein, wenn es um die Nutzung öffentlich-rechtlicher digitaler Angebote geht:

„Die öffentlich-rechtlichen Internet-Angebote sollen zu einer unabhängigen öffentlich-rechtlichen Plattform ausgebaut werden, die durch Datensicherheit und Datensparsamkeit gekennzeichnet ist, ihre Algorithmen transparent macht und auch von anderen Anbietern genutzt werden kann“ (Seite 122).

Leider finden sich keine weiteren Aussagen dazu, wie eine solche Plattform umgesetzt werden kann und welchen Auflagen private Internetangebote künftig unterliegen sollten. Insgesamt sind die Positionen zwar von einer stark normativen Haltung geprägt, die den gesellschaftlichen Nutzen der neuen Verfahren klar in den Vordergrund stellt, lassen aber über die konkrete Ausgestaltung einer linken Algorithmenpolitik nur Vermutungen zu.

Hintergrund der Zurückhaltung, wenn es um konkrete Vorschläge geht, scheint allerdings ein Bewusstsein um die Komplexität der Fragestellungen zu sein. So antwortet die Linke auf einen Wahlprüfstein zur Frage, ob der Gesetzgeber für die Verwendung von künstlicher Intelligenz in IT-Anwendungen verbindliche ethische Standards erarbeiten soll, wie folgt:

„Die Frage ist angesichts der damit verbundenen Komplexität der Sachverhalte weder mit Ja/Nein noch in drei Sätzen zu beantworten.“ (Antwort zu Wahlprüfstein 12 des Vereins D64)

Während die durch algorithmische Entscheidungsfindung und künstliche Intelligenz aufgeworfenen Fragen also grundsätzlich erkannt zu sein scheinen, scheint die konkrete Ausgestaltung einer möglichen Antwort noch in Arbeit zu sein.


FDP: Medienkompetenz und Daten-Nutzungsrechte für Anwender

Die FDP sieht die Verantwortung vor allem beim Einzelnen, der Staat schafft Rahmenbedingungen. Das Wahlprogramm konzentriert sich entsprechend bei Fragen nach maschinellem Entscheiden auf Medienbildung, in deren Rahmen auch ein Verständnis über die Funktionsweise von künstlicher Intelligenz entstehen soll:

„Menschen müssen lernen, sich daraus eine sachkundige eigene Meinung zu bilden. Das fußt auf der Befähigung, auf der Basis fundierten Fachwissens aus der Informationsflut die Spreu vom Weizen trennen und Quellen kritisch hinterfragen zu können. Dazu gehört von Kindesbeinen an die Vermittlung von Medien- und Methodenkompetenz. Hier hinein gehört auch das Verständnis von der Funktionsweise informationstechnischer Systeme, künstlicher Intelligenz und Computersprache. Lehrerinnen und Lehrer sollen im Bereich Medienkompetenz verpflichtend weitergebildet werden“ (Seite 26).

Einen weiteren Schwerpunkt legt auch die FDP auf Datenschutz:

„Wir Freie Demokraten wollen, dass die Bürgerinnen und Bürger Verfügungsgewalt über auf ihre Person bezogenen Daten haben. Niemand soll sie gegen deren Willen nutzen können („Opt-In“). Dazu braucht es Transparenz: Jeder muss wissen, wer, wann und warum personenbezogene Daten speichert und darauf zugreift. Wer entschieden hat, staatlichen oder privaten Stellen Zugriff auf sie zu geben, muss auch weiterhin die Kontrolle behalten (‚Auskunftsrecht‘)“ (Seite 75).

Ob ein Opt-in als individuelle Angelegenheit lässt Fairness und Solidarität vermissen. Ein hypothetisches Beispiel: Wenn eine Krankenversicherung für einen Tarif ohne umfassenden Datenzugriff einen zweistelligen Risikoaufschlag verlangt, entscheiden sich einige Menschen vielleicht freiwillig für den Daten-gegen-Rabatt-Tarif. Wie frei können aber die anderen wählen? Inwiefern ein solches Szenario aber noch dem Grundgedanken der Wahlfreiheit entspricht, bleibt offen.

Neu am Datenschutzkonzept der FDP ist die Idee von Nutzungsrechten an nicht personenbezogenen Daten für die Anwender:

„Dort, wo nicht-personenbezogene Daten in oder durch Maschinen erfasst und gespeichert werden, sollen nicht nur die Hersteller der Geräte und Dienstleister der Services ein Recht an der Nutzung der Daten haben, sondern auch die Nutzer der Maschinen selbst. Wir wollen ein Nutzungsrecht an diesen Daten schaffen, das alle Akteure in die Lage versetzt, die gewonnenen Daten für sich zu nutzen“ (Seite 76).

Vor diesem Hintergrund könnten zum Beispiel im Rahmen von IoT-Daten (Internet of Things) gesammelte Informationen nicht mehr nur von Herstellern und Dienstleistern, sondern auch von den jeweiligen Besitzern der Endgeräte genutzt werden.

Dieser FDP-Vorschlag für Nutzungsrechte an Daten könnte ein Lösungsansatz für die Vielfaltssicherung sein. Ein hypothetisches Beispiel: Ein Landwirt nutzt Ernte- und Sämaschinen eines Anbieters. Dieses Unternehmen sammelt und analysiert die Daten und errechnet daraus Hinweise für die Bestellung der Böden. Nun kauft der Landwirt Maschinen einer ganz anderen Firma. Hätte er ein Nutzungsrecht an den nicht personenbezogenen Daten, könnte er die bisher von seinen Maschinen gesammelten Informationen auch mit den neuen Geräten und Auswertungsmöglichkeiten nutzen. Das Wissen wäre mit einem Hardwarewechsel nicht verloren. Nutzungsrechte wie hier skizziert könnten die Bündelung von Hard- bzw. Software und maschinellen Entscheidungssystemen aufheben, so die Wechselmöglichkeiten stärken und dadurch vielleicht die Vielfalt der Systeme erhöhen.

Während im Bereich der informationellen Bildung konkrete Vorschläge darüber vorliegen, wie diese erreicht und gefördert werden soll, bleiben die Aussagen zur Erweiterung der Datenrechte vergleichsweise vage.

Als eine der wenigen Parteien lehnt die FDP eine gesetzlich verordnete algorithmische Transparenz ab:

„[…] das Recht, Missbrauch durch Algorithmen zu überprüfen, ergibt sich bereits aus dem Wettbewerbs- und Kartellrecht. Die Transparenz der Algorithmen ist nicht wirkungsvoll. Wir müssen konkrete Diskriminierung und Wettbewerbsbeschränkungen unterbinden. Dafür braucht es keine neuen Behörden, sondern die effektive Durchsetzung der bereits existierenden Gesetze. Lösungen, bei denen Unternehmen externe Prüfungen durch dritte Instanzen vornehmen lassen, sollten bevorzugt werden“ (Antwort zu Wahlprüfstein 11 des Vereins D64).


AfD: Überwachung

Im AFD-Programm finden sich keine Aussagen zu Datenschutzfragen und Verbraucherschutz in der digitalen Sphäre. Entsprechend dürftig fallen die auf maschinelles Entscheiden beziehbaren Programmpunkte aus. Die AFD ist für maschinelle Entscheidungen bei Videoüberwachung:

„Für die Verbesserung der Fahndungsmöglichkeiten sollen die Polizeibehörden an kriminalitätsneuralgischen öffentlichen Plätzen und Gebäuden eine Videoüberwachung mit Gesichtserkennungssoftware einsetzen können“ (Seite 33).

Ein sehr allgemein und vage gehaltener Punkt im Programm lässt sich noch als Absage an frühe Regulierung neuer Technik interpretieren:

„Ein gesellschaftliches Klima für eine offene, unbelastete Diskussion neuer Technologien und Entwicklungen zu fördern. Dabei sind neben der berechtigten Erörterung von Risiken bei neuen Technologien auch die Chancen stärker in den Fokus zu rücken. Das gilt insbesondere beim Erlass von gesetzlichen Regelungen zu Technologien“ (Seite 89).


Fazit

Bis auf die AfD sehen alle Parteien grundsätzlichen Bedarf nach einer politischen Antwort auf maschinelle Entscheidungen. Der Wille zur Gestaltung ist da und wird in Einklang mit der grundsätzlichen Weltanschauung der jeweiligen Parteien formuliert – von Sicherheit über Gerechtigkeit, von Innovation bis hin zu Bürgerrechten ist eine Vielzahl von Gestaltungsprinzipien vertreten. Die gute Nachricht ist also: Es soll sich etwas bewegen. Was genau, da sind die Programme noch sehr vage. Konkrete Punkte:

  • Algorithmen-TÜV (SPD)
  • Daten-Ethikkommission (SPD)
  • Enquete-Kommission (Grüne)
  • Nachhaltigkeit als Kriterium bei der IT-Beschaffung (Grüne)
  • Öffentlich-rechtliche Plattformen mit Algorithmen-Transparenz (Linke)
  • Nutzungsrechte für Anwender bei nicht personenbezogenen Daten (FDP)

Viele Wahlprogramme subsumieren maschinelles Entscheiden noch unter andere, gesellschaftlich bereits diskutierte Themen, wie autonomes Fahren, Datenschutz oder Forschung. Dass sich die Konsequenzen maschinellen Entscheidens aber nicht auf einzelne Bereiche beschränken lassen, zeigen unsere Beispiele aus aller Welt. Entsprechend gilt es auch politisch, den Fokus weg von Stückwerk und Einzelfalllösungen hin zur eigentlichen Frage zu lenken: Wie können wir Algorithmen und künstliche Intelligenz so gestalten, dass wir sie in den Dienst der Gesellschaft stellen?

Wir hoffen, dass die Parteien ihre Antworten darauf vor der Bundestagswahl 2021 konkretisieren, diskutieren und einige umsetzen.


Methodik

Ausgewertet haben wir die im Wahlkompass Digitales mit diesen Stichworten verschlagworteten Passagen der Programme: Autonomes Fahren, Datenschutz, Finanzsicherheit, IT-Sicherheit, Medienkompetenz, Regulierung, Technologie, Verbraucherschutz, Überwachung, Computerkriminalität, Teilhabe. Aus den Wahlprüfsteinen des Vereins D64 haben wir die Antworten der Parteien zu den Thesen 10, 11 und 12 ausgewertet.


Dieser Beitrag Analyse gibt die persönliche Meinung der Autoren wieder und entspricht nicht unbedingt der Haltung der Bertelsmann Stiftung.