Katharina Zweig, Professorin für Graphentheorie und Analyse komplexer Netzwerke an der TU Kaiserslautern, sprach mit Henrik Brinkmann und Benjamin Dierks über Demokratiefragen im Zeitalter der Digitalisierung, das Transparenz-Problem der Algorithmen sowie die Notwendigkeit staatlicher Regulierung. Dies ist ein Ausschnitt aus einem Interview, welches als Teil des Buches “Wachstum im Wandel. Chancen und Risiken für die Zukunft der Sozialen Marktwirtschaft” der Bertelsmann Stiftung 2016 erschienen ist. 

Frau Zweig, Sie forschen an der SchnittstelleAPI (Application Programming Interface) Eine Schnittstelle, die es verschiedenen Softwareanwendungen ermöglicht, miteinander zu kommunizieren und Daten auszutauschen. APIs definieren, wie Anfragen und Antworten zwischen Programmen strukturiert sein sollten. von Informatik und Gesellschaft. Kann Informatik soziales Verhalten erklären?

Katharina Zweig: Ich suche nach Mustern in komplexen Daten, unabhängig davon, ob es da um die Struktur sozialer Netzwerke, die Verknüpfung von Informationen oder interagierende, biologische Moleküle geht. Die Informatik stellt im Bereich Big Data Methoden bereit, mit denen man verschiedenste Arten von Daten untersuchen kann. Es geht darum, wer mit wem auf eine bestimmte Weise verbunden ist, wer interagiert mit jemandem? Diese Information stelle ich als Netzwerk dar, mathematisch gesehen als einen Graphen. An dieser Stelle ist die Darstellung der Daten so abstrakt, dass sich die Methode um die Semantik dahinter gar nicht mehr kümmern muss. Das hat gute und schlechte Auswirkungen auf die Resultate.

 

Wer hat Macht in Zeiten des Internets?

Die Geschichten, die wir alle hören wollen, sind natürlich die, wo ein Einzelner etwas losgetreten und verändert hat. Die Narrative sind, dass das Internet den Arabischen Frühling ermöglicht hat. Das ist Macht. Heißt es, dass jeder von uns das kann? Das funktioniert manchmal und dann ist man überrascht; und manchmal funktioniert es überhaupt nicht bei Themen, die sehr wichtig wären. Macht hat in Zeiten des Internets, wer Daten hat. Man kann sich gar nicht vorstellen, was man aus sehr kleinen Vorgängen für Informationen ziehen kann. Diese Vorstellung ist vor allen Dingen deswegen schwierig, weil wir Menschen und keine Computer sind. Wir können nicht sehr gut statistisch denken, Informationen über lange Zeiträume hinweg korrekt bewerten und zudem beeinflussen unsere Emotionen unsere Erinnerung. Das alles macht es für uns sehr schwer zu beurteilen, was aus einem ganz kleinen Prozess wie dem Anklicken von Webseiten an Informationen gewonnen werden kann. Wenn Sie eine Suchanfrage stellen und dabei immer wieder denselben Anbieter nutzen, hat er extrem viele Informationen über Sie, aber Ihnen wird das nicht bewusst. Erstens hat er die ganze Historie – und wir denken, wie gesagt, nicht in Historien. Wann haben Sie eine Wohnung gesucht, wann nach Dating­Plattformen, wann Hochzeitsringe und wann einen Scheidungsanwalt? Zweitens gibt zum Beispiel der Zeitpunkt Auskunft darüber, wann Sie wach sind, und die Anzahl der Rechtschreibfehler korreliert mit Ihrer Bildung. Damit kann man eingrenzen, was für eine Art von Mensch Sie sind.

 

Wie demokratisch ist die Digitalisierung? Oder wie demokratisierend?

Sie ist vordergründig extrem demokratisch. Jeder von uns hat die Möglichkeit, die Dienste zu nutzen. Nicht demokratisch ist, wenn man nicht versteht, wie man den Computer wirklich nutzen kann. Dann gibt es den Aspekt des Zugangs zu Daten und da ist Digitalisierung höchst undemokratisch. Es gibt Ecken, wo stärker demokratisiert wird. Open Government Data ist da so ein Stichwort, wo der Staat darüber nachdenkt, einige Daten deutlich leichter zur Verfügung zu stellen für Bürger.

 

Digitalisierung bietet viele Einsichten, aber für die meisten bleibt es ziemlich undurchsichtig, wie Informationen verarbeitet werden.

Das Schlimme ist, dass das auch für den Profi undurchsichtig ist. Das liegt daran, dass ein Code, den jemand anders geschrieben hat, sehr schwer zu lesen ist. Ich kann zwar per Hand nachrechnen, was der Computer tun wird bei einer bestimmten Eingabe von Daten. Das heißt aber nicht, dass ich verstanden habe, was der Code inhaltlich für alle möglichen Eingaben tut. Und dann gibt es noch Algorithmen, die ganz prinzipiell nicht wieder in die Semantik der Menschen übersetzen. Vieles von dem, was wir als künstliche Intelligenz bezeichnen, sucht Daten in sehr großen Datenmengen. Dann sagt sie Ihnen, dass etwa Ihre Kreditwürdigkeit sinkt oder steigt mit diesen oder jenen Eigenschaften. Ich kann Ihnen aber nicht erklären, wie es zu dieser Aussage kommt. Man kann dann einfach nur Korrelationen feststellen. Manchmal ist es noch verborgener: Das Gerät spuckt zwar nachher eine Einschätzung aus, ich kann aber nicht mehr fragen, warum es zu der Einschätzung kommt. Es bereitet mir Sorgen, dass wir uns als Gesellschaft durch Algorithmen unterstützen lassen, die wir selber nicht mehr verstehen oder deren Verhalten wir nicht vorhersagen können. Sinnvoll ist, dass Computer Dinge schneller tun und somit mehr in derselben Zeit. Wir haben aber Algorithmen, die irgendein Mensch einmal programmiert hat, mit irgendeinem Menschenbild, das sinnvoll oder auch nicht sinnvoll sein kann. In der Informatikausbildung wird über das Menschenbild nicht viel geredet. Wenn solche Algorithmen dazu benutzt werden, um Menschen zu beurteilen, müssen wir eine Grenze setzen. Vor allem wenn ein Mensch nicht mehr zu denselben Schlüssen kommen könnte wie das Programm. Der Computer muss sich am Menschen messen lassen.

 

Immerhin macht die neue Technik verschiedene Dienstleistungen transparenter, allein durch die Möglichkeit, sie im Internet zu vergleichen. Oder gibt es da auch einen Haken?

Das Internet ermöglicht ein sehr schnelles Matching von Angebot und Nachfrage über zeitliche und geografische Grenzen hinweg. Ein privater Fahrdienst wie Uber bietet hauptsächlich Mitfahrgelegenheiten an; so ein Dienst gibt aber natürlich auch einen Anreiz, Fahrten zu unternehmen, die man sonst nicht unternommen hätte, weil man damit ein Zubrot verdient. Wahrscheinlich lohnt es sich in keinem Land der Erde, mit Uber seinen Vollzeitjob zu ersetzen; dazu sind die Preise nicht hoch genug. Bei näherem Nachdenken über das System habe ich aber eine überraschende mögliche Auswirkung einer solchen App entdeckt: Der Anreiz für diese Privatfahrer ist am höchsten für die lukrativen Flughafen­ und Bahnhofsfahrten. Die übrig bleibenden Fahrten lohnen sich für einen ökonomisch arbeitenden Taxibetrieb unter Umständen dann nicht mehr, denn diese Betriebe sind darauf angewiesen, die Mischung aus kurzen und langen Fahrten zu haben. Hier handelt es sich aber nicht einfach nur um einen Austausch des Anbieters eines Dienstes: Der Gesetzgeber hat dem Taximarkt die Mitnahmepflicht auferlegt. Die hat ein solcher Privater nicht mehr. Wenn wir also davon ausgehen, dass Taxibetriebe verschwinden, werden einige soziale Schichten oder einige Menschen mit Besonderheiten nicht mehr so einfach Mitfahrgelegenheiten finden. Wie zum Beispiel meine 96­jährige Oma mit ihrem Rollator, die nur zwei Häuser weiter zur Pediküre will, genauso wie der Rollstuhlfahrer, der etwas schwieriger mitzunehmen ist oder wo der Kofferraum nicht ausreicht, und der Blinde mit Blindenhund.

 

Wie lässt sich das verhindern?

Da muss entweder der Staat eingreifen und sagen, wir brauchen staatlich subventionierte Taxibetriebe, oder es gibt einen neuen Anreiz, einen besonderen Dienst anzubieten, zum Beispiel Privatfahrer mit größerem Kofferraum. Die werden dann aber für alle Leute, die etwas mitnehmen wollen, mehr Geld verlangen; also müssen Familien mit Kinderwagen und der Rollstuhlfahrer einen höheren Taxipreis bezahlen. Wir kommen zu einer Stratifizierung. So bezeichnet Christoph Kucklick in seinem Buch »Die granulare Gesellschaft« die kleinteilige Kategorisierung von Menschen, die wir vor der Digitalisierung nicht hatten und durch die wir alle individuell behandelt werden können. Klingt erst mal gut, aber durch die meisten Algorithmen werden die privilegiert, die genug Geld haben, hoch gebildet sind und sich fit
halten. Wer nicht dazu zählt, wird auf ganz individuelle Weise nachteilig behandelt, was auch eine Lobbybildung verhindert. Eine andere Gefahr, die manche sehen: Wir können viel fein ­ granularer Angebot und Nachfrage von Diensten matchen. Da gibt es den Begriff der Uberization, dass also Menschen ihre Tageszeit als Ressource über verschiedene Dienste anbieten und dann ein bisschen Taxifahrer sind, ein bisschen Babysitter, ein bisschen alles Mögliche, dadurch natürlich ebenfalls durch keine Lobby vertreten sind oder sehr schwierig rechtlich zu schützen sind. Es ist momentan auch schwierig nachzuverfolgen, wer über die Apps wie viel Geld macht. Das heißt, für den Staat ist es auch nicht ganz einfach, Steuern einzutreiben.

 

Wir hätten also prekär Beschäftigte, die ihre Kunden diskriminieren. Und die Nutznießer  hinterziehen die Steuer. Ein ziemlich düsteres Szenario.

Wenn es denn so kommt. Man kann das aber auch positiv wenden. Eine App wie Uber ist gut für Leute, die aus dem ersten Arbeitsmarkt herausgefallen sind. Man kann einem Arbeitgeber nach drei Jahren beweisen, wie viel man gefahren ist, dass man immer im Dienst war, zuverlässig war, gute Kundenbewertungen bekommen hat. Man wird sein eigener Manager, muss seine eigene Zeitarbeitsfirma sein. Es kann auch eine Möglichkeit sein für Leute, sich zu beweisen, die auf dem ersten Arbeitsmarkt im Moment nicht so attraktiv aussehen. Es gibt sehr viele interessante Auswirkungen auf die Ökonomie, aber die wichtigste Frage ist: Wie wollen wir leben? Muss Arbeiten weiterhin der bestimmende Sinn des Lebens sein oder sind wir vielleicht so reich, dass wir Menschen für Aufgaben bezahlen können, für die sie momentan nicht bezahlt werden? Ich denke, Ehrenamt ist eine große Frage. Auf der einen Seite sinken die Anteile des Ehrenamts, die regelmäßig zum Beispiel in Kirchen oder Vereinen erbracht werden, auf der anderen Seite engagieren sich Leute ehrenamtlich online, arbeiten da aber in viel kleineren Zeiteinheiten und unregelmäßig mit. All dies kann die Wirtschaft verändern.

 

Wenn diese Wirtschaft Wachstum generieren soll – und das so, dass sie Menschen ein- und nicht ausschließt –, wie muss sie dann aussehen?

Ich bin positiv gestimmt, dass das prinzipiell möglich ist, aber weniger optimistisch über den Prozess dahin. Ich kann mir nicht vorstellen, dass wir momentan mit weiten Teilen der Bevölkerung eine Diskussion darüber anfangen können, wie wir unsere Gesellschaft in Zeiten der Digitalisierung haben wollen – es fehlt die dazu notwendige Bildung. Und wenn nur einige wenige überlegen, wie die weiteren Generationen leben sollen, ist das immer gefährlich. Aber was für mich das Internet gezeigt hat, ist, dass Menschen enorm hilfsbereit sind und auch bereit sind, Teile ihres Lebens zu widmen, um unentgeltlich Informationen bereitzustellen. Und das ist doch erst einmal erstaunlich. Man kann Menschen dazu motivieren, kleine Einheiten ihrer Zeit herzugeben, um zusammen an etwas Großem zu bauen. Das könnte man noch ausweiten. Ich kann mir sehr viele Möglichkeiten vorstellen, wie man eine solche Mitarbeit auch für den Staat nutzen kann. Im globalen Finanzcrash mussten Politiker in kurzer Zeit mithilfe von Experten Lösungen finden. Warum simulieren wir nicht Welten und fragen Bürger, ob sie bereit sind, die möglichen Auswirkungen der Gesetzgebung A, B oder C einmal durchzusimulieren? Das würde uns vielleicht eine sehr interessante Perspektive geben, welche Alternative wir wählen sollten. Wir könnten Leute dafür bezahlen, Bürger zu sein und für solche Fragen zur Verfügung zu stehen. Wie würdest du handeln, wenn wir diese Bank crashen lassen? Gehst du dann zur Sparkasse und holst dir da dein Geld ab? Müssen wir einen Bank Run befürchten oder bleibst du ruhig? Ich glaube, wir haben viele Möglichkeiten der Echtzeitabfrage, die auch die Demokratie völlig verändern könnten. Wird es noch Parteien geben in 30 Jahren oder wählen wir dann doch wieder einzelne Menschen?

 

Also könnte das Netzwerk an die Stelle der Repräsentation treten?

Denkbar ist das. Wir könnten jederzeit Umfragen über alles Mögliche machen. Wollen wir das immer? Auch da müssen wir die menschliche Psyche verstehen. Wir wissen, wie die Antwort ausfällt, wenn wir nach der Todesstrafe fragen, nachdem gerade ein Kind getötet wurde. Wer entscheidet dann, wann eine solche Umfrage gemacht wird? Der Zeitpunkt der Umfrage wird ihren Ausgang maßgeblich bestimmen.

 

Die individuellere Teilnahme an Entscheidungen, am Markt, ist das der große Trend für die gesellschaftliche Teilhabe?

Wir werden auf jeden Fall in den nächsten zehn Jahren individueller behandelt werden als jemals zuvor. Das ist aber nur der erste Schritt. Wir werden messbarer, wir werden uns sicherlich auch freiwillig mit allen möglichen Wearables ausstatten, also etwa Google Glasses oder Apple Watches. Für jeden von uns ist die Gefahr groß, dass wir unsere Daten verkaufen, um ziemlich kleine Vergünstigungen zu bekommen. Klar verrate ich der Krankenkasse, dass ich kein Übergewicht mehr habe. Ich kann das auch nachweisen und muss nun fünf Euro weniger im Monat zahlen. Die Leute, die nicht mitmachen, werden genauso bestraft werden wie die, die sich unvernünftig verhalten. Da muss man sich fragen, in was für einer Gesellschaft wir leben wollen, ob wir sozial bleiben wollen. Wie klein sollen die Schichten werden, für die wir einstehen? Sagen wir, ich bin solidarisch mit allen, die Bio essen, kein Übergewicht haben und drei Mal pro Woche joggen gehen, aber für alle, die sich aus meiner Sicht unvernünftig verhalten, will ich nicht zahlen? Möchte ich eine Versicherung haben, die nur meine Gruppe versichert? Es wird rechtliche Gegenreaktionen geben und auch eine Ächtung dieser Modelle. Das Problem ist, dass jeder Einzelne, der sich wohl verhält, erst einmal etwas davon hat, sich einer kleineren Versicherung anzuschließen. Aber man wettet gegen sich selbst, wenn man älter wird. Der größte Konflikt besteht zwischen dem, was wir kurzfristig wollen, und dem, was wir langfristig schaffen sollten.

 

Die Antwort darauf kann uns kein Algorithmus abnehmen.

Zusammenfassend brauchen wir mehr Bildung zu diesen Themen und mehr Forschung. Und interessanterweise müssen wir deutlich mehr über die Psychologie des Menschen verstehen, um die Folgen der Digitalisierung auf alle Lebensbereiche abschätzen zu können. Es könnte also auch das Jahrhundert der Humanwissenschaften werden und nicht nur das Jahrhundert der Digitalisierung.

 

Um einen verantwortungsvollen Umgang mit algorithmischen Systemen zu gewährleisten, bedarf es eines besseren Verständnisses für die Entwicklungsprozesse von Algorithmen. Katharina Zweig hat daher außerdem in unserem Auftrag ein Modell zu Verantwortlichkeiten und Fehlerquellen in Prozessen algorithmischer Entscheidungsfindung entwickelt. Das entsprechende Arbeitspapier erscheint kommende Woche hier im Blog.