Zeit für Utopien: Wie können wir eine digitale Infrastruktur schaffen, die den öffentlichen Bedürfnissen dient und zugleich unsere Grundrechte schützt? In ihrem Meinungsbeitrag zeichnet Francesca Bria das Bild eines pluralistischen europäischen Gegenmodells, das sich den derzeitigen monopolistischen und überwachungskapitalistischen Geschäftsmodellen von Big Tech entgegenstellt.
Doch während wir von Utopien träumen, scheint die Realität oft dystopischer: Ein weiterer Artikel beleuchtet den Einsatz von KI-gestützter Überwachungssoftware an Schulen – eine Technologie, die besonders benachteiligte und LGBTQ-Jugendliche gefährdet. Ein Praxisbeispiel von KI-Unterstützung in der kenianischen Landwirtschaft und Regulierungsansätze von Deepfakes und Co. machen hingegen Hoffnung, dass es in der Realität bereits sinnvolle Ansätze für den verantwortungsvollen Technologieeinsatz gibt.
Außerdem: Ist „je größer, desto besser“ bei Sprachmodellen wirklich zutreffend?
Viel Spaß beim Lesen wünschen
Elena und Teresa
P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
School Monitoring Software Sacrifices Student Privacy for Unproven Promises of Safety, Electronic Frontier Foundation, 6.9.2024
In einer Zeit, in der wir uns zunehmend Sorgen um die digitale Privatsphäre unserer Kinder machen, beleuchtet dieser Artikel den Einsatz von KI-gestützter Überwachungssoftware an US-Schulen. Der Beitrag beschreibt, wie Millionen von Schüler:innen täglich einer umfassenden Überwachung ihrer Onlineaktivitäten ausgesetzt sind. Anwendungen wie „Gaggle“ und „GoGuardian“ werden auf Geräten in Schulen installiert und sollen angeblich Schüler:innen schützen. Der „Schutz“ oder Nutzen dieser Technologie ist jedoch eher fragwürdig, wie eine Studie gezeigt hat. Besonders besorgniserregend sind die unverhältnismäßigen Auswirkungen auf benachteiligte und LGBTQ-Jugendliche. Sie sind oft besonders im Visier, was die Ursache für weitere Diskriminierung sein kann. Expert:innen wie die Gesundheitsberaterin Isabelle Barbour betonen, dass Schulen oft zu diesen technischen Lösungen greifen, weil ihnen die Ressourcen für wirksamere soziale Maßnahmen fehlen. Sie empfiehlt stattdessen, in ein positives Schulklima zu investieren. Der Artikel endet mit Tipps, wie Schüler:innen ihre Privatsphäre schützen können, und ruft Schulen dazu auf, sich auf die Schaffung einer unterstützenden Umgebung zu konzentrieren, anstatt auf invasive Überwachung zu setzen.
High tech, high yields? The Kenyan farmers deploying AI to increase productivity, The Guardian, 30.9.2024
Stellen Sie sich vor, Sie müssten ständig raten, wie viel Dünger Ihre Pflanzen brauchen. Für viele Landwirt:innen in Kenia ist das Realität. Inzwischen nutzen einige von ihnen KI-Technologien, um ihre Arbeit zu verbessern. Dieser Artikel berichtet von kenianischen Landwirt:innen, die KI-gestützte Apps einsetzen, um ihre Ernteerträge zu steigern. So konnte Sammy Selim, ein Kaffeebauer aus Kericho, seinen Ertrag mithilfe der App „Virtual Agronomist“ (auf Deutsch: virtuelle Agronomin) von 2,3 auf 7,3 Tonnen steigern. Die App analysiert Bodenproben und gibt präzise Düngeempfehlungen – ein Prozess, der früher Monate dauerte. Die Apps füllen eine Lücke: In Kenia kommt auf 1.093 Bauernhöfe nur ein:e Berater:in. Doch die Entwicklung bringt auch Herausforderungen mit sich. So besitzen z. B. nicht alle Landwirt:innen ein Smartphone. Außerdem kann traditionelles Wissen verloren gehen, da lokale Praktiken bei der Programmierung von KI-Anwendungen oft nicht berücksichtigt werden. Trotz dieser Bedenken sehen viele in KI eine Chance für die afrikanische Landwirtschaft. Die Erfahrungen zeigen aber auch, wie wichtig es ist, lokale Gegebenheiten bei der Entwicklung dieser Werkzeuge zu berücksichtigen.
Big Democracy statt Big Tech: Ein Plädoyer für digitale Unabhängigkeit
Europe’s Clash with Big Tech is not about free speech, it’s about upholding democracy and digital independence, Medium, Francesca Bria, 30.9.2024
Der wachsende Einfluss von Big Tech auf unser Leben wirft eine zentrale Frage auf: Wer bestimmt die Regeln in der digitalen Welt? Die Ökonomin Francesca Bria, Expertin für Digitalpolitik, greift diese Frage auf und liefert Denkanstöße für alle, die sich für eine ethische und demokratische Gestaltung unserer digitalen Zukunft einsetzen. Sie argumentiert, dass es bei Europas Konflikt mit Big Tech nicht um Meinungsfreiheit gehe, sondern um den Erhalt von Demokratie und digitaler Unabhängigkeit, und zeigt auf, wie Tech-Giganten wie Elon Musk (CEO von X) oder Pavel Durov (CEO von Telegram) demokratische Gesetze ignorieren. Musk etwa beschimpfte über X Regierungsmitglieder in Australien als „Faschisten“. Grund dafür war ein neues Gesetz, das die Verbreitung vorsätzlicher Falschnachrichten in sozialen Medien verhindern soll. Bria plädiert für ein europäisches Modell der digitalen Verwaltung – eine Art „Big Democracy“. Dabei verweist sie auf öffentliche Institutionen wie die Rundfunkanstalt BBC als Vorbild für eine demokratische und unabhängige digitale Infrastruktur. Sie ruft dazu auf, über die derzeitigen monopolistischen Geschäftsmodelle, die auf Überwachung basieren, hinauszudenken und stattdessen eine digitale Öffentlichkeit zu schaffen, die Werte wie Privatsphäre und Pluralismus fördert.
Zu klug für einfache Fragen: Warum KI an Grundschulmathe scheitert
AIs get worse at answering simple questions as they get bigger, 25.9.2024, New Scientist
Haben Sie sich schon einmal gefragt, warum ChatGPT manchmal die einfachsten Fragen nicht beantworten kann? Es scheint widersprüchlich, aber je besser KI-Modelle werden, desto schlechter schneiden sie bei einfachen Aufgaben ab. Eine neue Studie bringt Licht ins Dunkel. Forscher:innen der Polytechnischen Universität Valencia haben die Leistung verschiedener großer Sprachmodelle (Large Language Models, LLMs) wie GPT, LLaMA und BLOOM unter die Lupe genommen. Sie testeten sie anhand einer Reihe von Aufgaben – von einfachen Rechenaufgaben bis hin zu komplexen Anagrammen. Das überraschende Ergebnis: Je größer und vermeintlich „klüger“ die Modelle wurden, desto besser lösten sie Aufgaben wie das Entschlüsseln des Anagramms „yoiirsrphaepmdhray“ für „Hyperparathyreoidismus“. Bei Grundschulaufgaben wie „24427 plus 7120“ machten sie dagegen häufiger Fehler. Diese Ergebnisse stellen eine weitverbreitete Annahme infrage: Bisher ging man davon aus, dass mehr Daten und Rechenleistung zu besseren Ergebnissen von KI-Modellen führen. Die Studie zeigt jedoch, dass dies nicht immer der Fall ist. Ein weiterer Beleg dafür, wie wichtig es ist, die Entwicklung von KI-Modellen kritisch zu begleiten und immer wieder zu hinterfragen. Wer tiefer in die Materie eintauchen möchte: Dieses Paper beschäftigt sich auch mit dem (vermeintlichen) „Je größer, desto besser“-Paradigma.
Echt jetzt? Chinas Plan gegen KI-Fakes
China’s Plan to Make AI Watermarks Happen, WIRED, 27.9.2024
Täglich scrollen wir durch Bilder, Videos und Texte. Doch wie oft fragen wir uns dabei, ob das, was wir sehen, von Menschen oder von Maschinen erstellt wurde? Die chinesische Regierung arbeitet an einer Antwort auf diese zunehmend relevante Frage und plant neue Vorschriften zur Kennzeichnung von KI-generierten Inhalten. Ziel ist es, Nutzer:innen darüber zu informieren, ob sie echte oder künstlich erzeugte Inhalte vor sich haben. Dies soll helfen, Desinformation durch KI-Technologien einzuschränken. Die Methoden reichen von Wasserzeichen auf Bildern über Hinweise am Anfang von KI-Videos bis hin zu Morsezeichen bei Audioinhalten. Neu ist die geplante Einbindung von Social-Media-Plattformen. Sie sollen künftig aktiv bei der Erkennung und Kennzeichnung von KI-Inhalten mitwirken. Damit geht China einen Schritt weiter als ähnliche Initiativen in der EU und den USA. Expert:innen sehen darin Chinas Versuch, globale Standards in der KI-Regulierung zu setzen. Technische Herausforderungen, mögliche Einschränkungen der Meinungsfreiheit und das Risiko eines Schwarzmarktes für nicht konforme KI-Dienste werfen jedoch Fragen auf. Es bleibt spannend, wie die EU und andere Länder darauf reagieren werden und ob sich daraus ein globaler Standard entwickeln wird.
Follow-Empfehlung: Julia Stamm
Julia Stamm ist Digitalexpertin und berichtet regelmäßig über Frauen*, die sich für verantwortungsvolle und ethische KI-Systeme einsetzen.
Verlesenes: Überspringen Sie niemals die Grundlagen
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben