Künstliche Intelligenz und digitale Demokratie

Die Entwicklungen rund um die Bereiche Künstliche Intelligenz (KI) und Maschinelles Lernen bergen große Gefahren, aber auch viel Potenzial für die demokratische Meinungsbildung im Internet. Da sich die technologischen Möglichkeiten, um KI-Modelle zu trainieren, sehr schnell weiterentwickeln und sich diese Modelle gleichzeitig immer weiter verbreiten, sind auch wir als Verein in einem ständigen Lernprozess. Eine wichtige Voraussetzung ist für uns als Liquid Democracy e.V. bereits klar: Künstliche Intelligenz kann unseren demokratischen Diskurs nur dann sinnvoll unterstützen, wenn sich ihre Entwicklung am Gemeinwohl orientiert und das Training und der Einsatz von KI-Modellen so transparent und nachvollziehbar wie möglich gestaltet werden. Auch gilt es, sich den möglichen Diskriminierungsrisiken von KI-Systemen bewusst zu sein, und diesen aktiv entgegenzuwirken.

In diesem Sinne erforschen und erproben wir seit 2020 kritisch die Chancen, aber auch Risiken rund um KI auf Basis unserer Vision, Mission und Werte. Gestützt auf langjährigen und neuen Partnerschaften mit Universitäten, Forschungseinrichtungen und anderen Organisationen der Zivilgesellschaft testen wir die Integration von KI-Modellen in unsere Beteiligungssoftware Adhocracy. Außerdem erforschen wir in Kooperationen mit Universitäten und anderen Partnerinstitutionen die Auswirkungen von KI-gestützter Moderation auf Diskussionen im Internet und entwickeln Ideen und Konzepte, wie KI sinnvoll für die digitale Demokratie eingesetzt werden kann.

Transparente Glaskugeln die mit dünnen Glasstegen verbunden sind auf hellblauen Hintergrund
Künstliche Intelligenz

Projekte zur Erforschung von Künstlicher Intelligenz

In drei unserer aktuellen Projekte befassen wir uns mit KI-Sprachmodellen sowie der automatischen Erkennung von Falschnachrichten.

KI-MoDi

Ziel des dieses Vorhabens ist die Erstellung eines Konzepts für die Erkennung und die Behebung von Diskriminierung in KI-Sprachmodellen. Zusammen mit dem Beyond AI Collective e.V., der Heinrich-Heine-Universität Düsseldorf und der TU Ilmenau entwickeln wir anhand unseres im Projekt KOSMO entwickelten KI-Sprachmodells Ideen und Prozesse dazu.

Laufzeit: 06/2023 – 12/2023

Mehr Informationen: Projektseite KI-MoDi

KOSMO

Ziel von KOSMO ist es, herauszufinden ob und wie die Moderation von digitalen Diskursen mit KI unterstützt werden kann, so dass die Diskussionsqualität gesteigert wird. Im Projekt haben wir einen Prototypen für einen KI-basierten Moderationsassistenten in unsere digitale Beteiligungsplattform adhocracy.plus integriert. Das Sprachmodell von KOSMO wurde von der Heinrich-Heine-Universität Düsseldorf entwickelt.

Laufzeit: 04/2020–03/2023

Mehr Informationen https://liqd.net/de/projects/kosmo/

DeFaktS

Zu erproben, wie man Desinformationskampagnen in digitalen Online-Diskussionen mit KI begegnen kann, ist das Ziel unseres Vorhabens DeFaktS. Zusammen mit dem Forschungszentrum Informatik und der Philipps-Universität Marburg wird ein KI-Algorithmus zur automatisierten Erkennung von Desinformation in unsere Software adhocracy.plus integriert und getestet, welche Auswirkung dies auf Online-Diskussionen hat.

Laufzeit: 01/2022 – 12/2024

Mehr Informationen: https://liqd.net/de/projects/defakts/

  1. Wie können wir KI nachhaltig und sinnvoll in digitale Beteiligungsplattformen integrieren?
  2. Wie kann KI transparent und sinnvoll genutzt werden, um die Qualität von Online-Diskussionen zu steigern?
  3. Wie kann KI sinnvoll genutzt werden, um die Zugänglichkeit von demokratischen Prozessen zu erhöhen?
  4. Wie kann man Diskriminierungsrisiken von KI-Sprachmodellen (Large Language Models und Foundation Models) erkennen und ihnen entgegenwirken?
  5. Wie kann erklärbare KI (Explainable AI) in der Praxis – besonders im Kontext der digitalen Demokratie – funktionieren?
  6. Was braucht es, um als NGO mit wenig Ressourcen an der Entwicklung von gemeinwohlorientierter KI teilzuhaben und diese voranzubringen?
  7. Wie können wir sicherstellen, dass KI-Modelle unter ökonomisch fairen und ökologisch nachhaltigen Bedingungen entwickelt, trainiert und betrieben werden?
  8. Wie kann sichergestellt werden, dass generative KI nicht zur Beeinflussung von demokratischen Diskursen durch die Generierung und Falschinformationen genutzt wird?
Symbolbild von künstlicher Intelligenz
Künstliche Intelligenz

Unser Lernprozess und Meilensteine

06/2023

Talk bei der re:publica: High Standards and Low Budget – Künstliche Intelligenz für demokratische Öffentlichkeiten (Link)

05/2023

Unsere Idee „KI-MoDi“ wird beim Ideenwettbewerb „Gemeinsam wird es KI“ des Bundesministerium für Arbeit und Soziales (BMAS) prämiert. (Link)

02/2023

Liquid Academy: Wie Künstliche Intelligenz die Bürger:innenbeteiligung revolutionieren kann (Link)

11/2022

Launch des Prototypen von KOSMO (Link)

01/2022

Das Projekt defakts startet in die Umsetzung (Link)

11/ 2020

Liquid Tank #5 mit Michael Puntschuh zu Thema „Sexist AI – Wie Diskriminierung in den Algorithmus kommt“ (Link)

04/2020

Die Projektumsetzung unseres Projekts „KOSMO“ beginnt (Link)


Kontakt

Ihr habt Fragen, Ideen für Kooperationen oder Anregungen zu KI und digitaler Demokratie? Sprecht uns gern an!

Moritz Ritter

Ricardo Lanari