Springe direkt zum: Inhalt

Die Civic Coding-Schlaglicht auf dem transform_D Summit

Auf dem transform_D Summit 2025 kam die organisierte Zivilgesellschaft zusammen – und wir waren dabei. Am 29.03. veranstalteten wir ein Civic Coding-Schlaglicht zum Thema „Vertrauenswürdige KI“. Gemeinsam mit Expert*innen diskutierten wir, wie die Zivilgesellschaft zur Entwicklung eines gemeinwohlorientierten Rahmens für den Einsatz von KI beitragen kann, etwa durch kritische Perspektiven, eigene Leitlinien und aktive Beteiligung an Normierungsprozessen.

Das war unser Civic Coding-Schlaglicht: Wie erkennen wir im Jahr 2025 vertrauenswürdige KI?

Der transform_D Summit ist eine Veranstaltung der Deutschen Stiftung für Engagement und Ehrenamt (DSEE), die vom 28. bis 29. März 2025 im Colosseum Berlin stattfand. Der „Gipfel der Zivilgesellschaft“ brachte Teilnehmende aus Zivilgesellschaft, Wirtschaft, Wissenschaft, Politik und Medien zusammen, um sich über Transformation in den Bereichen Klimaschutz, Digitalisierung und gesellschaftlichem Zusammenhalt auszutauschen.

Wir waren am 29.03. mit unserem Civic Coding-Schlaglicht zum Thema „Vertrauenswürdige KI“ dabei. Gemeinsam mit Expert*innen diskutierten wir, wie die Zivilgesellschaft zur Entwicklung eines gemeinwohlorientierten Rahmens für den Einsatz von KI beitragen kann.

Dr. Julian Stubbe aus der Civic Coding-Geschäftsstelle moderierte den Austausch und führte durch die Veranstaltung. Mit ihm diskutierten:

Die wichtigsten Ergebnisse der Diskussion auf einen Blick

  • Die Zivilgesellschaft nimmt eine aktive Rolle bei der Gestaltung von KI-Leitlinien ein, die über staatliche Vorgaben hinausgehen und Werte wie Transparenz und Gemeinwohl in den Mittelpunkt stellen. Ihre Beteiligung ist entscheidend für eine gemeinwohlorientierte Entwicklung von KI.
  • Vertrauen in KI ist ein vielschichtiges Thema. Es reicht von technologischer Zuverlässigkeit über gesellschaftliche Normen bis hin zum konkreten Anwendungsfall. Eine reine Zertifizierung durch Institutionen wie den TÜV-Verband kann Gemeinwohlorientierung nicht allein sicherstellen.
  • Die rasante Entwicklung von KI überholt häufig ethische Debatten und die Möglichkeiten zivilgesellschaftlicher Teilhabe. Umso wichtiger ist es, dass ihre Perspektiven frühzeitig in Prozesse der Gestaltung, Normierung und Nutzung von KI einfließen.

Zivilgesellschaftliche Verantwortung zwischen Anspruch und Realität

Die Zivilgesellschaft kann auf unterschiedliche Weise zur Entwicklung eines regulatorischen Rahmens für gemeinwohlorientierte KI beitragen. D64 etwa setzt auf einen bottom-up-Ansatz mit dem „Code of Conduct Demokratische KI für die Zivilgesellschaft“. Das Projekt versteht sich als Ergänzung zur EU-KI-Verordnung und entwickelt ethische Leitlinien für den Einsatz von KI, die  mit Akteur*innen aus der Zivilgesellschaft gemeinsam entwickelt werden. Dabei geht es nicht nur um rechtliche Vorgaben, sondern um Werte, Nutzen und gesellschaftliche Auswirkungen.

Anke Obendiek betonte in diesem Zusammenhang, dass der Zugang zu offiziellen Normierungsprozessen für viele Organisationen nach wie vor schwierig ist. Mangelnde Ressourcen und „unfreundliche“ Rahmenbedingungen führen dazu, dass zivilgesellschaftliche Stimmen oft unterrepräsentiert bleiben. Gremiensitzungen finden beispielsweise meist unter der Woche statt, sind zeitintensiv und setzen spezialisiertes Fachwissen voraus. Gleichzeitig fehlt es an transparenten Informationen über Beteiligungsmöglichkeiten.

Leo Preu von CorrelAid schilderte aus anwendungsorientierter Perspektive, wie datengetriebene Projekte in der Zivilgesellschaft konkret unterstützt werden können – etwa durch die Einschätzung des tatsächlichen Nutzens und möglicher Risiken von KI-Anwendungen. Die Rolle der Zivilgesellschaft sieht er auch darin, kritisch zu hinterfragen, ob und wie KI-Technologien  sinnvoll eingesetzt werden können. Die begrenzten Ressourcen vieler Initiativen fördern hier eine Form der Fokussierung auf das Wesentliche – eine Art „Bullshit-Detektor“.

Auch Dr. Patrick Gilroy vom TÜV-Verband betonte die Bedeutung zivilgesellschaftlicher Beteiligung, insbesondere im begleitenden Standardisierungsprozess zur EU-KI-Verordnung. Die Zivilgesellschaft sei hier eine wichtige Kraft, um Leitplanken gegenüber Staat und Wirtschaft mitzugestalten. Hierfür müsste sie im Prozess präsent und sichtbar sein, um sicherzustellen, dass ihre Werte und Perspektiven in technische Standards einfließen: „AI First darf nicht bedeuten People Second”.

Wir sind noch nicht am Ziel. Die Ableitung der Normen hin zur tatsächlichen Prüfung ist hochkomplex. Es geht nicht nur um gut oder schlecht, sondern um viele Dimensionen wie Transparenz, Verlässlichkeit oder Erklärbarkeit über den gesamten Lebenszyklus eines KI-Systems hinweg. Unabhängige Prüfungen können dabei helfen. Und die Zivilgesellschaft sollte in dieser Phase der Normierung deutlich präsenter sein.

Dr. Patrick Gilroy (TÜV Verband e.V.)

Vertrauen entsteht nicht allein durch ein Siegel

In der Diskussion wurde deutlich, dass Vertrauen in KI viele Ebenen umfasst. Teilnehmende aus dem Publikum äußerten bei der Nutzung von KI Skepsis gegenüber fehlerhaften Informationen, sogenannten Halluzinationen, unklarem Datenschutz oder der Intransparenz bei der Weiternutzung von Inhalten. Gleichzeitig wurde betont, dass Vertrauen nicht nur auf persönlichem Empfinden basiert, sondern klare Regeln, nachvollziehbare Standards und transparente Prüfverfahren erfordert.

Dr. Patrick Gilroy verwies darauf, dass unabhängige Prüfungen durch Institutionen wie den TÜV ein wichtiges Mittel sein können, um Vertrauen zu stärken. Leo Preu ergänzte, dass Vertrauen stark vom Einsatzkontext abhängt. Gerade in sensiblen Bereichen wie der Demokratiebildung brauche es besonders hohe Anforderungen an Nachvollziehbarkeit und Offenheit. Ein KI-System kann technisch einwandfrei sein – entscheidend ist, wie es genutzt wird.

Die Zivilgesellschaft wiederum kann hinterfragen, ob bestimmte Anwendungen notwendig sind, ob sie gesellschaftlichen Mehrwert schaffen und ob sie mit grundlegenden Werten vereinbar sind.

Standards als Werkzeug, nicht als Lösung

Standards und Normen wurden in der Diskussion als zentrale Werkzeuge für vertrauenswürdige KI benannt. Sie allein reichen jedoch nicht aus, um alle Herausforderungen zu lösen.

Anke Obendiek verwies auf ethische Fragen, die jenseits regulatorischer Reichweite liegen. Besonders im sogenannten „Low Risk“-Bereich können KI-Anwendungen gesellschaftlich wirksam sein, ohne gesetzlich reguliert zu werden. Deshalb braucht es ergänzende Initiativen wie Selbstverpflichtungen aus der Zivilgesellschaft.

Dr. Patrick Gilroy betonte die Komplexität bei der Übertragung der EU-KI-Verordnung in konkrete Normen sowie deren spätere Prüfung und Durchsetzung. Dieser Prozess ist anspruchsvoll – vor allem in einem globalen Umfeld, in dem Daten und Technologien nicht an nationale Grenzen gebunden sind.

Auch Leo Preu unterstrich, dass die bloße Einhaltung von Standards – etwa der DSGVO – nicht automatisch bedeutet, dass eine KI-Anwendung gemeinwohlorientiert ist. Die Zivilgesellschaft müsse deshalb auch über technische Normen hinaus wirksam bleiben und eigene Werte einbringen.

Social Scoring ist ein Extrembeispiel, aber es gibt viele KI-Anwendungen im niedrigeren Risikobereich, bei denen wir uns trotzdem fragen sollten, ob ihr Einsatz wirklich notwendig ist. Vielleicht gibt es Lösungen, die weniger riskieren – etwa in Bezug auf Diskriminierung, Datenschutz oder Ressourcenverbrauch.

Anke Obendiek (D64 – Zentrum für Digitalen Fortschritt)

Fazit

Die Diskussion machte deutlich, dass die Zivilgesellschaft eine zentrale Rolle bei der Gestaltung von KI übernehmen kann und sollte. Damit diese Rolle wirksam wird, braucht es nicht nur Engagement und Fachwissen, sondern auch strukturelle Voraussetzungen, echte Teilhabechancen und die Bereitschaft, Werte aktiv einzubringen. Gemeinwohlorientierte KI entsteht nicht allein durch Technik, sondern durch Mitgestaltung.

Mir kommt es gerade so vor, als würden alle überspringen, Anwendungsfälle zu entwickeln, Werte festzulegen und die tatsächliche Wirkung zu betrachten. Jetzt machen plötzlich alle Generative KI. Ich sehe unsere Rolle darin zu fragen: 'Okay, warum machen wir das? Wofür ist das gut? Wem nützt es, wem nicht? Und wo liegen die Risiken?’

Leo Preu (CorrelAid e.V.)

Bisher gab es bereits eine Reihe spannender Civic-Coding-Schlaglichter, unter anderem zu Themen wie AI Support Actions, Policy & Regulierung, Code of Conduct und Gewalt im Netz. Neugierig? Stöbere in unseren Nachberichten und entdecke, worüber des Weiteren diskutiert wurde!

Civic Coding-Update

Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.