Springe direkt zum: Inhalt

KI und Desinformation | Civic Coding-Schlaglicht - Civic Coding – Innovationsnetz KI für das Gemeinwohl

Unser Nachbericht zum Civic Coding-Schlaglicht

Am 27.06.2024 fand das Civic Coding-Schlaglicht statt – dieses Mal zum Thema KI und Desinformation und deren Auswirkungen auf unsere Demokratie. Desinformation hat verheerende Auswirkungen: Sie untergräbt das Vertrauen in Medien und Institutionen, manipuliert politische Prozesse, vertieft soziale Spaltungen und beeinträchtigt die individuelle Selbstbestimmung. KI-Anwendungen können dazu beitragen, der zunehmenden Gefahr durch Desinformation für unsere Demokratie entgegenzuwirken.

Wie der Einsatz entsprechender Technologien in der Praxis aussehen kann und welche Maßnahmen darüber hinaus wichtig sind, um Medienkompetenz und das gesellschaftliche Bewusstsein für Desinformation zu stärken, diskutierten wir mit Expert*innen in unserer Online-Veranstaltung.

Dr. Julian Stubbe von der Civic Coding-Geschäftsstelle moderierte den virtuellen Austausch mit Beiträgen von:

  • Caroline Lindekamp, Journalistin und Leiterin eines Projektteams, das bei CORRECTIV neue Maßnahmen gegen Desinformation erarbeitet.
  • Nadine Brömme, Co-Geschäftsführerin von Das NETTZ und Teil der Bundesarbeitsgemeinschaft (BAG) „Gegen Hass im Netz“.
  • Dr. Jonas Fegert, Abteilungsleiter am FZI Forschungszentrum Informatik und Leiter des House of Participation (HoP) – das Kompetenzzentrum zu Fragen Digitaler Demokratie.

Die wichtigsten Ergebnisse der Diskussion auf einen Blick

  • Medienkompetenz-Bildung sowie Faktencheck-Arbeit sind zentrale Maßnahmen zur Bekämpfung von Desinformation, zur Stärkung der Demokratie und des gesellschaftlichen Bewusstseins.
  • Bisherige regulatorische Rahmen, wie der Digital Services Act (DSA), sind gute erste Schritte zur Förderung von Transparenz und Forschung– jedoch bedarf es weiterer staatlicher Regulierung, um einen besseren Zugang zu Daten und damit die Entwicklung effektiver Tools zur Bekämpfung von Desinformation zu ermöglichen.
  • Die bestehenden KI-gestützten Technologien der großen Plattformbetreiber*innen werden intransparent und teilweise unethisch eingesetzt. Keine Plattform unterbindet Desinformation bisher wirklich wirksam.
  • Viele zivilgesellschaftliche Akteur*innen übernehmen Verantwortung und setzen sich mit begrenzten Ressourcen aktiv gegen die Entstehung und Verbreitung von Desinformation und Hass im Netz ein.
  • Eine enge Zusammenarbeit zwischen Forschung, Regierungen und zivilgesellschaftlichen Organisationen ist hier erforderlich, um Ressourcen zu bündeln und große Plattformen in die Pflicht zu nehmen.

Die Leitfragen

Im Fokus der Veranstaltung stand die Frage, in welchem Verhältnis KI und Desinformation stehen und wie verschiedene Ansätze zur Bekämpfung von Desinformation erfolgreich eingesetzt werden können. Dabei wurden sowohl die mit KI verbundenen Risiken deutlich als auch neue Möglichkeiten, mit künstlicher Intelligenz Desinformation entgegenzuwirken. Über folgende Leitfragen sprachen und diskutierten wir mit den Expert*innen:

  1. Wie können wir das Bewusstsein für Desinformation in der Gesellschaft stärken?
  2. Welche Bildungsprogramme sind erforderlich, um die Medienkompetenz der Bürger*innen zu stärken und sie vor Desinformation zu schützen?
  3. Inwiefern können zivilgesellschaftliche Kooperationen dazu beitragen, Desinformation zu bekämpfen?
  4. Welche Maßnahmen können Regierungen ergreifen, um Desinformation effektiv zu bekämpfen, ohne die Meinungsfreiheit zu beeinträchtigen? Wie effektiv sind bestehende Maßnahmen (DSA, EU Code of Practice against Disinformation)?
  5. Welche rechtlichen Rahmenbedingungen sind notwendig, um Plattformen zur Verantwortung zu ziehen und die Verbreitung von Desinformation einzudämmen?
  6. Wie können wir KI-gestützte Technologien zur Identifizierung und Bekämpfung von Desinformation ethisch vertretbar und transparent einsetzen?

Wie können wir das Bewusstsein für Desinformation in der Gesellschaft stärken?

Um die Gesellschaft für Desinformationen zu sensibilisieren, brauche es in erster Linie präventive Arbeit in Form von Medien- und Informationskompetenzbildung, so Nadine Brömme. Dabei sei es besonders wichtig zu lernen, was Desinformation ist und wie man sich davor schützen könne. Die Preisgabe von den eigenen personenbezogenen Daten im Netz sei ein wichtiger Bestandteil dessen. Darüber hinaus sei es wichtig zu wissen, wie man mit Desinformation umgeht und wo man sie melden kann.

„Selbst, wenn Menschen ein Bewusstsein für Desinformationen haben, bleibt das Risiko da. Deshalb sind korrigierende Maßnahmen im Nachgang auch so wichtig, beispielsweise das Faktenchecken.“

Caroline Lindekamp, Journalistin und Projektleiterin bei CORRECTIV

Verschiedene Organisationen, wie CORREKTIV, bieten Nutzer*innen die Möglichkeit, verdächtige Meldungen einzusenden, die dann überprüft werden. Auch diese „Faktencheck-Arbeit“ stärke das Bewusstsein für Desinformation, erklärte Caroline Lindekamp. Durch verschiedene Maßnahmen versuchen Organisationen, Communities aufzubauen und so mehr Menschen in den Prozess einzubinden. Auch der Einsatz von KI solle hier helfen und Faktencheck-Arbeit zugänglicher machen. Problematisch sei vor allem Desinformation, die nicht in öffentlichen Netzwerken, sondern in privaten Gruppen geteilt wird, etwa in Familien-WhatsApp-Gruppen oder geschlossenen Facebook-Gruppen. Da das Vertrauen in die Absender*innen dabei meist größer sei, steige das Risiko, dass eine Desinformation geglaubt wird. Auch dafür biete CORRETIV einen Kanal für Zusendungen von verdächtigen Meldungen. Je mehr Menschen sich hier beteiligen und als Multiplikator*innen in ihren Gruppen fungieren, desto stärker werde das gesamtgesellschaftliche Bewusstsein.

Eine weitere Maßnahme sei die Förderung von Wissenstransfer und Vernetzung von Akteur*innen und Organisationen, die sich gegen Desinformation einsetzen. Als Vernetzungsstelle habe DAS NETZZ das Thema auf Veranstaltungen und über Communities platziert, berichtete Nadine Brömme.

Im Austausch mit den Expert*innen wurde deutlich, dass vor allem dort angesetzt werden muss, wo die Risiken am größten sind, und Polarisierung stattfindet. Denn dort werden oftmals Möglichkeiten genutzt, um die Narrative der jeweiligen „Fronten“ zu verstärken. Auch Künstliche Intelligenz spielteine wichtige Rolle: Durch die Zugänglichkeit von KI-Tools können beispielsweise Deepfakes einfach generiert und schnell verbreitet werden. Durch gezielte Kompetenzbildung, Aktivierung der Zivilgesellschaft und Einbindung der Öffentlichkeit kann Hatespeech und Desinformation entgegengewirkt und ein kritisches Bewusstsein in der Gesellschaft gefördert werden.

Welche Bildungsprogramme sind erforderlich, um die Medienkompetenz der Bürger*innen zu stärken und sie vor Desinformation zu schützen?

Die Expert*innen sind sich einig: Um Bürger*innen vor Desinformation zu schützen und ihre Medienkompetenz zu stärken, sind sowohl theoretische als auch praktische Maßnahmen sinnvoll. Das bedeutet, dass Menschen unterschiedlichen Alters Zugang zu speziellen Programmen zur Medien- und Informationskompetenz erhalten sollten, bei denen sie lernen, wie Medieninhalte entstehen, welche Absichten dahinterstehen können und wie sie Informationen kritisch bewerten können. Besonders bei Kindern und Jugendlichen könne dies durch medienpädagogische Arbeit in Schulen und außerschulischen Einrichtungen erreicht werden. Doch auch bei Erwachsenen müsse Medienkompetenz gefördert werden. Hier sind Weiterbildungsprogramme für besonders betroffene Gruppen, wie Politiker*innen und Menschen aus marginalisierten Communities oft hilfreich. Viele Organisationen bieten entsprechende Bildungsprogramme an, darunter auch CORRECTIV, doch die theoretische und präventive Arbeit reiche nicht aus, um das Problem zu lösen. Es sei ebenso wichtig, Menschen aktiv am Faktencheck-Prozess zu beteiligen, so Frau Lindekamp.

„Wenn wir Leute befähigen, ist das die effizienteste Version von Medien- und Informationskompetenz-Bildung, weil ich ihnen nicht nur erzähle, wie sie einen Faktencheck angehen würden, sondern sie es auch selbst machen.“

Caroline Lindekamp, Journalistin und Projektleiterin bei CORRECTIV

Inwiefern können zivilgesellschaftliche Kooperationen dazu beitragen, Desinformation zu bekämpfen?

Durch die Zusammenarbeit mit Wissenschaft und Forschung, den Aufbau von Netzwerken und den Einsatz moderner Technologien können zivilgesellschaftliche Initiativen laut der Expert*innen effektive Maßnahmen zur Aufklärung und Prävention entwickeln. Eine der wichtigsten Strategien sei dabei die Vernetzung und der Wissenstransfer zwischen verschiedenen zivilgesellschaftlichen Initiativen und Projekten. Daran arbeitet etwa DAS NETTZ und organisiert Wissenstransferformate und Kollaborationsprojekte, um sicherzustellen, dass nicht zahlreiche kleine Initiativen parallel mit begrenzten Ressourcen an denselben Herausforderungen arbeiten, so Nadine Brömme. Der Fokus liege darauf, einen Überblick über bestehende Projekte zu verschaffen und Lücken zu identifizieren. Anhand eines Interventionsatlas werde erkennbar, wo noch weitere Forschung und Förderung nötig sind. Dies ermögliche eine gezielte und effektive Nutzung der verfügbaren Ressourcen.

Auch die Einbindung von Wissenschaft und Forschung könne hilfreich sein: Zivilgesellschaftliche Initiativen erhalten Zugang zu aktuellen Daten und Analysen, die ihre Arbeit fundieren und verbessern. Ein Beispiel für eine solche Zusammenarbeit ist das Forschungsprojekt "Trendmonitoring gegen Hass im Netz", welches als Schnittstelle zwischen Zivilgesellschaft und Praxis fungiert. Dieses Projekt ziele darauf ab, Trends in der Verbreitung von Hass und Desinformation zu identifizieren und effektive Gegenmaßnahmen zu entwickeln.

„Die Zivilgesellschaft ist leider oft in einer sehr reaktiven Rolle, weil einfach die Ressourcen fehlen. Hier könnte man sich fragen, wie man KI nutzen kann, um die zivilgesellschaftliche Arbeit effektiver zu machen.“

Nadine Brömme, Co-Geschäftsführerin von Das NETTZ

Welche Maßnahmen können Regierungen ergreifen, um Desinformation effektiv zu bekämpfen, ohne die Meinungsfreiheit zu beeinträchtigen? Wie effektiv sind bestehende Maßnahmen?

Die bestehenden EU-Gesetze, wie der Digital Services Act (DSA) und der EU Code of Practice against Disinformation, sind aus Sicht der Expert*innen erste wichtige Schritte zur Bekämpfung von Desinformation. Sie fördern Transparenz und fordern Plattformen auf mehr Daten zu Forschungszwecken zur Verfügung zu stellen. Allerdings sei der Prozess der Datenanforderung kompliziert und mit Hürden für Universitäten verbunden, was die Forschung behindere. Ein zentraler Aspekt für die Effektivität dieser Gesetze sei daher die Verbesserung des Zugangs zu Daten, damit Wissenschaftler*innen effizientere Mittel gegen Desinformation entwickeln können.

Die oben vorgestellte Methode des Faktencheckens stelle eine gute Lösung dar, Desinformation effektiv zu bekämpfen, ohne die Meinungsfreiheit zu beeinträchtigen, weil Inhalte nicht gelöscht, sondern richtiggestellt und kontextualisiert werden, so Caroline Lindekamp. Faktencheck-Organisationen und Journalisten spielen hierbei eine zentrale Rolle, doch auch sie benötigen einen unterstützenden regulatorischen Rahmen, um ihre Arbeit effektiv durchführen zu können.

Gleichzeitig sollten staatliche Aufklärungskampagnen über die Rechte und Handlungsmöglichkeiten informieren. So wird der DSA bei Nutzer*innen bekannt und das Thema Desinformation insgesamt präsenter. Angesichts der rasanten Entwicklung von KI-Technologien ist es laut der Expert*innen unerlässlich, dass staatliche Stellen ihre Bemühungen zur Regulierung und Förderung der Forschung intensivieren. Regierungen sollten sicherstellen, dass die gesetzlichen Rahmenbedingungen mit den technologischen Entwicklungen Schritt halten und gleichzeitig die Forschung unterstützen, um bessere Werkzeuge zur Bekämpfung von Desinformation zu entwickeln.

„Man sollte sich fragen, wie man KI-Tools oder -Methoden nutzen kann, um positive Narrative und demokratische Werte im Netz anders zu setzen und zu publizieren. Da ist in Deutschland leider bisher nicht viel passiert.“

Nadine Brömme, Co-Geschäftsführerin von Das NETTZ

Veranstaltungstipp: Im letzten Civic Coding-Schlaglicht vom 11.07.2024 behandelten wir das Thema KI und Diversität: Wie KI Diskriminierung verstärkt – und sie bekämpfen kann. Jetzt mehr erfahren!

Welche rechtlichen Rahmenbedingungen sind notwendig, um Plattformen zur Verantwortung zu ziehen und die Verbreitung von Desinformation einzudämmen?

Große Plattformen spielen eine zentrale Rolle bei der Verbreitung von Desinformation und müssen daher stärker in die Verantwortung genommen werden, so Dr. Jonas Fegert. Dazu seien klare rechtliche Rahmenbedingungen erforderlich. Diese sollten die Meldewege für Desinformation vereinfachen, den Zugang zu Daten für Forschung und Entwicklung sicherstellen, Plattformen zu mehr Transparenzund verantwortungsvollen Geschäftsmodellen verpflichten und die Zusammenarbeit mit zivilgesellschaftlichen Organisationen fördern.

„Die Verantwortung der Plattformen ist immer auch ausgelagert auf die Zivilgesellschaft – nicht nur Organisationen, sondern Internetnutzer*innen generell. Doch dafür gibt es keine Finanzierung.“

Nadine Brömme, Co-Geschäftsführerin von Das NETTZ

Die Expert*innen betonten insbesondere, dass es auf vielen Plattformen kompliziert sei, Desinformation zu melden. Zivilgesellschaftliche Organisationen testen regelmäßig die Funktionsweise der Meldewege und stoßen dabei auf zahlreiche Hindernisse, berichtete Nadine Brömme. Plattformen sollten daher transparente Richtlinien und benutzer*innenfreundliche Tools bereitstellen, um die Meldung von Desinformation zu erleichtern.

Im Hinblick auf die technische und inhaltliche Ausgestaltung von sozialen Netzwerken diskutierten die Expert*innen auch über Emotionalisierung und Polarisierung. Sie kritisierten die Geschäftsmodelle und forderten gesetzliche Vorgaben und Anreize, welche die Plattformen dazu ermutigen, demokratische Werte zu fördern, statt die Verbreitung von emotionalisierenden und polarisierenden Inhalten.

„Ich erhoffe mir, dass wir die Plattformen unter Druck setzen können, für mehr Transparenz und Datenzugänge, damit wir bessere Maßnahmen ergreifen können.“

Caroline Lindekamp, Journalistin und Projektleiterin bei CORRECTIV

Wie können wir KI-gestützte Technologien zur Identifizierung und Bekämpfung von Desinformation ethisch und transparent einsetzen?

Dr. Jonas Fegert berichtet vom Forschungsprojekt „Desinformationskampagnen beheben durch Offenlegung der Faktoren und Stilmittel“ (DeFaktS), welches ein konkretes Beispiel für die Entwicklung eines ethischen und transparenten KI-Tools zur Identifizierung und Bekämpfung von Desinformation ist. Es gehe darum, eine KI zu trainieren, die erstmalig für den deutschen Sprachraum in Texten Desinformationen aufdecken und benennen kann. Dabei finde gleichzeitig Usability-Forschung statt, das heißt, es werde erforscht, wie solche Systeme gestaltet sein müssten, damit sie ihren Zweck erfüllen und Vertrauen schaffen, statt Nutzer*innen abzuschrecken. Anders als bei großen Plattformen solle hierbei ein KI-Tool entstehen, das öffentlich wird und in verschiedene Systeme eingebunden werden könne.

Viele Plattformen haben schon jetzt große Lösungen entwickelt, die zum Einsatz kommen, aber nicht transparent seien, so Fegert. Zivilgesellschaft und Forschung hinken dabei hinterher und müssen schauen, wie sie damit umgehen können.

Doch keine der Plattformen biete zum jetzigen Zeitpunkt Lösungen, die Fälschungen wirklich wirksam unterbinden. Es gebe zwar Unterschiede bei den Betreiber*innen, wie ansprechbar sie auf das Thema sind, wie sie damit umgehen und wie sehr sie sich darum bemühen. Doch am Ende stehen dort gewinnmaximierende Ziele über Demokratie, gesellschaftlichem Zusammenhalt und einem gesunden öffentlichen Diskurs – darüber sind sich die Expert*innen einig.

Du hast die Veranstaltung verpasst? In der Civic Coding-Community kannst du dir die Aufzeichnung ansehen – registriere dich jetzt!

Civic Coding-Update

Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.