Springe direkt zum: Inhalt

Gewalt im Netz | Civic Coding-Schlaglicht - Civic Coding – Innovationsnetz KI für das Gemeinwohl

Civic Coding-Schlaglicht: Gewalt im Netz

Welche Potenziale und Gefahren bergen KI-Anwendungen im Umgang mit Hass und Gewalt im Netz? Während beispielsweise Algorithmen einerseits polarisierende und extremistische Inhalte verstärken und damit zu einem Anstieg von Feindseligkeit beitragen können, bieten KI-Technologien auf der anderen Seite die Möglichkeit, Hassrede zu erkennen, dagegen vorzugehen sowie positive Inhalte stärker zu verbreiten. Gemeinsam mit Expert*innen beleuchten wir im Civic Coding-Schlaglicht verschiedene Perspektiven dieses Themas.

Wie kann uns KI im Kampf gegen Hass und Gewalt helfen?

Die Zunahme von Gewalt und Hass im Internet stellt eine wachsende Bedrohung für unsere Gesellschaft dar. Sie hat das Potenzial, unser soziales Gefüge zu destabilisieren und die Grundlagen einer toleranten, pluralistischen Gesellschaft zu untergraben. Hasskommentare, Drohungen und Diskriminierung im Netz verschärfen gesellschaftliche Spaltungen und fördern das Misstrauen zwischen verschiedenen sozialen Gruppen. Künstliche Intelligenz (KI) bringt dabei sowohl Risiken als auch Chancen mit sich.

Algorithmen, die auf personalisierten Empfehlungen basieren, verstärken oft Inhalte, die eine hohe Interaktion erzeugen – darunter auch polarisierende und gewaltfördernde Aussagen. Dies führt dazu, dass KI-gesteuerte Plattformen die Verbreitung von Hassreden begünstigen können, da kontroverse Inhalte die Aufmerksamkeit und Emotionen der Nutzer*innen stärker anziehen.

Gleichzeitig bietet KI aber auch vielversprechende Möglichkeiten, um Gewalt und Hass im Netz wirksam zu bekämpfen: So kann sie genutzt werden, um Hassrede automatisch zu erkennen und zu filtern. Frühwarnsysteme für Plattformen zu schaffen oder Tools für Nutzer*innen bereitzustellen, mit denen diese selbst Hasskommentare melden können. Braucht es also eine ganzheitliche Strategie, die auf der Zusammenarbeit von Plattformbetreibenden, Regierungen, zivilgesellschaftlichen Organisationen und den Nutzer*innen basiert, um diese Potenziale in Gänze auszuschöpfen und Gewalt im Netz nachhaltig zu bekämpfen?

In diesem Schlaglicht diskutieren wir mit Dr. Laura Braam von der Landesanstalt für Medien NRW und Dr. Bernd Zywietz von jugendschutz.net über die Möglichkeiten und Grenzen von KI zur Bekämpfung von Gewalt und Hass im Netz. Dabei stehen Fragen im Vordergrund, wie KI-Systeme so gestaltet werden können, dass sie gewaltvolle Inhalte effektiv identifizieren und wie zivilgesellschaftliche Akteur*innen und die breite Öffentlichkeit in diesen Prozess einbezogen werden können.

Melde dich jetzt an und sei am Dienstag, 03.12.2024 um 16:00 Uhr live dabei!

Hinweis: Die Veranstaltung wird aufgezeichnet und im Nachgang im Community-Bereich unseres Webportals zur Verfügung gestellt.

Die wichtigsten Infos im Überblick

  • Datum: 03.12.2024 (Dienstag)
  • Uhrzeit: 16:00 - 17:00 Uhr
  • Ort: virtuell per Zoom

Dr. Laura Braam

ist seit dem 1. Januar 2024 Leiterin der Abteilung Recht und Justiziarin der Landesanstalt für Medien NRW. Sie hat Rechtswissenschaften an der Universität Bonn studiert und dort 2014 zu einem medienrechtlichen Thema promoviert. 2015 begann sie ihre Laufbahn in der Landesanstalt für Medien NRW. 2019 übernahm sie die Leitung des Teams Aufsicht. Zuvor war sie als stellvertretende Leiterin der Gruppe Medienpolitik und -ökonomie der Landesanstalt für Medien NRW und als wissenschaftliche Mitarbeiterin in einer Rechtsanwaltskanzlei für Presse- und Äußerungsrecht tätig.

© Landesanstalt für Medien NRW

Dr. Bernd Zywietz

ist Leiter des Bereichs Politischer Extremismus bei jugendschutz.net, dem Kompetenzzentrum von Bund und Ländern für den Schutz von Kindern und Jugendlichen im Internet. Daneben arbeitet er als freier Medienwissenschaftler und ist Herausgeber der Buchreihe „Aktivismus- und Propagandaforschung“.

© Privat

Leitfragen

  • Wie kann Künstliche Intelligenz effektiv zur Erkennung und Reduktion von Hasssprache und Gewalt im Netz beitragen?
  • Welche Verantwortung tragen Plattformbetreibende, Regierungen und zivilgesellschaftliche Akteur*innen in der Zusammenarbeit mit KI-Entwickler*innen, um eine ganzheitliche Lösung gegen Online-Gewalt zu schaffen?
  • Wie können Nutzer*innen durch KI-gestützte Tools ermächtigt werden, Hassrede selbst zu erkennen und zu melden, und wie kann dies in bestehende Plattformstrukturen integriert werden?
  • In welchen Bereichen stößt der Einsatz von KI an seine Grenzen, wenn es darum geht, zwischen akzeptabler Meinungsäußerung und tatsächlicher Hassrede zu unterscheiden?
  • Welche langfristigen Maßnahmen sind notwendig, um sicherzustellen, dass KI-gestützte Systeme flexibel genug sind, um auf neue Formen von Online-Gewalt zu reagieren?

Melde dich jetzt an!

Civic Coding-Update

Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.