Anmelden
Neu hier?
Wenn du noch keinen Zugang besitzt, kannst du dich hier registrieren.
KI-Anwendungen sind zunehmend auch im Arbeitsalltag von gemeinwohlorientierten Organisationen angekommen, doch vielen Organisationen fehlen klare ethische Standards für den Umgang mit KI. Wie können wir sicherstellen, dass KI-Systeme verantwortungsvoll und transparent eingesetzt werden? In unserem ersten Civic Coding-Forum 2025 gingen wir dieser Frage nach und stellten zwei Best Practice-Ansätze vor: Die Diakonie Deutschland hat im letzten Jahr ihre Leitlinien zur Nutzung von KI beschlossen, die den Mitarbeiter*innen eine Orientierungshilfe für einen ethischen und sicheren Einsatz von KI bieten und sie zur Anwendung von KI-Lösungen befähigen sollen. Tobias Traut, der als Referent für Strategie und Planung an der Entwicklung der Leitlinien beteiligt war, berichtete, wie diese erarbeitet wurden, welche Themen dabei besonders wichtig waren und wer in den Prozess involviert war.
Als zweites Fallbeispiel gab die Reporterin Rebecca Ciesielski vom Bayerischen Rundfunk (BR) einen Einblick in den Entstehungsprozess der KI-Richtlinien für die journalistische Arbeit des BR. Sie zeigte in ihrem Impuls auf, welche konkreten Richtlinien entstanden sind und wie diese gestaltet und umgesetzt wurden.
Leitlinien sind Empfehlungen und Orientierungshilfen, die nicht rechtlich bindend sind. Sie geben einen Rahmen vor, innerhalb dessen aber Spielraum für eigene Entscheidungen besteht. Richtlinien hingegen stellen verbindliche Vorgaben mit klaren Regeln oder verpflichtenden Handlungsanweisungen dar.
KI-Leitlinien bilden einen Rahmen für die Nutzung von KI-Anwendungen. Um ihre Mitarbeiter*innen zu ermutigen, KI-Technologien für ihre Arbeit zu nutzen, setzte sich deshalb auch die Diakonie Deutschland das Ziel, eigene Leitlinien zu entwickeln. Ein weiterer Aspekt war, den Anforderungen des Datenschutzes sowie den eigenen ethischen Ansprüchen beim Einsatz von KI gerecht zu werden.
Die Leitlinien sollten daher vor allem als praktische, kompakte Hilfestellung für die Mitarbeiter*innen dienen, die sie zur Anwendung von KI-Tools ermutigen und ermächtigen sowie Orientierung für einen ethischen und sicheren Umgang geben. Dabei handelt es sich nicht um ein arbeitsrechtlich bindendes Dokument, sondern um Prinzipien und Rahmenempfehlungen. Die KI-Leitlinien benennen auch potenzielle Gefahren (beispielsweise die Verarbeitung sensibler Daten) und geben Empfehlungen, wie diese kontrolliert werden können. Ein Ziel der Leitlinien ist außerdem die Abwägung von Sicherheit und Ermächtigung. Dabei gilt es, eine Balance zwischen Regulierung und Vertrauen auf die Entscheidungskompetenzen der Mitarbeiter*innen zu schaff
„Wichtig ist es, den Mitarbeitenden einen Rahmen an die Hand zu geben, der sie zum Nutzen, Entwickeln und Ausprobieren von KI-Lösungen ermutigt.“
Tobias Traut, Referent für Strategie und Planung bei der Diakonie Deutschland
Daraus ergaben sich die konkreten Elemente der KI-Leitlinien der Diakonie Deutschland:
Für den verantwortlichen Umgang mit den Risiken von KI hat die Diakonie in ihren Leitlinien einige Grundsätze festgehalten. Dazu gehört beispielsweise das Do-no-Harm-Prinzip – keine Aktivitäten mit KI dürfen einem Menschen schaden. Darüber hinaus besteht immer die Verantwortlichkeit, die Ergebnisse vor der Nutzung zu prüfen und keine vollautomatisierten Entscheidungen zu treffen. KI-unterstützte Texte und Bilder in öffentlichen Publikationen sollen entsprechend gekennzeichnet werden. Wenn Daten von – insbesondere internationalen – Partnerorganisationen mit Hilfe von KI verarbeitet werden, ist immer an diese zu kommunizieren, wofür und mit welcher Methode die Datenverarbeitung erfolgt. Es soll ein Bewusstsein für KI als mögliche Quelle von Bias, Diskriminierung und Missbrauch entstehen. Grundsätzlich sind gesetzliche Vorgaben einzuhalten. Der wichtigste Punkt besteht darin, auf keinen Fall sensible Daten über die Organisation, Partner oder Individuen einzugeben. Als Faustregel gilt: „Gib nur Daten in ein KI-System ein, die du problemlos per E-Mail an unbeteiligte externe Dritte weiterleiten könntest, ohne zuvor die Quelle der Information um Erlaubnis zu bitten.“
Die Leitlinien der Diakonie Deutschland entstanden in einem agilen und partizipativen Prozess. Durch regelmäßige wöchentliche Treffen der Arbeitsgruppe war es möglich, innerhalb von wenigen Monaten einen Entwurf zu erarbeiten. Dabei wurden möglichst viele Perspektiven einbezogen – auch die der Skeptiker*innen und der Mitarbeiter*innen-Vertretung. Der Entwurf wurde im Intranet vorgestellt, mit der Belegschaft diskutiert und schließlich anhand der eingegangenen Kommentare finalisiert. Der Vorstand war in diesen Prozess ebenfalls eingebunden.
Natürlich ist es nicht damit getan, die Leitlinien zu verabschieden, denn im Anschluss beginnt die praktische Umsetzung und Weiterführung in verschiedenen Bereichen einer Organisation. So haben bei der Diakonie unterschiedliche Akteur*innen einige Folgemaßnahmen initiiert: Ein vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) gefördertes KI-Verbundprojekt für diakonische Unternehmen und Verbände ermöglicht den Kompetenzaufbau von Mitarbeiter*innen im Bereich generative KI. Außerdem wurde ein interner „AI-Hub“ auf Basis von ChatGPT eingerichtet, der bei der Datenanalyse von internen Dokumenten helfen soll und für den wöchentliche Schulungen stattfinden. Über ein hausinternes Meldeverfahren können „KI-Unfälle“ gemeldet werden. Zur Koordination aller KI-Themen und -Projekte wurde eine eigene Stelle geschaffen. Für die Zukunft sind unter anderem noch ein FAQ zum Thema im Intranet der Diakonie sowie eine zentrale Anlaufstelle für alle KI-Angebote geplant.
Im November wird ein Fachtag „KI & Ethik“ stattfinden und auch das Aufsetzen einer eigenen KI-Strategie ist geplant.
Auch für die journalistische Arbeit spielt KI schon längere Zeit eine zunehmende Rolle. Der Bayerische Rundfunk (BR) ist über die Möglichkeit einer nicht bindenden Leitlinie hinausgegangen und hat 2020 seine KI-Richtlinien verabschiedet. Das ebenfalls 2020 gegründete AI + Automation Lab des BR beschäftigt sich interdisziplinär sowohl mit Algorithmen als Gegenstand von investigativem Journalismus als auch mit der Entwicklung und dem praktischen Einsatz von automatisierten Formaten. Dabei handelt es sich zum Teil um generative-KI-Lösungen, die es Redaktionen ermöglichen, Nachrichten an individuelle Bedürfnisse und Kontexte anzupassen. Der BR verfolgt unterschiedliche Ansätze von automatisierten Formaten im Rahmen von öffentlich-rechtlicher Personalisierung:
Auf Grundlage der gesammelten Erfahrungen in der Arbeit mit KI-Anwendungen entwickelte das AI + Automation Lab ein weiteres System: Second Opinion ist ein Tool für Versionierung, das längere Texte kürzt und mit Hilfe eines zweiten KI-Modells bewertet, ob der Text Fehler enthalten könnte, indem es auf inhaltliche Gleichheit prüft.
Mit der zunehmenden Nutzung von KI in der journalistischen Arbeit des BR gehen ethische Herausforderungen und Risiken einher:
Daraus lassen sich Haltungen für den Umgang mit KI-Anwendungen ableiten. So müssen eingesetzte Systeme stetig überprüft werden. Dies lässt sich mit dem Verhältnis zwischen Dozent*in und Studierenden vergleichen: Journalist*innen müssen die Haltung von Dozent*innen einnehmen, die die Antworten ihrer Studierenden in einer Prüfungssituation auch noch einmal auf ihre Richtigkeit überprüfen müssen.
Es sollten zudem nur Systeme eingesetzt werden, deren Grenzen man verstehen und bewerten kann. KI kann als Tool für Freiräume dienen, an das sich Teilaufgaben abgeben lassen. Am Ende sollte der Mensch jedoch immer die Verantwortung übernehmen – im Sinne des „Human-in-the-loop“-Prinzips, das auch im AI Act verankert ist.
„KI kann den Journalismus bereichern, darf aber niemals die journalistische Sorgfaltspflicht untergraben. Automatisierte Prozesse und generierte Inhalte müssen redaktionellen Standards entsprechen und das Publikum muss erkennen können, wo und warum wir KI für journalistische Produkte einsetzen.“
Rebecca Ciesielski, Reporterin mit Schwerpunkt Algorithmic Accountability Reporting im AI + Automation Lab des Bayerischen Rundfunks (BR)
Basierend auf diesen Grundsätzen und den eigenen Praxiserfahrungen hat das AI + Automation Lab Richtlinien für einen verantwortungsvollen Einsatz von KI entwickelt und vor einigen Monaten überarbeitet. Zu den zentralen Inhalten der Richtlinien gehören:Mit der zunehmenden Nutzung von KI in der journalistischen Arbeit des BR gehen ethische Herausforderungen und Risiken einher:
Ergänzt werden diese noch durch folgende Leitlinien für die Nutzung von KI im Arbeitsalltag:
Im redaktionellen Alltag des BR kommt eine KI-Strategie zum Einsatz, für die entsprechende Abteilungen der Landesrundfunkanstalten übergreifend zusammenarbeiten. Ein KI-Board dient außerdem als Anlaufstelle für Fragen rund um den Einsatz von KI. Außerdem besteht eine verbindliche Transparenzrichtlinie zum Einsatz und zur Kennzeichnung von KI. Personenbezogene Daten und investigative Recherche werden grundsätzlich nicht in KI-Systeme eingegeben. Der BR setzt vor allem auf die Eigenverantwortung der Mitarbeiter*innen, die Richtlinien einzuhalten und fördert die Sensibilisierung für das Thema, unterstützt Mitarbeitende aber auch mit verbindlichen Handreichungen insbesondere zu juristischen Fragen.
Die Einblicke in die beiden Organisationen verdeutlichten, dass transparente KI-Richt- und -Leitlinien eine wichtige Grundlage für den verantwortungsvollen Einsatz von KI-Anwendungen sind und zudem Berührungsängste und Unsicherheiten im Umgang mit KI abbauen können. KI-Anwendungen können bei vielen Aufgaben unterstützen, erfordern jedoch klare Regeln, ethische Standards und menschliche Kontrolle. Bei der Umsetzung von Leit- und Richtlinien kommt es darauf an, eine Balance zwischen Regulierung und Vertrauen in die Mitarbeiter*innen zu finden, dass diese die Tools verantwortungsvoll nutzen.
Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.