Springe direkt zum: Inhalt

Wie geben KI-Richtlinien und -Leitlinien Orientierung beim Einsatz von KI-Anwendungen?

KI-Anwendungen sind zunehmend auch im Arbeitsalltag von gemeinwohlorientierten Organisationen angekommen, doch vielen Organisationen fehlen klare ethische Standards für den Umgang mit KI. Wie können wir sicherstellen, dass KI-Systeme verantwortungsvoll und transparent eingesetzt werden? In unserem ersten Civic Coding-Forum 2025 gingen wir dieser Frage nach und stellten zwei Best Practice-Ansätze vor: Die Diakonie Deutschland hat im letzten Jahr ihre Leitlinien zur Nutzung von KI beschlossen, die den Mitarbeiter*innen eine Orientierungshilfe für einen ethischen und sicheren Einsatz von KI bieten und sie zur Anwendung von KI-Lösungen befähigen sollen. Tobias Traut, der als Referent für Strategie und Planung an der Entwicklung der Leitlinien beteiligt war, berichtete, wie diese erarbeitet wurden, welche Themen dabei besonders wichtig waren und wer in den Prozess involviert war.

Als zweites Fallbeispiel gab die Reporterin Rebecca Ciesielski vom Bayerischen Rundfunk (BR) einen Einblick in den Entstehungsprozess der KI-Richtlinien für die journalistische Arbeit des BR. Sie zeigte in ihrem Impuls auf, welche konkreten Richtlinien entstanden sind und wie diese gestaltet und umgesetzt wurden.

Richtlinien und Leitlinien – was ist der Unterschied?

Leitlinien sind Empfehlungen und Orientierungshilfen, die nicht rechtlich bindend sind. Sie geben einen Rahmen vor, innerhalb dessen aber Spielraum für eigene Entscheidungen besteht. Richtlinien hingegen stellen verbindliche Vorgaben mit klaren Regeln oder verpflichtenden Handlungsanweisungen dar.

Warum sind KI-Leitlinien wichtig und wie können sie im Umgang mit KI unterstützen?

KI-Leitlinien bilden einen Rahmen für die Nutzung von KI-Anwendungen. Um ihre Mitarbeiter*innen zu ermutigen, KI-Technologien für ihre Arbeit zu nutzen, setzte sich deshalb auch die Diakonie Deutschland das Ziel, eigene Leitlinien zu entwickeln. Ein weiterer Aspekt war, den Anforderungen des Datenschutzes sowie den eigenen ethischen Ansprüchen beim Einsatz von KI gerecht zu werden.

Die Leitlinien sollten daher vor allem als praktische, kompakte Hilfestellung für die Mitarbeiter*innen dienen, die sie zur Anwendung von KI-Tools ermutigen und ermächtigen sowie Orientierung für einen ethischen und sicheren Umgang geben. Dabei handelt es sich nicht um ein arbeitsrechtlich bindendes Dokument, sondern um Prinzipien und Rahmenempfehlungen. Die KI-Leitlinien benennen auch potenzielle Gefahren (beispielsweise die Verarbeitung sensibler Daten) und geben Empfehlungen, wie diese kontrolliert werden können. Ein Ziel der Leitlinien ist außerdem die Abwägung von Sicherheit und Ermächtigung. Dabei gilt es, eine Balance zwischen Regulierung und Vertrauen auf die Entscheidungskompetenzen der Mitarbeiter*innen zu schaff

„Wichtig ist es, den Mitarbeitenden einen Rahmen an die Hand zu geben, der sie zum Nutzen, Entwickeln und Ausprobieren von KI-Lösungen ermutigt.“

Tobias Traut, Referent für Strategie und Planung bei der Diakonie Deutschland

Inhalte und Prinzipien der KI-Leitlinien der Diakonie

Daraus ergaben sich die konkreten Elemente der KI-Leitlinien der Diakonie Deutschland:

  • KI soll den Zielen der Organisation dienen.
  • Die Mitarbeiter*innen sollen nicht ersetzt werden: Vielmehr sollen die Leitlinien sie befähigen, durch den Einsatz von KI-Anwendungen die Qualität und Wirksamkeit ihrer Arbeit zu erhöhen und den Aufwand für repetitive Tätigkeiten zu minimieren.
  • Der Umgang mit KI wird als selbstverantwortlicher und gemeinsamer Lernprozess angesehen, bei dem Transparenz über die Nutzung entscheidend ist.

Für den verantwortlichen Umgang mit den Risiken von KI hat die Diakonie in ihren Leitlinien einige Grundsätze festgehalten. Dazu gehört beispielsweise das Do-no-Harm-Prinzip – keine Aktivitäten mit KI dürfen einem Menschen schaden. Darüber hinaus besteht immer die Verantwortlichkeit, die Ergebnisse vor der Nutzung zu prüfen und keine vollautomatisierten Entscheidungen zu treffen. KI-unterstützte Texte und Bilder in öffentlichen Publikationen sollen entsprechend gekennzeichnet werden. Wenn Daten von – insbesondere internationalen – Partnerorganisationen mit Hilfe von KI verarbeitet werden, ist immer an diese zu kommunizieren, wofür und mit welcher Methode die Datenverarbeitung erfolgt. Es soll ein Bewusstsein für KI als mögliche Quelle von Bias, Diskriminierung und Missbrauch entstehen. Grundsätzlich sind gesetzliche Vorgaben einzuhalten. Der wichtigste Punkt besteht darin, auf keinen Fall sensible Daten über die Organisation, Partner oder Individuen einzugeben. Als Faustregel gilt: „Gib nur Daten in ein KI-System ein, die du problemlos per E-Mail an unbeteiligte externe Dritte weiterleiten könntest, ohne zuvor die Quelle der Information um Erlaubnis zu bitten.

Wie kann man bei der Entwicklung von KI-Leitlinien vorgehen?

Die Leitlinien der Diakonie Deutschland entstanden in einem agilen und partizipativen Prozess. Durch regelmäßige wöchentliche Treffen der Arbeitsgruppe war es möglich, innerhalb von wenigen Monaten einen Entwurf zu erarbeiten. Dabei wurden möglichst viele Perspektiven einbezogen – auch die der Skeptiker*innen und der Mitarbeiter*innen-Vertretung. Der Entwurf wurde im Intranet vorgestellt, mit der Belegschaft diskutiert und schließlich anhand der eingegangenen Kommentare finalisiert. Der Vorstand war in diesen Prozess ebenfalls eingebunden.

Natürlich ist es nicht damit getan, die Leitlinien zu verabschieden, denn im Anschluss beginnt die praktische Umsetzung und Weiterführung in verschiedenen Bereichen einer Organisation. So haben bei der Diakonie unterschiedliche Akteur*innen einige Folgemaßnahmen initiiert: Ein vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) gefördertes KI-Verbundprojekt für diakonische Unternehmen und Verbände ermöglicht den Kompetenzaufbau von Mitarbeiter*innen im Bereich generative KI. Außerdem wurde ein interner „AI-Hub auf Basis von ChatGPT eingerichtet, der bei der Datenanalyse von internen Dokumenten helfen soll und für den wöchentliche Schulungen stattfinden. Über ein hausinternes Meldeverfahren können „KI-Unfälle“ gemeldet werden. Zur Koordination aller KI-Themen und -Projekte wurde eine eigene Stelle geschaffen. Für die Zukunft sind unter anderem noch ein FAQ zum Thema im Intranet der Diakonie sowie eine zentrale Anlaufstelle für alle KI-Angebote geplant.

Im November wird ein Fachtag „KI & Ethik“ stattfinden und auch das Aufsetzen einer eigenen KI-Strategie ist geplant.

Einsatz von KI im Journalismus

Auch für die journalistische Arbeit spielt KI schon längere Zeit eine zunehmende Rolle. Der Bayerische Rundfunk (BR) ist über die Möglichkeit einer nicht bindenden Leitlinie hinausgegangen und hat 2020 seine KI-Richtlinien verabschiedet. Das ebenfalls 2020 gegründete AI + Automation Lab des BR beschäftigt sich interdisziplinär sowohl mit Algorithmen als Gegenstand von investigativem Journalismus als auch mit der Entwicklung und dem praktischen Einsatz von automatisierten Formaten. Dabei handelt es sich zum Teil um generative-KI-Lösungen, die es Redaktionen ermöglichen, Nachrichten an individuelle Bedürfnisse und Kontexte anzupassen. Der BR verfolgt unterschiedliche Ansätze von automatisierten Formaten im Rahmen von öffentlich-rechtlicher Personalisierung:

  • Versionierung: Die Journalist*innen recherchieren alle Inhalte selbst und tragen die redaktionelle Verantwortung, doch die Nachrichten werden automatisiert in unterschiedliche Formate wie einfache Texte oder unterschiedliche Textlängen übersetzt und nach den Bedürfnissen der User*innen gestaltet.
  • Regionalisierung: Nachrichten und Events werden automatisiert regionalspezifisch ausgespielt (wie beispielsweise beim BR Regional-Update).

Auf Grundlage der gesammelten Erfahrungen in der Arbeit mit KI-Anwendungen entwickelte das AI + Automation Lab ein weiteres System: Second Opinion ist ein Tool für Versionierung, das längere Texte kürzt und mit Hilfe eines zweiten KI-Modells bewertet, ob der Text Fehler enthalten könnte, indem es auf inhaltliche Gleichheit prüft.

Ethische Grundsätze und Haltungen gegenüber KI im Journalismus

Mit der zunehmenden Nutzung von KI in der journalistischen Arbeit des BR gehen ethische Herausforderungen und Risiken einher:

  • Fehler der KI sind der Normalfall. Deshalb sind Mechanismen notwendig, um diese auszubessern (beispielsweise über Tools wie Second Opinion).
  • Automation Bias: Menschen glauben tendenziell Maschinen (mehr als Menschen).
  • Auch Menschen können Maschinenverhalten entwickeln. Menschen neigen dazu, die Steuerung eines komplexen Systems für sich anzunehmen und sich daran anzupassen, ohne sie zu hinterfragen.
  • KI-Anwendungen werden immer mehr (Teil-)Aufgaben übernehmen.

Daraus lassen sich Haltungen für den Umgang mit KI-Anwendungen ableiten. So müssen eingesetzte Systeme stetig überprüft werden. Dies lässt sich mit dem Verhältnis zwischen Dozent*in und Studierenden vergleichen: Journalist*innen müssen die Haltung von Dozent*innen einnehmen, die die Antworten ihrer Studierenden in einer Prüfungssituation auch noch einmal auf ihre Richtigkeit überprüfen müssen.

Es sollten zudem nur Systeme eingesetzt werden, deren Grenzen man verstehen und bewerten kann. KI kann als Tool für Freiräume dienen, an das sich Teilaufgaben abgeben lassen. Am Ende sollte der Mensch jedoch immer die Verantwortung übernehmen – im Sinne des Human-in-the-loop“-Prinzips, das auch im AI Act verankert ist.

„KI kann den Journalismus bereichern, darf aber niemals die journalistische Sorgfaltspflicht untergraben. Automatisierte Prozesse und generierte Inhalte müssen redaktionellen Standards entsprechen und das Publikum muss erkennen können, wo und warum wir KI für journalistische Produkte einsetzen.“

Rebecca Ciesielski, Reporterin mit Schwerpunkt Algorithmic Accountability Reporting im AI + Automation Lab des Bayerischen Rundfunks (BR)

Basierend auf diesen Grundsätzen und den eigenen Praxiserfahrungen hat das AI + Automation Lab Richtlinien für einen verantwortungsvollen Einsatz von KI entwickelt und vor einigen Monaten überarbeitet. Zu den zentralen Inhalten der Richtlinien gehören:Mit der zunehmenden Nutzung von KI in der journalistischen Arbeit des BR gehen ethische Herausforderungen und Risiken einher:

  • Redaktionelle Kontrolle: Letztlich liegt die Verantwortung für die erstellten Inhalte immer bei einer Person, die diese vor der Veröffentlichung überprüft. Außerdem sorgen klar nachvollziehbare Mechanismen dafür, dass Fehler – beispielsweise von regelbasierten Automatisierungssystemen – abgefangen beziehungsweise mögliche Probleme transparent gemacht werden.
  • Keine Personifizierung von KI: In der Sprache über KI wird deutlich, dass es sich um eine Maschine und nicht um eine menschenähnliche Entität handelt.
  • Verantwortliche Personalisierung: Entsprechend der öffentlich-rechtlichen Standards werden keine großen Mengen personenbezogener Daten gesammelt und die Entstehung von Filterblasen verhindert.
  • Vielfalt und Regionalität: Gesellschaftliche Vielfalt wird abgebildet und KI dient als Möglichkeit für inklusive und barrierefreie Inhalte. Es besteht ein Bewusstsein für mögliche diskriminierende Stereotype in Trainingsdaten, Sprachmodelle für regionale Dialekte sind in Arbeit.

Ergänzt werden diese noch durch folgende Leitlinien für die Nutzung von KI im Arbeitsalltag:

  • Die Anwendung von KI soll einen Mehrwert für User*innen schaffen und journalistische Angebote attraktiver machen.
  • Eine agile Lernkultur gewährleistet die (Weiter-)Entwicklung von Technologien und Prototypen.
  • Talente und Kompetenzen im Bereich KI werden gefördert.
  • Transparenz im Umgang mit KI-Systemen und der Diskurs des Themas mit der Öffentlichkeit spielen eine wichtige Rolle bei allen Aktivitäten.

Im redaktionellen Alltag des BR kommt eine KI-Strategie zum Einsatz, für die entsprechende Abteilungen der Landesrundfunkanstalten übergreifend zusammenarbeiten. Ein KI-Board dient außerdem als Anlaufstelle für Fragen rund um den Einsatz von KI. Außerdem besteht eine verbindliche Transparenzrichtlinie zum Einsatz und zur Kennzeichnung von KI. Personenbezogene Daten und investigative Recherche werden grundsätzlich nicht in KI-Systeme eingegeben. Der BR setzt vor allem auf die Eigenverantwortung der Mitarbeiter*innen, die Richtlinien einzuhalten und fördert die Sensibilisierung für das Thema, unterstützt Mitarbeitende aber auch mit verbindlichen Handreichungen insbesondere zu juristischen Fragen.

Unser Fazit

Die Einblicke in die beiden Organisationen verdeutlichten, dass transparente KI-Richt- und -Leitlinien eine wichtige Grundlage für den verantwortungsvollen Einsatz von KI-Anwendungen sind und zudem Berührungsängste und Unsicherheiten im Umgang mit KI abbauen können. KI-Anwendungen können bei vielen Aufgaben unterstützen, erfordern jedoch klare Regeln, ethische Standards und menschliche Kontrolle. Bei der Umsetzung von Leit- und Richtlinien kommt es darauf an, eine Balance zwischen Regulierung und Vertrauen in die Mitarbeiter*innen zu finden, dass diese die Tools verantwortungsvoll nutzen.

Civic Coding-Update

Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.