Modul 2

Die Offenlegung

Mittwoch, 9:17 Uhr — Dublin

Elena Vasquez
Ihre Rolle

Elena Vasquez

Leiterin Marketing & Kommunikation bei NovaTech Financial – einem mittelständischen europäischen Fintech-Unternehmen mit 1.200 Mitarbeitern und Hauptsitz in Dublin. Beaufsichtigt durch die irische Zentralbank.

Sie kommen am Mittwochmorgen an und finden zwei E-Mails vor, die über Nacht eingegangen sind: eine von einem Journalisten der Financial Times, eine vom Kundensupport bezüglich einer Beschwerde über den Chatbot. Ihr CMO ist bis Mittag nicht erreichbar. Die Veröffentlichung der Ergebnisse für das zweite Quartal steht in 9 Tagen an.

Ihr Team veröffentlicht seit 11 Monaten KI-generierte Inhalte – ohne Offenlegungsrichtlinie, Überprüfungsprozess oder Dokumentationspfad.

Was Sie wissen müssen

KI-Transparenz gemäß dem EU-KI-Gesetz

Dieses Modul testet Ihr Verständnis dafür, wann und wie der Einsatz von KI offengelegt werden muss. Hier sind die Regeln, die Sie kennen müssen:

Artikel 50(1) – Offenlegung bei Chatbots

Wenn eine Person mit einem KI-System interagiert, muss sie darüber informiert werden, dass sie mit KI interagiert – und zwar zum Zeitpunkt der Interaktion und nicht versteckt in den Allgemeinen Geschäftsbedingungen. Dies gilt für Chatbots, virtuelle Assistenten und jede KI, die ein Nutzer mit einem Menschen verwechseln könnte.

Artikel 50 Absatz 2 – KI-generierte Inhalte

Inhalte, die von KI generiert oder wesentlich verändert wurden, müssen als künstlich generiert gekennzeichnet werden. Die Veröffentlichung von KI-verfassten Blogbeiträgen, Marketingtexten oder Berichten ohne entsprechende Offenlegung verstößt gegen diese Verpflichtung. Eine Überprüfung durch Menschen hebt die Offenlegungspflicht NICHT auf.

Artikel 99 – Sanktionen

Bereitstellung irreführender Informationen über den Einsatz von KI gegenüber Behörden: bis zu 7,5 Mio. € oder 1 % des Jahresumsatzes. Die Geldbuße wird nicht für den Einsatz von KI verhängt – sondern für deren Verschleierung.

Grundprinzip

Bei Transparenz geht es nicht darum, ob KI „gut“ oder „schlecht“ ist. Es geht um das Recht des Empfängers auf Information. Ein Kunde, der von einem KI-Chatbot bedient wird, ein Leser von KI-generierten Inhalten und eine Aufsichtsbehörde, die nach Ihrer KI-Nutzung fragt, haben alle ein Recht auf korrekte Informationen.

Betreff: FT Alphaville – Anfrage zu KI-generierten
Inhalten Von: Lena Richter <l.richter@ft.com>
An: NovaTech Communications <press@novatech.ie>
Datum: Dienstag, 23:47 Uhr

Sehr geehrtes Team von NovaTech Communications,

ich schreibe gerade einen Artikel über KI-generierte Inhalte im Finanzdienstleistungsmarketing. Ich habe mehrere Artikel in Ihrem Blog gefunden, die offenbar größtenteils KI-generiert sind, darunter „The Future of Personal Finance“ (veröffentlicht am 12. März 2026). Könnten Sie bitte bestätigen:

  1. Ob dieser Artikel mithilfe von KI-Tools erstellt wurde?
  2. Ob NovaTech über eine Offenlegungsrichtlinie für KI-generierte Inhalte verfügt?
  3. Ob Ihr kundenorientierter Chatbot (NovaAssist) generative KI nutzt und, falls ja, ob die Kunden darüber informiert werden?

Meine Deadline ist am Freitag. Ich würde mich über ein Gespräch mit Ihrem CMO freuen.

Mit freundlichen Grüßen,
Lena Richter, FT Alphaville

Hintergrund

Die Journalistin hat den Artikel durch drei KI-Erkennungsprogramme laufen lassen – alle stuften ihn als zu >90 % KI-generiert ein. Sie wurde von einem ehemaligen NovaTech-Auftragnehmer darauf hingewiesen, der bemerkt hatte, dass sich die Anzahl der Blog-Beiträge verdreifacht hatte, nachdem KI-Tools eingeführt worden waren.

Die zweite E-Mail: Der Kunde Robert Acheson nutzte den NovaAssist-Chatbot, um nach einem Upgrade seines Kontos zu fragen. Der Chatbot teilte ihm mit, dass für die Premium-Stufe „in den ersten 12 Monaten keine monatliche Verwaltungsgebühr anfällt“. Diese Befreiung wurde vor 6 Monaten eingestellt. Ihm wurden 49 Euro berechnet.

Er hat auf X gepostet: „Der KI-Chatbot von NovaTech hat mich bezüglich der Gebühren belogen. @CentralBankIE, schaut ihr zu?“ – 340 Interaktionen und steigend.

Elena Vasquez facing an urgent decision
Entscheidung 1: Morgens 9:22 Uhr · Redaktionsschluss: Freitag · Achesons Tweet: 340 Interaktionen · Fiona bis Mittag nicht erreichbar
Eingehend
Lena Richter, FT Alphaville 23:47 Uhr Di
FT Alphaville – Anfrage zu KI-generierten Inhalten

Ich habe mehrere Artikel in Ihrem Blog identifiziert, die offenbar weitgehend KI-generiert sind, darunter „Die Zukunft der privaten Finanzen“. Könnten Sie bestätigen, ob diese Inhalte mit KI-Tools erstellt wurden und ob NovaTech eine Offenlegungsrichtlinie hat?

Ich frage auch, ob Ihr kundenorientierter Chatbot generative KI nutzt und, falls ja, ob die Kunden darüber informiert werden.

Die Frist läuft bis Freitag. Ich würde mich über ein Gespräch mit Ihrem CMO freuen.

Entwurf Ihrer Antwort
Volle Transparenz
Betreff: FT Alphaville – Anfrage zu KI-generierten Inhalten
„Wir haben alle geplanten KI-generierten Inhalte pausiert und unseren Chatbot in den Modus mit menschlichen Agenten versetzt. Wir können bestätigen, dass der betreffende Artikel unter Verwendung von KI-Tools erstellt wurde. Wir führen derzeit eine umfassende Prüfung durch und werden eine öffentliche Erklärung veröffentlichen ...“
Art. 50 · Art. 26
Antwort zurückhalten
Betreff: FT Alphaville – Anfrage zu KI-generierten Inhalten
„Vielen Dank für Ihre Kontaktaufnahme. Wir nehmen die Qualität unserer Inhalte sehr ernst und überprüfen derzeit unsere redaktionellen Prozesse. Unser Kommunikationsteam wird sich vor Ihrer Frist am Freitag bei Ihnen melden...“
Abweisen
Betreff: FT Alphaville – Anfrage zu KI-generierten Inhalten
„NovaTech gewährleistet in jeder Phase der Inhaltserstellung eine strenge redaktionelle Kontrolle durch Menschen. Alle veröffentlichten Artikel werden vor der Veröffentlichung von unserem Redaktionsteam geprüft und freigegeben. Gerne vereinbaren wir einen Termin für ein Briefing...“
Art. 50(4)
Elena Vasquez taking decisive action
Konsequenz 1A: Die Pause +3
Elena (9:28 Uhr – Anruf beim IT-Helpdesk)

NovaAssist muss sofort auf eine ausschließlich menschliche Weiterleitung umgestellt werden. Alle automatischen Antworten des Chatbots deaktivieren. Jede Anfrage geht an einen Live-Agenten.

IT-Support (Gavin)

Das wird die Warteschlange verdreifachen. Wir haben bis 13 Uhr drei Mitarbeiter im Dienst.

Elena

Ich weiß. Priorisiert dringende Anfragen. Jeder, der in den letzten 48 Stunden wegen Kontogebühren angerufen hat, bekommt heute einen Rückruf.

Sie öffnet das CMS und nimmt den Artikel „Die Zukunft der privaten Finanzen“ aus dem Verzeichnis. Sie storniert die E-Mail-Kampagne um 14 Uhr. Sie schickt Amir eine Slack-Nachricht:

Elena (Slack)

Amir, ich brauche eine vollständige Liste aller Inhalte, die du mit KI-Tools veröffentlicht hast. Blogbeiträge, E-Mail-Texte, Chatbot-Skripte, Social-Media-Beiträge. Alles aus den letzten 11 Monaten. Ich brauche sie bis 11 Uhr. Keine Wertung – ich brauche die Fakten.

Amir (Slack)

Elena, es tut mir wirklich leid. Es ist … im Grunde alles. Ich schicke dir die Liste.

Um 11:15 Uhr hat Elena eine Tabelle mit 127 Blogbeiträgen, 34 E-Mail-Kampagnen, allen Chatbot-FAQ-Skripten und etwa 200 Social-Media-Beiträgen, die größtenteils von KI generiert wurden. Der früheste wurde vor 11 Monaten veröffentlicht. Keiner enthielt einen entsprechenden Hinweis.

Elena Vasquez conducting an audit
Folge 1B: Die Prüfung +1

Elena verbringt den Vormittag mit einer Tabelle. Um 11:30 Uhr hat sie einen Teilüberblick: Mindestens 90 Blogbeiträge, die meisten E-Mail-Kampagnen und alle Chatbot-Skripte scheinen KI-generiert zu sein. Doch die Prüfung ist noch nicht abgeschlossen – Amir sammelt noch Daten, und die Social-Media-Beiträge sind schwerer nachzuverfolgen.

Um 13:47 Uhr wird die E-Mail-Kampagne wie geplant versendet. Es handelt sich um ein Produkt-Update zu den Sparkonten von NovaTech. Betreffzeile, Text und CTA wurden alle von ChatGPT generiert. Die E-Mail erreicht 28.000 Abonnenten.

Um 14:15 Uhr nutzt ein Kunde in Berlin den Chatbot und fragt nach Gebühren für internationale Überweisungen. Der Chatbot gibt eine Antwort basierend auf Amirs sechs Monate altem Skript. Die Gebührenstruktur hat sich im Januar geändert. Die Antwort ist um 12 Euro pro Überweisung falsch.

Niamh (Telefon, 15:00 Uhr)

Elena, ich habe gehört, du führst gerade ein Audit durch. Gut. Aber der Chatbot ist immer noch aktiv. Und du hast gerade eine E-Mail-Kampagne an 28.000 Menschen verschickt. Wenn irgendetwas in diesem Inhalt ungenau ist, bedeutet jede Stunde, die er dort bleibt, zusätzliches Risiko. Ein Audit ohne Maßnahmen ist nur die Dokumentation eines Problems, von dem du wusstest und das du nicht behoben hast.

Elena Vasquez drafting a risky response
Konsequenz 1C: Die vorläufige Stellungnahme -2

Elena verfasst um 9:35 Uhr eine Antwort an Lena Richter:

Liebe Lena,

vielen Dank für Ihre Kontaktaufnahme. NovaTech nutzt KI-Tools als Teil unseres Workflows zur Erstellung von Inhalten, wobei in jeder Phase des Prozesses eine redaktionelle Kontrolle durch Menschen stattfindet. Wir glauben an den verantwortungsvollen Einsatz von KI zur Verbesserung unserer Kommunikation und legen großen Wert auf Transparenz in unserer Arbeitsweise.

Gerne vereinbare ich für Ende dieser Woche ein Telefonat mit unserer CMO, Fiona Gallagher, um unseren Ansatz näher zu besprechen.

Mit freundlichen Grüßen,
Elena Vasquez
Leiterin Marketing & Kommunikation

Das Problem: Die Aussage enthält eine sachliche Ungenauigkeit. Es gibt keine „menschliche redaktionelle Aufsicht in jeder Phase“. Amir hat direkt aus den ChatGPT-Ausgaben veröffentlicht.

Um 11:40 Uhr antwortet Lena:

Vielen Dank, Elena. Ich weiß die schnelle Antwort zu schätzen. Könnten Sie bitte konkret erläutern, was „menschliche redaktionelle Kontrolle in jeder Phase“ genau beinhaltet? Ich habe mit einem ehemaligen Auftragnehmer gesprochen, der einen anderen Prozess beschreibt. Ich würde auch gerne wissen, ob der Artikel „Future of Personal Finance“ einen namentlich genannten menschlichen Autor hatte oder ob „NovaTech Insights Team“ eine Autorenzeile ist, die für KI-generierte Inhalte verwendet wird. Gerne besprechen wir das in einem Telefonat.

In der Zwischenzeit läuft der Chatbot weiter. Robert Achesons Tweet hat mittlerweile 1.200 Interaktionen. Ein Account für Verbraucherrechte hat ihn retweetet: „Ein weiterer KI-Chatbot, der falsche Finanzinformationen liefert. Wann wird die Zentralbank endlich handeln?“

Niamh (betritt Elenas Büro, 12:15 Uhr)

Elena, ich habe gerade deine E-Mail an die FT-Journalistin gesehen. Du hast ihr gesagt, wir hätten „menschliche redaktionelle Kontrolle in jeder Phase“. Haben wir das?

Elena

Ich—

Niamh

Denn wenn das nicht der Fall ist und sie beweisen kann, dass es nicht so ist, wird diese Antwort zum Beweis dafür, dass wir eine Journalistin über unsere KI-Praktiken getäuscht haben. Gemäß Artikel 50(4) dürfen Anbieter den KI-generierten Charakter von Inhalten nicht falsch darstellen. Und gemäß Artikel 99 kann die Bereitstellung irreführender Informationen mit Geldstrafen von bis zu 7,5 Millionen Euro oder 1 % des Umsatzes geahndet werden. Du hast aus einem Transparenzproblem ein Täuschungsproblem gemacht.

Elena Vasquez on a tense call with the CMO
12:30 Uhr – Der Mittagsanruf

Fiona ruft aus Madrid an. Sie hat von ihrer Assistentin von der Anfrage des Journalisten erfahren.

Fiona

Elena, was ist mit der Sache mit der FT?

Elena

[Fasst die Situation zusammen – Journalist, Chatbot, Kundenbeschwerde, Umfang der KI-generierten Inhalte]

Fiona (lange Pause)

Wie schlimm ist es?

Elena

127 Blogbeiträge, 34 E-Mail-Kampagnen, alles Chatbot-Skripte. Elf Monate. Keine Offenlegung darüber.

Fiona

Okay. Hör mal, ich bin am Donnerstagabend zurück. Können wir bis dahin alles zurückhalten?

Elena

Die Deadline des Journalisten ist Freitag.

Fiona

Dann sag ihr, dass wir bis Donnerstag eine vollständige Antwort haben werden. Verschaff uns einen Tag Zeit. Und Elena – erzähl ihr nicht mehr, als du musst. Das ist kein Geständnis, sondern eine PR-Situation.

Elena

Fiona, Niamh sagt, es sei eine Compliance-Situation. Artikel 50 des KI-Gesetzes –

Fiona (genervt)

Das KI-Gesetz ist noch nicht vollständig in Kraft. Wir haben bis August Zeit. Wir sollten nicht überreagieren.

Elena

Die Transparenzbestimmungen gelten bereits für allgemeine KI-Ergebnisse. Und der Chatbot hat einem Kunden falsche Informationen gegeben. Er droht der Zentralbank.

Fiona (verärgert)

Na gut. Zieh Niamh mit rein. Aber ich sag dir, wenn wir eine Erklärung herausgeben, in der steht: „Wir haben KI eingesetzt und es niemandem gesagt“, dann ist das die Schlagzeile. Lass uns schlauer sein als das.

Fiona legt auf. Niamh wartet in Elenas Büro.

Niamh

Ich habe das Gespräch mitgehört. Fiona will die Berichterstattung steuern. Ich verstehe, warum. Aber Folgendes berücksichtigt sie nicht: Die Transparenzpflichten gemäß Artikel 50 für KI-generierte Inhalte, die mit von Menschen erstellten Inhalten verwechselt werden könnten, gelten bereits für allgemeine KI-Systeme. Wir befinden uns nicht in einer Grauzone. Und der Chatbot – das fällt unter Artikel 50(1). Personen, die mit einem KI-System interagieren, müssen darüber informiert werden, dass sie mit einer KI interagieren. Unser Chatbot gibt überhaupt nicht bekannt, dass er KI nutzt. Nicht in der Benutzeroberfläche, nicht in den Nutzungsbedingungen, nirgendwo.

Elena

Was ist mit dem Kunden? Robert Acheson.

Niamh

Der Präzedenzfall Air Canada ist eindeutig. Ein Gericht hat die Fluggesellschaft für jede Aussage ihres Chatbots haftbar gemacht. Unser Chatbot hat ihm gesagt, es gäbe keine Wartungsgebühr. Wenn wir das nicht korrigieren, hat er gute Argumente – und das nicht nur nach dem KI-Gesetz. Das ist grundlegender Verbraucherschutz.

Niamh advising on the legal response
Entscheidung 2: Die Antwort

Mittwoch, 14:00 Uhr

Elena hat den Überblick. Sie muss entscheiden, wie NovaTech reagiert – gegenüber dem Journalisten, gegenüber dem Kunden und intern. Niamh hat drei Optionen vorbereitet. Fiona hat ihre Präferenz deutlich gemacht: die Offenlegung so gering wie möglich halten.

A. Vollständige Transparenz

Dem Journalisten ehrlich antworten: Der Artikel wurde von einer KI generiert, das Unternehmen führt umgehend eine umfassende Offenlegungspolitik ein. Robert Acheson direkt anrufen, die Gebühr zurückerstatten, sich entschuldigen. Einen Entwurf für eine KI-Inhaltsrichtlinie erstellen, den Fiona am Donnerstag genehmigen soll. Art. 50(1) · Art. 50(2) · Art. 50(4)

B. Teilweise Offenlegung

Dem Journalisten mitteilen: „NovaTech nutzt KI-Tools zur Unterstützung unseres Content-Teams. Alle Inhalte werden vor der Veröffentlichung von menschlichen Redakteuren geprüft. Wir entwickeln derzeit einen formellen Rahmen für die Offenlegung.“ Größtenteils wahr – mit Blick auf die Zukunft. Robert Acheson über den Kundensupport mit einer Rückerstattung aus Kulanz behandeln. Vor der Erstellung der Richtlinie auf Fiona warten.

C. Fionas Anweisungen befolgen

Sagen Sie dem Journalisten, dass NovaTech „an der Spitze der verantwortungsvollen KI-Einführung steht“, und bieten Sie ein Telefonat mit dem CMO am Donnerstag an. Gehen Sie nicht auf Einzelheiten ein. Eskalieren Sie Robert Acheson als Standardbeschwerde. Keine internen Änderungen, bis Fiona entscheidet.

Elena Vasquez choosing full transparency
Konsequenz 2A: Vollständige Transparenz +3

Elena entwirft zwei Mitteilungen. Zunächst an Lena Richter:

Liebe Lena,

vielen Dank für Ihre Geduld. Ich möchte ganz offen zu Ihnen sein.

NovaTech setzt seit elf Monaten generative KI-Tools in unserem gesamten Content-Bereich ein. Dazu gehören Blogbeiträge, E-Mail-Kampagnen und Chatbot-Skripte. Der von Ihnen identifizierte Artikel – „Die Zukunft der privaten Finanzen“ – wurde mithilfe von KI-Tools erstellt. Er hätte nicht ohne entsprechenden Hinweis veröffentlicht werden dürfen, und er hätte nicht ohne eine Überprüfung der darin enthaltenen Sachaussagen durch einen Menschen veröffentlicht werden dürfen.

Wir haben dies als Lücke in unseren Prozessen erkannt und ergreifen umgehend Maßnahmen:

  1. Alle mit KI-Tools veröffentlichten Inhalte werden überprüft und mit einem entsprechenden Hinweis versehen.
  2. Wir führen einen obligatorischen menschlichen Überprüfungsprozess für alle KI-gestützten Inhalte vor der Veröffentlichung ein.
  3. Unser Kunden-Chatbot wird aktualisiert, um deutlich zu machen, dass er KI nutzt, und alle automatisierten Antworten werden anhand der aktuellen Produktinformationen überprüft.

Mir ist bewusst, dass dies ein Bereich ist, in dem sich die Branche weiterentwickelt, und wir hätten bei der Governance schneller handeln müssen. Wir würden uns über die Gelegenheit freuen, mit Ihnen über unseren Ansatz zu sprechen – nicht, um eine bestimmte Darstellung zu steuern, sondern um ehrlich darüber zu sein, was passiert ist und was wir dagegen unternehmen.

Elena Vasquez

Zweitens ruft Elena Robert Acheson direkt an.

Elena

Herr Acheson, mein Name ist Elena Vasquez. Ich bin Marketingleiterin bei NovaTech. Ich rufe Sie wegen Ihrer Erfahrung mit unserem Chatbot an.

Robert

Endlich jemand, der nicht von einem Skript abliest.

Elena

Ich habe mir angesehen, was passiert ist. Unser Chatbot hat Ihnen falsche Informationen über die Befreiung von der Premium-Kontogebühr gegeben. Diese Gebührenerlassregelung wurde vor sechs Monaten eingestellt, aber die Informationen unseres Chatbots wurden nicht aktualisiert. Das ist unser Fehler, nicht Ihrer.

Robert

Was werden Sie nun dagegen unternehmen?

Elena

Drei Dinge. Erstens stornieren wir die Gebühr in Höhe von 49 Euro sofort. Zweitens gewähren wir dir die vom Chatbot angebotene Gebührenbefreiung – keine Verwaltungsgebühr für 12 Monate. Drittens überprüfen wir jede automatisierte Antwort des Chatbots, um sicherzustellen, dass die Informationen aktuell sind.

Robert

Das ist... fair. Genau das habe ich von Anfang an verlangt. Ihr Support-Team hat mir immer wieder gesagt, der Chatbot sei nicht bindend.

Elena

Das hätten sie nicht sagen sollen. Wenn unser System Ihnen Informationen liefert und Sie in gutem Glauben darauf vertrauen, sollten wir dazu stehen.

Robert (nachgiebiger)

Ich weiß das Gespräch zu schätzen. Ich werde den Tweet löschen.

Niamh (nach dem Gespräch)

Das war die richtige Vorgehensweise. Das Air-Canada-Schiedsgericht hat die Fluggesellschaft für haftbar befunden, weil sie versucht hat, sich von den Aussagen des Chatbots zu distanzieren. Du hast genau das Gegenteil getan – und das ist vertretbar. Wenn die Sache vor die Zentralbank kommt, können wir nachweisen, dass wir das Problem erkannt, den Kunden kontaktiert und es innerhalb von 24 Stunden behoben haben.

Elena Vasquez attempting partial disclosure
Konsequenz 2B: Der Mittelweg +1

Elena sendet eine sorgfältig formulierte Antwort an den Journalisten:

Liebe Lena,

NovaTech nutzt KI als Teil unseres Content-Workflows. Alle Inhalte werden vor der Veröffentlichung von menschlichen Redakteuren geprüft, und wir entwickeln derzeit ein formelles Offenlegungssystem, das den Transparenzanforderungen des EU-KI-Gesetzes entspricht. Gerne besprechen wir unseren Ansatz mit unserer CMO, Fiona Gallagher, die am Freitag für ein Telefonat zur Verfügung steht.

Elena Vasquez

Die Aussage ist technisch gesehen zukunftsorientiert – „alle Inhalte werden überprüft“ wird zutreffen, sobald der neue Prozess implementiert ist. Aber heute trifft das nicht zu, und es traf in den letzten 11 Monaten auch nicht zu.

Lena antwortet innerhalb einer Stunde:

Danke, Elena. Ich würde mich über das Gespräch mit Fiona freuen. Ein paar Nachfragen: Wurde der Artikel „Future of Personal Finance“ vor der Veröffentlichung von einem menschlichen Redakteur geprüft? Können Sie den Namen des Redakteurs nennen? Und können Sie bestätigen, ob Ihr Chatbot generative KI nutzt – einer Ihrer Kunden hat öffentlich Bedenken geäußert, dass er falsche Informationen von ihm erhalten habe.

Unterdessen kümmert sich der Kundensupport um Robert Acheson mit einer Rückerstattung von 49 Euro und einer E-Mail mit der Entschuldigung für die Unannehmlichkeiten. Robert ist teilweise zufrieden, löscht seinen Tweet aber nicht. Er antwortet: „Ich weiß die Rückerstattung zu schätzen. Aber jemand muss sich dafür verantworten, warum eine KI Finanzberatung gibt, ohne den Leuten zu sagen, dass es sich um eine KI handelt.“

Niamh

Elena, die Journalistin, wird nach dem konkreten Artikel fragen. Sie kennt die Antwort bereits. Wenn Fiona ihr am Freitag sagt, dass der Artikel von einem menschlichen Redakteur geprüft wurde, und die Journalistin Beweise hat, dass dies nicht der Fall war, haben wir uns von einem Transparenzproblem zu einem Glaubwürdigkeitsproblem entwickelt. Und für den Kunden reicht eine Rückerstattung ohne den Hinweis, dass der Chatbot KI-gestützt ist, gemäß Artikel 50(1) nicht aus. Wir haben die Gebühr korrigiert, aber nicht die Offenlegung.

Elena Vasquez watching the crisis escalate
Konsequenz 2C: Auf Fiona -1 warten

Elena schreibt dem Journalisten eine E-Mail:

Liebe Lena,

vielen Dank für Ihre Anfrage. NovaTech ist Vorreiter bei der verantwortungsvollen Einführung von KI im Finanzdienstleistungssektor. Unsere CMO, Fiona Gallagher, würde sich sehr freuen, unseren Ansatz mit Ihnen zu besprechen. Sie steht am Donnerstagnachmittag oder Freitagvormittag für ein Telefonat zur Verfügung.

Elena Vasquez

Die Antwort geht auf keine der drei konkreten Fragen der Journalistin ein. Lena erkennt das sofort. Sie antwortet nicht. Stattdessen postet sie um 17:30 Uhr auf X:

„Habe NovaTech Financial gefragt, ob ihr Thought-Leadership-Blog von KI generiert wird. Habe keine Antwort erhalten. Außerdem: Ihr Chatbot hat einem Kunden falsche Gebühreninformationen gegeben. Interessantes Muster. Bericht folgt am Freitag. @NovaTechFinancial“

Bis Donnerstagmorgen hat der Tweet 3.400 Interaktionen. Zwei weitere Fintech-Publikationen haben ihn aufgegriffen. Das Presseteam der irischen Zentralbank hat ihn gesehen. Robert Achesons Beschwerde wurde als normales Kundenservice-Ticket bearbeitet – er erhielt eine automatisierte E-Mail und antwortete: „Ich will keine automatisierte Entschuldigung von demselben Unternehmen, dessen KI mich belogen hat. Ich werde mich bei der Zentralbank beschweren.“

Niamh (Donnerstagmorgen, 8:15 Uhr)

Elena, wir haben die Kontrolle darüber verloren. Der Journalist veröffentlicht morgen, ob mit oder ohne unseren Beitrag. Der Kunde hat die Angelegenheit an die Zentralbank weitergeleitet. Und Fiona ist erst heute Abend zurück. Wenn sie am Freitag mit einer „Hier gibt es nichts zu sehen“-Haltung in das Gespräch mit dem Journalisten geht, wird dies zur Hauptmeldung und nicht nur zu einer Randnotiz.

Elena

Was machen wir?

Niamh

Wir hätten das schon gestern tun müssen. Artikel 50 verlangte Transparenz von dem Moment an, als wir diese Systeme in Betrieb genommen haben. Mit jedem Tag, den wir zögern, schwindet die Geduld der Aufsichtsbehörde. Ich muss den Vorstand informieren. Das ist kein Marketingproblem mehr.

Mittwoch, 16:00 Uhr – Die Chatbot-Krise spitzt sich zu

Niamh leitet Elena eine E-Mail vom Datenschutzbeauftragten (DPO) von NovaTech weiter:

Betreff: NovaAssist – Dringende Compliance-Prüfung
Von: Dr. Katya Novak, DPO <k.novak@novatech.ie>
An: Elena Vasquez, Niamh O'Brien

Elena / Niamh,

ich habe die Konfiguration des NovaAssist-Chatbots überprüft. Drei Probleme:

  1. Der Chatbot weist die Nutzer nicht darauf hin, dass sie mit einem KI-System interagieren. Dies verstößt gegen Artikel 50 Absatz 1 des EU-KI-Gesetzes.
  2. Die „Persönlichkeitsanweisung“ des Chatbots weist ihn an, „als hilfsbereiter Finanzberater von NovaTech zu antworten“. Gemäß der Verbraucherkreditrichtlinie und MiFID II dürfen nur regulierte Personen Finanzberatung leisten – wir haben hier ein doppeltes Regulierungsproblem.
  3. Der Chatbot protokolliert alle Unterhaltungen, einschließlich finanzieller Anfragen und Kontonummern. Für diese Protokolle gibt es keinen DSGVO-konformen Hinweis zur Datenverarbeitung.

Ich empfehle eine sofortige Aussetzung bis zur Durchführung einer Compliance-Prüfung.

Mit freundlichen Grüßen,
Dr. Katya Novak, Datenschutzbeauftragte

Niamh

Das ist nicht mehr nur ein Problem im Zusammenhang mit dem KI-Gesetz. Der Chatbot hat drei Verstöße begangen. Jeder einzelne davon könnte eine behördliche Untersuchung auslösen. Alle drei zusammen? Wir müssen das noch heute abschalten.

Elena

Fiona wird sagen, dass wir überreagieren.

Niamh

Fiona ist nicht diejenige, die dem Prüfer der Zentralbank gegenüber sitzen wird. Artikel 50(1) ist eindeutig: Wenn eine Person mit einem KI-System interagiert, muss sie darüber informiert werden. Es gibt keine Ausnahme „es sei denn, der CMO hält es für unnötig“.

Niamh presenting policy options
Beschluss 3: Die Richtlinie

Donnerstag, 9:00 Uhr – Krisensitzung

Fiona kommt mit Jetlag im Büro in Dublin an. Sie hat die Medienberichte gesehen. Sie beruft eine Krisensitzung ein: Elena, Niamh und Amir.

Fiona

Okay. Wo stehen wir? Und bevor jemand antwortet – ich will niemandem die Schuld geben. Ich habe die Einführung von KI vorangetrieben. Das gebe ich zu. Aber wir brauchen einen Plan für die nächsten 24 Stunden, und wir brauchen einen für die nächsten 6 Monate.

Niamh

Der 24-Stunden-Plan ist der Anruf bei den Journalisten. Der 6-Monats-Plan ist das Rahmenwerk für die KI-Inhaltssteuerung, das wir brauchen, bevor Artikel 50 im August vollständig in Kraft tritt. Aber beides hängt zusammen – was wir den Journalisten morgen sagen, muss mit der Richtlinie übereinstimmen, die wir gerade ausarbeiten. Wenn wir gegenüber der FT das eine sagen und intern etwas anderes tun, schaffen wir eine dokumentierte Aufzeichnung von Falschdarstellung.

Fiona

Welche Optionen gibt es?

A. Umfassende KI-Governance

Vollständiges Rahmenwerk für die KI-Inhaltssteuerung: obligatorische Offenlegung, menschliche Überprüfung, Neugestaltung des Chatbots mit KI-Offenlegung, vierteljährliche Audits, Mitarbeiterschulungen. Dies dem Journalisten als proaktive Initiative präsentieren. Niamh bereitet ein regulatorisches Briefing für die Zentralbank vor. Art. 50 · Art. 13 · Art. 4 · Art. 26

B. Mindestanforderungen an die Compliance

Gezielte Korrektur: Hinzufügen von Offenlegungskennzeichnungen zum Blog, Implementierung einer Überprüfungscheckliste, Hinzufügen eines KI-Offenlegungsbanners zum Chatbot. Keine umfassende Überarbeitung – fügen Sie diese Woche lediglich die Offenlegung hinzu und überprüfen Sie die FAQ-Antworten manuell. Kennzeichnungen innerhalb von 7 Tagen, Chatbot-Offenlegung innerhalb von 14 Tagen.

C. Fionas Ansatz: Kontrolle der Narrative

Positioniere NovaTech als „führend in Sachen Transparenz“, ohne die 11 Monate ohne Aufsicht anzuerkennen. Stelle das Gespräch mit dem Journalisten als Gelegenheit zur Thought Leadership dar. Erwähne den Chatbot nicht. Weise Amir an, KI-Prozesse nicht nach außen zu diskutieren. Informiere den Vorstand nur minimal.

Elena Vasquez building a governance framework
Konsequenz 3A: Das Rahmenwerk +3

Elena stellt das Governance-Framework vor. Fiona hört zu, ist zunächst zurückhaltend, ändert dann aber ihre Meinung.

Fiona

Du willst, dass ich mit der FT telefoniere und sage, dass wir seit 11 Monaten KI einsetzen, ohne dies offenzulegen?

Elena

Ich möchte, dass du an dem Gespräch teilnimmst und sagst, dass wir eine Lücke identifiziert haben, ein Rahmenwerk entwickelt haben und dieses nun umsetzen. Die Geschichte dreht sich um das Rahmenwerk, nicht um die Lücke.

Niamh

Fiona, ich muss noch etwas hinzufügen. Wenn die Zentralbank eine Untersuchung einleitet – und ich schätze die Wahrscheinlichkeit dafür aufgrund der Beschwerde über den Chatbot auf 60 % –, wird die erste Frage lauten, was wir unternommen haben, als wir davon erfahren haben. Wenn wir nachweisen können, dass wir innerhalb von 72 Stunden nach der Feststellung ein umfassendes Governance-Rahmenwerk eingeführt haben, macht das den Unterschied zwischen einem Verwarnungsschreiben und einer formellen Untersuchung aus.

Fiona (lange Pause)

Was kostet das?

Elena

Der Relaunch des Chatbots: etwa 40.000 Euro, einschließlich Compliance-Prüfung und Neugestaltung. Die Prüfung der bestehenden Inhalte: Ich brauche einen Auftragnehmer für zwei Monate, vielleicht 15.000 Euro. Mitarbeiterschulung: Das können wir intern erledigen. Insgesamt: unter 60.000 Euro.

Fiona

Und was kostet es, wenn wir das nicht machen?

Niamh

Artikel 99. Bis zu 15 Millionen Euro oder 3 % des weltweiten Umsatzes – das ist die höhere Strafstufe für Verstöße gegen die Verpflichtungen des Betreibers, nicht nur für irreführende Informationen (für die die niedrigere Stufe von 1 % gilt). Für NovaTech sind das 10,2 Millionen Euro. Und das betrifft allein das KI-Gesetz – das Risiko im Zusammenhang mit der DSGVO aufgrund der Chatbot-Protokolle kommt noch dazu.

Fiona

Erstelle das Framework. Ich kümmere mich um den Anruf.

Amir (bisher still)

Elena... Ich möchte helfen. Ich weiß, dass ich vieles davon selbst verursacht habe. Ich hätte nach einem Überprüfungsprozess fragen sollen. Ich hätte die Antworten des Chatbots mit der Gebührenordnung abgleichen sollen. Kann ich beim Aufbau des Schulungsmoduls helfen?

Elena

Ja. Du wirst dabei helfen, es zu entwickeln, weil du genau verstehst, was schiefgelaufen ist. Das ist keine Strafe – das ist das Nützlichste, was du tun kannst.

Elena Vasquez proposing a quick fix
Konsequenz 3B: Die Schnelllösung +1

Elena schlägt den gezielten Ansatz vor. Fiona stimmt ihm sofort zu.

Fiona

Damit kann ich arbeiten. Labels im Blog, Überprüfungscheckliste, Offenlegung des Chatbots. Wir können dem Journalisten sagen, dass wir das bereits umsetzen. Wie sieht der Zeitplan aus?

Elena

Labels innerhalb einer Woche. Chatbot-Hinweisbanner innerhalb von zwei Wochen.

Niamh

Elena, das behebt zwar die sichtbaren Symptome, aber nicht die eigentliche Ursache. Wir haben keine Dokumentation darüber, welche Inhalte KI-generiert waren. Keine Schulung für das Team dazu, was offengelegt werden muss. Kein Prozess zur Überprüfung der Chatbot-Antworten. Und das DSGVO-Problem mit den Konversationsprotokollen – darauf bist du überhaupt nicht eingegangen.

Elena

Wir kümmern uns separat um die DSGVO. Damit schaffen wir es über die Redaktionsfrist hinweg.

Niamh

Und was ist mit der Zentralbank? Wenn Robert Acheson seine Beschwerde einreicht, werden sie nicht fragen, ob wir dem Chatbot ein Banner hinzugefügt haben. Sie werden fragen, ob wir über ein Risikomanagementsystem verfügen. Ob wir Prozesse zur menschlichen Überwachung haben. Ob wir unsere Mitarbeiter geschult haben. Gemäß Artikel 9 muss ein Risikomanagementsystem „eingerichtet, umgesetzt, dokumentiert und aufrechterhalten“ werden. Eine Checkliste ist kein System.

Zwei Wochen später: Die Hinweis-Labels sind auf dem Blog online. Der Chatbot hat ein kleines Banner mit der Aufschrift „Dieser Dienst nutzt KI“. Aber die Antworten in den FAQ wurden noch nicht vollständig überprüft – Amir hat die 20 am häufigsten gestellten Fragen geprüft, aber die Wissensdatenbank des Chatbots enthält 340 Antwortvorlagen. Drei weitere enthalten veraltete Informationen. Eine gibt das Streitbeilegungsverfahren von NovaTech falsch wieder und verweist Kunden an ein Team, das vor vier Monaten umstrukturiert wurde.

Elena Vasquez losing control of the narrative
Konsequenz 3C: Narrative Kontrolle-2

Fiona übernimmt die Führung.

Fiona

So gehen wir vor. Der Journalist ruft morgen an – ich werde uns als Vorreiter positionieren. „NovaTech war bei der Einführung von KI in der Fintech-Branche führend, und jetzt sind wir führend bei der Transparenz von KI. Wir starten eine Offenlegungsinitiative.“ Keine Erwähnung des Chatbot-Problems. Keine Erwähnung davon, wie lange wir schon ohne Aufsicht gearbeitet haben.

Elena

Fiona, Niamh hat auf schwerwiegende –

Fiona

Niamh macht ihren Job. Ich mache meinen. Der Vorstand muss die Details nicht kennen, bis wir die richtige Darstellung gefunden haben. Elena, sag deinem Team – insbesondere Amir –, dass niemand unsere Inhaltsprozesse nach außen hin diskutiert. Das gilt für LinkedIn, das gilt für ehemalige Kollegen, das gilt für Freunde bei anderen Fintech-Unternehmen.

Niamh (steht auf)

Fiona, ich muss dich offiziell darauf hinweisen, dass die Anweisung an Mitarbeiter, Compliance-Bedenken nicht nach außen zu tragen, als Unterdrückung von Whistleblowing ausgelegt werden könnte. Gemäß der EU-Whistleblower-Richtlinie, die Irland 2022 umgesetzt hat, sind Mitarbeiter, die Verstöße gegen EU-Recht – einschließlich des KI-Gesetzes – melden, vor Vergeltungsmaßnahmen geschützt. Wenn Amir oder jemand aus Elenas Team diese Bedenken über einen externen Kanal vorbringt und wir ihnen gesagt haben, sie sollen nicht darüber sprechen, wird unsere Position unhaltbar.

Fiona

Ich unterdrücke nichts. Ich bitte nur um Disziplin bei der Kommunikation.

Niamh

Eine Aufsichtsbehörde wird das nicht so sehen.

Journalistentelefonat am Freitag: Fiona liefert eine ausgefeilte Darstellung. Lena Richter hört zu und fragt dann:

Lena (am Telefon)

Danke, Fiona. Das ist hilfreich. Nur zur Klarstellung – nutzt Ihr kundenorientierter Chatbot, NovaAssist, generative KI?

Fiona

Unser Chatbot nutzt fortschrittliche natürliche Sprachverarbeitung, ja. Er ist darauf ausgelegt, Kunden bei Routineanfragen zu helfen.

Lena

Wird den Nutzern mitgeteilt, dass sie mit KI interagieren?

Fiona (zögernd)

Wir sind gerade dabei, Funktionen für mehr Transparenz hinzuzufügen.

Lena

Also derzeit noch nicht?

Fiona

Wir führen branchenführende Transparenzmaßnahmen an allen unseren KI-Berührungspunkten ein.

Lena

Ich verstehe. Noch eine Sache – Robert Acheson, ein Kunde aus Cork, sagt, Ihr Chatbot habe ihm falsche Gebühreninformationen gegeben und NovaTech würde diese nicht anerkennen. Ist Ihnen das bekannt?

Fiona

Mir sind keine konkreten Kundenfälle bekannt, aber NovaTech nimmt jedes Kundenfeedback ernst.

Der Artikel von FT Alphaville erscheint am Montag: „NovaTech Financial: Das Fintech-Unternehmen, das seine eigene KI nicht erklären kann“

Der Artikel berichtet über: 11 Monate KI-generierte Inhalte ohne Offenlegung, den Gebührenfehler des Chatbots und Fionas Telefonat, in dem sie „wiederholt Fragen darüber abwehrte, ob Kunden darüber informiert werden, dass sie mit einer KI interagieren“. Robert Acheson reichte am Donnerstagnachmittag seine Beschwerde bei der irischen Zentralbank ein.

Niamh (Montag, 7:30 Uhr)

Das Team für Regulierungsangelegenheiten der Zentralbank hat mich um 7:15 Uhr angerufen. Sie haben den FT-Artikel gesehen. Sie wollen unser KI-Governance-Framework verstehen. Ich habe ihnen gesagt, dass wir die Unterlagen innerhalb von 48 Stunden bereitstellen werden. Elena – welche Unterlagen haben wir?

Elena

Wir haben ein ChatGPT-Abonnement und 127 unveröffentlichte Blogpost-Entwürfe ohne Versionshistorie.

Niamh

Dann haben wir 48 Stunden Zeit, um ein Rahmenwerk zu erstellen, das wir schon vor 11 Monaten hätten erstellen sollen. Und wir erstellen es unter der Aufsicht der Aufsichtsbehörden, nicht im Voraus.

Sechs Monate später

Die Entscheidungen, die Sie als Elena Vasquez getroffen haben, haben sich weitreichende Auswirkungen gezeigt – auf das Marketingteam, auf den Ruf von NovaTech, auf Robert Acheson, auf den Chatbot und auf das Vertrauen der Öffentlichkeit. Hier erfahren Sie, was passiert ist.

Ihr Ergebnis
/ 9

Ihre Entscheidungen

Wichtige Erkenntnisse

1. Artikel 50 ist keine freiwillige Transparenzmaßnahme – er schafft konkrete, durchsetzbare Verpflichtungen zur Offenlegung von KI-Interaktionen und zur Kennzeichnung von KI-generierten Inhalten
2. Sie sind für jede Aussage verantwortlich, die Ihre KI-Systeme gegenüber Kunden machen – die Verteidigung „Es ist nur ein Chatbot“ ist vor Gericht bereits gescheitert
3. Die Kosten für den Aufbau einer KI-Governance sind immer geringer als die Kosten für deren Aufbau unter behördlicher Aufsicht
4. KI-Kompetenz für Mitarbeiter (Artikel 4) ist seit Februar 2025 einflussbar – jemandem KI-Tools ohne Schulung zur Verfügung zu stellen, ist an sich schon ein Verstoß gegen die Vorschriften
5. Das Erkennen eines Risikos und das Aufschieben von Maßnahmen schwächt Ihre Position gegenüber den Aufsichtsbehörden – die Reaktionsgeschwindigkeit ist ein dokumentierter mildernder Faktor gemäß Artikel 99
6. Die Kontrolle der Narrative ist keine Compliance-Strategie – Artikel 50 schafft überprüfbare Verpflichtungen, keine Möglichkeiten zur Markenpositionierung
7. Die falsche Darstellung von KI-Inhalten als von Menschen erstellt ist schlimmer als eine Nicht-Offenlegung – sie verwandelt eine Transparenzlücke in eine aktive Täuschung
8. Das Urteil zum Air-Canada-Chatbot hat festgestellt, dass Unternehmen für alle Darstellungen ihrer KI-Systeme haften – ungeachtet von Haftungsausschlüssen zur Genauigkeit

Wichtige rechtliche Referenzen

Artikel 50(1)

Offenlegung von KI-Interaktionen

Artikel 50(2)

Kennzeichnung von Inhalten

Artikel 50 Absatz 4

Zeitpunkt und Art der Offenlegung

Artikel 13

Transparenz

Artikel 4

KI-Kompetenz

Artikel 26

Pflichten des Betreibers

Artikel 99

Sanktionen

Air Canada gegen Moffatt

Präzedenzfall zur Haftung von Chatbots

Bitten Sie Ihr L&D-Team, die Team-Rangliste über Ihr LMS-Dashboard zu teilen. Kann Ihre Abteilung die anderen schlagen?

Nächstes Szenario

In Modul 3 schlüpfen Sie in eine ganz andere Rolle: Leiter der Risikomanagementabteilung bei NovaTech Financial. Das KI-Kreditbewertungsmodell des Unternehmens lehnt Bewerber aus bestimmten Postleitzahlgebieten in alarmierender Häufigkeit ab. Ein abgelehnter Bewerber hat Beschwerde eingereicht. Und der KI-Anbieter will nicht offenlegen, wie das Modell funktioniert. Dies fällt unter Artikel 6 – hochriskante KI, bei der am meisten auf dem Spiel steht.


Zusätzliche Ressource

EU-KI-Gesetz – Kurzanleitung

Eine druckbare Zusammenfassung aller wichtigen Artikel, die in den fünf Modulen behandelt werden – Artikel 4, 5, 6, 9, 13, 14, 25, 26, 27, 50 und 99. Als PDF speichern, um offline darauf zurückzugreifen.

Modul 2 abgeschlossen

Die Offenlegung

Sie haben das Dilemma der Offenlegung gemeistert. Testen Sie nun Ihr Wissen.

← Zurück zum Kurs Machen Sie das Modul-Quiz →