Module 2

La Divulgation

Mercredi, 9h17 — Dublin

Elena Vasquez
Votre Rôle

Elena Vasquez

Directrice Marketing & Communications chez NovaTech Financial — une fintech européenne de taille moyenne, 1 200 employés, siège social à Dublin. Réglementée par la Banque centrale d'Irlande.

Vous arrivez mercredi matin pour trouver deux e-mails reçus pendant la nuit : l'un d'un journaliste du Financial Times, l'autre du Service Client concernant une plainte relative à un chatbot. Votre directeur marketing est injoignable jusqu'à midi. La publication des résultats du T2 est dans 9 jours.

Votre équipe publie du contenu généré par l'IA depuis 11 mois — sans politique de divulgation, sans processus de révision, ni trace documentaire.

Ce que vous devez savoir

La transparence de l'IA en vertu du Règlement sur l'IA de l'UE

Ce module évalue votre compréhension des situations dans lesquelles l'utilisation de l'IA doit être divulguée, et de la manière dont cette divulgation doit être effectuée. Voici les règles dont vous aurez besoin :

Article 50(1) — Divulgation relative aux chatbots

Lorsqu'une personne interagit avec un système d'IA, elle doit être informée qu'elle interagit avec une IA — au moment de l'interaction, et non enfouie dans les conditions générales. Cela s'applique aux chatbots, aux assistants virtuels et à toute IA qu'un utilisateur pourrait confondre avec un être humain.

Article 50(2) — Contenu généré par l'IA

Le contenu généré ou substantiellement modifié par une IA doit être étiqueté comme généré artificiellement. La publication d'articles de blog, de textes marketing ou de rapports rédigés par une IA sans divulgation enfreint cette obligation. La révision humaine ne supprime PAS l'exigence de divulgation.

Article 99 — Sanctions

Fournir des informations trompeuses sur l'utilisation de l'IA aux autorités : jusqu'à €7,5 M ou 1 % du chiffre d'affaires annuel. L'amende ne sanctionne pas l'utilisation de l'IA — elle sanctionne le fait de la dissimuler.

Principe clé

La transparence ne porte pas sur le fait que l'IA soit « bonne » ou « mauvaise ». Elle porte sur le droit du destinataire à être informé. Un client servi par un chatbot IA, un lecteur de contenu généré par une IA et un régulateur s'enquérant de votre utilisation de l'IA ont tous droit à une information exacte.

Objet : FT Alphaville — Demande relative au contenu généré par l'IA
De : Lena Richter <l.richter@ft.com>
À : NovaTech Communications <press@novatech.ie>
Date : Mardi, 23h47

Chère équipe Communications NovaTech,

Je rédige un article sur le contenu généré par IA dans le marketing des services financiers. J'ai identifié plusieurs articles sur votre blog qui semblent être en grande partie générés par IA, notamment « The Future of Personal Finance » (publié le 12 mars 2026). Pourriez-vous confirmer :

  1. Si cet article a été généré à l'aide d'outils d'IA ?
  2. Si NovaTech dispose d'une politique de divulgation pour le contenu généré par IA ?
  3. Si votre chatbot destiné aux clients (NovaAssist) utilise une IA générative, et si tel est le cas, si les clients en sont informés ?

Je travaille avec une échéance vendredi. Je serais ravie d'avoir une conversation avec votre directeur marketing.

Cordialement,
Lena Richter, FT Alphaville

Contexte

La journaliste a soumis l'article à trois outils de détection d'IA — tous l'ont signalé comme étant généré à plus de 90 % par IA. Elle a été alertée par un ancien contractuel de NovaTech qui a remarqué que la production du blog avait triplé après l'adoption des outils d'IA.

Le deuxième e-mail : le client Robert Acheson a utilisé le chatbot NovaAssist pour se renseigner sur la mise à niveau de son compte. Le chatbot lui a indiqué que le niveau premium n'avait « aucun frais de maintenance mensuel pendant les 12 premiers mois ». Cette exonération a été supprimée il y a 6 mois. Il s'est vu facturer 49 EUR.

Il a publié sur X : « Le chatbot IA de NovaTech m'a menti sur les frais. @CentralBankIE vous regardez ? » — 340 interactions et en hausse.

Elena Vasquez face à une décision urgente
Décision 1 : Le matin 9h22 · Délai journaliste : vendredi · Tweet d'Acheson : 340 interactions · Fiona injoignable jusqu'à midi
Reçu
Lena Richter, FT Alphaville 23h47 mar.
FT Alphaville — Demande concernant du contenu généré par IA

J'ai identifié plusieurs articles sur votre blog qui semblent être en grande partie générés par IA, notamment « L'avenir des finances personnelles ». Pourriez-vous confirmer si ce contenu a été produit à l'aide d'outils d'IA, et si NovaTech dispose d'une politique de divulgation ?

Je souhaite également savoir si votre chatbot destiné aux clients utilise de l'IA générative, et si c'est le cas, si les clients en sont informés.

Je travaille avec un délai au vendredi. Je serais ravie d'avoir un échange avec votre directeur marketing.

Rédigez votre réponse
Transparence totale
Re : FT Alphaville — Demande concernant du contenu généré par IA
« Nous avons suspendu tout contenu généré par IA planifié et avons basculé notre chatbot en mode agent humain. Nous pouvons confirmer que l'article en question a été produit à l'aide d'outils d'IA. Nous menons un audit complet et publierons une divulgation officielle… »
Art. 50 · Art. 26
Réponse d'attente
Re: FT Alphaville — Demande concernant le contenu généré par l'IA
« Merci de nous avoir contactés. Nous accordons une grande importance à la qualité du contenu et examinons actuellement nos processus éditoriaux. Notre équipe de communication vous contactera avant votre délai de vendredi... »
Esquiver
Re: FT Alphaville — Demande concernant le contenu généré par l'IA
« NovaTech maintient une supervision éditoriale humaine rigoureuse à chaque étape de la production de contenu. Tous les articles publiés sont examinés et approuvés par notre équipe éditoriale avant publication. Nous serions heureux d'organiser un entretien... »
Art. 50(4)
Elena Vasquez prenant des mesures décisives
Consequence 1A : La Pause +3
Elena (9h28 — Appel au support informatique)

Je dois faire basculer NovaAssist en routage humain uniquement, immédiatement. Toutes les réponses automatiques du chatbot doivent être désactivées. Chaque demande est transmise à un agent en direct.

Support informatique (Gavin)

Cela va tripler la file d'attente. Nous avons trois agents en poste jusqu'à 13h00.

Elena

Je sais. Priorisez les demandes urgentes. Toute personne ayant appelé au sujet des frais de compte au cours des dernières 48 heures doit être rappelée aujourd'hui.

Elle ouvre le CMS et dépublie l'article « Future of Personal Finance ». Elle annule la campagne e-mail de 14 h. Elle envoie un message Slack à Amir :

Elena (Slack)

Amir, j'ai besoin d'une liste complète de chaque contenu que vous avez publié à l'aide d'outils d'IA. Articles de blog, textes d'e-mails, scripts de chatbot, publications sur les réseaux sociaux. Tout ce qui date des 11 derniers mois. Il me la faut pour 11 h. Sans jugement — j'ai besoin des faits.

Amir (Slack)

Elena, je suis vraiment désolé. C'est… pratiquement tout. Je vous prépare la liste.

À 11 h 15, Elena dispose d'un tableur recensant 127 articles de blog, 34 campagnes e-mail, l'ensemble des scripts FAQ du chatbot, et environ 200 publications sur les réseaux sociaux dont le contenu était en grande partie généré par l'IA. La plus ancienne avait été publiée 11 mois auparavant. Aucune ne comportait la moindre mention de divulgation.

Elena Vasquez effectuant un audit
Conséquence 1B : L'audit +1

Elena passe la matinée sur une feuille de calcul. À 11h30, elle dispose d'une vue partielle : au moins 90 articles de blog, la plupart des campagnes d'e-mail et tous les scripts de chatbot semblent être générés par IA. Mais l'audit n'est pas terminé — Amir est encore en train d'extraire des données, et les publications sur les réseaux sociaux sont plus difficiles à retracer.

À 13h47, la campagne d'e-mail est envoyée comme prévu. Il s'agit d'une mise à jour produit sur les comptes d'épargne de NovaTech. L'objet, le corps du message et le bouton d'appel à l'action ont tous été générés par ChatGPT. Elle atteint 28 000 abonnés.

À 14h15, un client à Berlin utilise le chatbot et pose une question sur les frais de virement international. Le chatbot fournit une réponse basée sur le script vieux de six mois d'Amir. La structure tarifaire a changé en janvier. La réponse est erronée de 12 EUR par virement.

Niamh (téléphone, 15h00)

Elena, j'ai appris que vous effectuez un audit. Bien. Mais le chatbot est toujours en ligne. Et vous venez d'envoyer une campagne d'e-mail à 28 000 personnes. Si l'un de ces contenus est inexact, chaque heure qu'il passe en ligne représente une exposition supplémentaire. Un audit sans action n'est qu'une documentation d'un problème que vous connaissiez et n'avez pas résolu.

Elena Vasquez rédigeant une réponse risquée
Conséquence 1C : La déclaration d'attente -2

Elena rédige une réponse à Lena Richter à 9h35 :

Chère Lena,

Je vous remercie de nous avoir contactés. NovaTech utilise des outils d'IA dans le cadre de son processus de création de contenu, avec une supervision éditoriale humaine à chaque étape du processus. Nous croyons en l'utilisation responsable de l'IA pour améliorer nos communications, et nous nous engageons à faire preuve de transparence dans notre façon d'opérer.

Je serais heureuse d'organiser un appel avec notre directrice marketing, Fiona Gallagher, en fin de semaine afin de vous présenter notre approche plus en détail.

Cordialement,
Elena Vasquez
Directrice Marketing & Communications

Le problème : la déclaration contient une inexactitude factuelle. Il n'existe pas de « supervision éditoriale humaine à chaque étape ». Amir publie directement à partir des résultats de ChatGPT.

À 11h40, Lena répond :

Merci, Elena. J'apprécie la rapidité de votre réponse. Pourriez-vous préciser ce que recouvre concrètement la « supervision éditoriale humaine à chaque étape » ? J'ai discuté avec un ancien prestataire qui décrit un processus différent. Je souhaiterais également savoir si l'article « Future of Personal Finance » avait un auteur humain nommément désigné, ou si « NovaTech Insights Team » est une signature utilisée pour du contenu généré par IA. Je reste disponible pour en discuter par téléphone.

Pendant ce temps, le chatbot continue de fonctionner. Le tweet de Robert Acheson comptabilise désormais 1 200 interactions. Un compte dédié aux droits des consommateurs l'a retweeté : « Encore un chatbot IA qui donne de mauvaises informations financières. Quand la Banque centrale va-t-elle agir ? »

Niamh (entrant dans le bureau d'Elena, 12h15)

Elena, je viens de voir votre e-mail à la journaliste du FT. Vous lui avez dit que nous avons « une supervision éditoriale humaine à chaque étape ». Est-ce le cas ?

Elena

Je—

Niamh

Car si ce n'est pas le cas, et qu'elle peut le prouver, cette réponse devient la preuve que vous avez induit en erreur une journaliste sur nos pratiques en matière d'IA. En vertu de l'Article 50(4), les déployeurs ne doivent pas donner une fausse représentation de la nature générée par IA du contenu. Et en vertu de l'Article 99, la fourniture d'informations trompeuses peut entraîner des amendes allant jusqu'à 7,5 millions d'euros ou 1 % du chiffre d'affaires. Vous avez transformé un problème de transparence en problème de tromperie.

Elena Vasquez lors d'un appel tendu avec la directrice marketing
12h30 — L'appel de midi

Fiona appelle depuis Madrid. Elle a entendu parler de la demande de la journaliste par son assistante de direction.

Fiona

Elena, que se passe-t-il avec l'affaire du FT ?

Elena

[Résume la situation — la journaliste, le chatbot, la plainte du client, la portée du contenu généré par IA]

Fiona (long silence)

C'est grave à quel point ?

Elena

127 articles de blog, 34 campagnes e-mail, tous les scripts du chatbot. Onze mois. Aucune divulgation sur aucun d'eux.

Fiona

Bien. Écoutez, je rentre jeudi soir. Peut-on tout mettre en attente jusqu'à ce moment-là ?

Elena

La date limite de la journaliste est vendredi.

Fiona

Alors dites-lui que nous aurons une réponse complète d'ici jeudi. Gagnez-nous une journée. Et Elena — ne lui dites pas plus que nécessaire. Ce n'est pas une confession, c'est une situation de communication.

Elena

Fiona, Niamh dit que c'est une situation de conformité. L'Article 50 du Règlement sur l'IA de l'UE—

Fiona (irritée)

Le Règlement sur l'IA de l'UE n'est pas encore pleinement appliqué. Nous avons jusqu'en août. Ne surréagissons pas.

Elena

Les dispositions relatives à la transparence sont déjà en vigueur pour les contenus générés par les IA à usage général. Et le chatbot a fourni des informations erronées à un client. Il menace de saisir la Banque centrale.

Fiona (irritée)

Très bien. Faites intervenir Niamh. Mais je vous le dis, si nous publions un communiqué affirmant « nous avons utilisé l'IA sans en informer personne », c'est cela qui fera la une. Soyons plus intelligents que ça.

Fiona raccroche. Niamh attend dans le bureau d'Elena.

Niamh

J'ai entendu l'appel. Fiona souhaite maîtriser le récit. Je comprends pourquoi. Mais voici ce qu'elle ne prend pas en compte : les obligations de transparence de l'Article 50 concernant les contenus générés par l'IA susceptibles d'être confondus avec des contenus d'origine humaine sont déjà applicables aux systèmes d'IA à usage général. Nous ne sommes pas dans une zone grise. Et le chatbot — c'est l'Article 50(1). Les personnes interagissant avec un système d'IA doivent être informées qu'elles interagissent avec une IA. Notre chatbot ne divulgue pas du tout le recours à l'IA. Ni dans l'interface, ni dans les conditions d'utilisation, nulle part.

Elena

Et le client ? Robert Acheson.

Niamh

Le précédent Air Canada est sans ambiguïté. Un tribunal a tenu la compagnie aérienne responsable de chaque affirmation faite par son chatbot. Notre chatbot lui a indiqué qu'il n'y avait aucun frais d'entretien. Si nous ne régularisons pas la situation, il dispose d'arguments solides — et pas seulement au titre du Règlement sur l'IA de l'UE. Il s'agit d'une protection élémentaire du consommateur.

Niamh donnant des conseils sur la réponse juridique
Décision 2 : La Réponse

Mercredi 14h00

Elena a une vision complète de la situation. Elle doit décider comment NovaTech répond — au journaliste, au client, et en interne. Niamh a préparé trois options. Fiona a clairement exprimé sa préférence : minimiser la divulgation.

A. Transparence totale

Répondre honnêtement au journaliste : l'article a été généré par IA, l'entreprise met en place une politique de divulgation complète immédiatement. Appeler Robert Acheson directement, annuler les frais, présenter des excuses. Rédiger une politique sur le contenu IA à soumettre à Fiona pour approbation jeudi. Art. 50(1) · Art. 50(2) · Art. 50(4)

B. Divulgation partielle

Dire au journaliste : « NovaTech utilise des outils IA pour accompagner notre équipe de contenu. Tout le contenu est relu par des éditeurs humains avant publication. Nous élaborons un cadre de divulgation formel. » Globalement exact — pour l'avenir. Traiter la situation de Robert Acheson via le Service client avec un remboursement à titre de geste commercial. Attendre Fiona avant de créer une politique.

C. Suivre l'exemple de Fiona

Dire à la journaliste que NovaTech est « à la pointe de l'adoption responsable de l'IA » et proposer un appel avec la directrice marketing jeudi. Ne pas aborder les détails. Traiter la plainte de Robert Acheson comme une plainte standard. Aucune modification interne jusqu'à la décision de Fiona.

Elena Vasquez choisissant la transparence totale
Conséquence 2A : Transparence totale +3

Elena rédige deux communications. La première, à Lena Richter :

Chère Lena,

Je vous remercie de votre patience. Je souhaite être directe avec vous.

NovaTech utilise des outils d'IA générative dans l'ensemble de sa fonction contenu depuis 11 mois. Cela inclut des articles de blog, des campagnes d'e-mailing et des scripts de chatbot. L'article que vous avez identifié — « The Future of Personal Finance » — a été généré à l'aide d'outils d'IA. Il n'aurait pas dû être publié sans mention de divulgation, ni sans révision humaine de ses affirmations factuelles.

Nous avons identifié cela comme une lacune dans nos processus et prenons des mesures immédiates :

  1. L'ensemble des contenus publiés à l'aide d'outils d'IA est en cours de révision et comportera une mention de divulgation appropriée.
  2. Nous mettons en place un processus de révision humaine obligatoire pour tous les contenus assistés par l'IA avant leur publication.
  3. Notre chatbot client est mis à jour afin d'indiquer clairement qu'il utilise l'IA, et toutes les réponses automatisées sont vérifiées par rapport aux informations actuelles sur les produits.

Je reconnais qu'il s'agit d'un domaine en pleine évolution pour le secteur, et nous aurions dû progresser plus rapidement en matière de gouvernance. Nous serions heureux de pouvoir vous parler de notre approche — non pas pour maîtriser un récit, mais pour être honnêtes sur ce qui s'est passé et sur ce que nous faisons pour y remédier.

Elena Vasquez

Ensuite, Elena appelle Robert Acheson directement.

Elena

Mr. Acheson, je m'appelle Elena Vasquez. Je suis Directrice Marketing chez NovaTech. Je vous appelle au sujet de votre expérience avec notre chatbot.

Robert

Enfin quelqu'un qui ne lit pas un script.

Elena

J'ai examiné ce qui s'est passé. Notre chatbot vous a communiqué des informations incorrectes concernant la dispense de frais pour le compte premium. Cette dispense de frais a été supprimée il y a six mois, mais les informations de notre chatbot n'avaient pas été mises à jour. C'est notre erreur, pas la vôtre.

Robert

Et qu'allez-vous faire à ce sujet ?

Elena

Trois choses. Premièrement, nous annulons immédiatement le prélèvement de 49 EUR. Deuxièmement, nous honorons la dispense de frais que le chatbot vous a proposée — aucun frais de gestion pendant 12 mois. Troisièmement, nous passons en revue toutes les réponses automatisées du chatbot pour nous assurer que les informations sont à jour.

Robert

C'est... juste. C'est ce que je demandais depuis le début. Votre équipe d'assistance n'arrêtait pas de me dire que le chatbot n'avait pas force obligatoire.

Elena

Ils n'auraient pas dû dire cela. Si notre système vous communique des informations et que vous agissez de bonne foi sur la base de celles-ci, nous devons en assumer la responsabilité.

Robert (s'adoucissant)

Je vous remercie pour cet appel. Je vais supprimer le tweet.

Niamh (après l'appel)

C'était la bonne approche. Le tribunal Air Canada a jugé la compagnie aérienne responsable parce qu'elle avait tenté de se désolidariser des déclarations du chatbot. Vous venez de faire exactement le contraire — et c'est défendable. Si cette affaire est portée devant la Banque centrale, nous pourrons démontrer que nous avons identifié le problème, contacté le client et régularisé la situation dans les 24 heures.

Elena Vasquez tentant une divulgation partielle
Conséquence 2B : Le juste milieu +1

Elena envoie une réponse soigneusement formulée à la journaliste :

Chère Lena,

NovaTech intègre l'IA dans son flux de travail de contenu. Tout le contenu est relu par des éditeurs humains avant publication, et nous développons un cadre de divulgation formel aligné sur les exigences de transparence du Règlement sur l'IA de l'UE. Nous serions ravis de vous présenter notre approche avec notre directrice marketing, Fiona Gallagher, disponible pour un appel vendredi.

Elena Vasquez

La déclaration est techniquement tournée vers l'avenir — « tout le contenu est relu » sera vrai une fois le nouveau processus mis en place. Mais ce n'est pas vrai aujourd'hui, et ça ne l'était pas non plus au cours des 11 derniers mois.

Lena répond dans l'heure :

Merci, Elena. Je serais ravie de participer à l'appel avec Fiona. Quelques questions complémentaires : l'article « Future of Personal Finance » a-t-il été relu par un éditeur humain avant publication ? Pouvez-vous me communiquer le nom de cet éditeur ? Et pouvez-vous confirmer si votre chatbot utilise l'IA générative — l'un de vos clients a publiquement exprimé des préoccupations concernant des informations incorrectes reçues de sa part.

Pendant ce temps, le service client traite le cas de Robert Acheson avec un remboursement de 49 EUR et un e-mail de « désolé pour le désagrément ». Robert est partiellement satisfait mais ne supprime pas son tweet. Il répond : « J'apprécie le remboursement. Mais quelqu'un doit répondre de la raison pour laquelle une IA prodigue des conseils financiers sans le signaler aux utilisateurs. »

Niamh

Elena, la journaliste va poser des questions sur l'article en question. Elle connaît déjà la réponse. Si Fiona lui affirme vendredi que l'article a été relu par un éditeur humain, et que la journaliste dispose de preuves que ce n'était pas le cas, nous passerons d'un problème de transparence à un problème de crédibilité. Et concernant le client — un remboursement sans reconnaissance que le chatbot est alimenté par l'IA ne suffit pas au regard de l'Article 50(1). Nous avons résolu le problème de facturation, mais pas celui de la divulgation.

Elena Vasquez observant la crise s'intensifier
Consequence 2C : Attendre Fiona -1

Elena envoie un e-mail à la journaliste :

Chère Lena,

Merci pour votre demande. NovaTech est à la pointe de l'adoption responsable de l'IA dans les services financiers. Notre directrice marketing, Fiona Gallagher, serait ravie d'échanger avec vous sur notre approche. Elle est disponible pour un appel jeudi après-midi ou vendredi matin.

Elena Vasquez

La réponse n'aborde aucune des trois questions précises de la journaliste. Lena s'en rend compte immédiatement. Elle ne répond pas. À la place, elle publie sur X à 17h30 :

« J'ai demandé à NovaTech Financial si leur blog de leadership éclairé était généré par IA. J'ai obtenu une non-réponse. Par ailleurs : leur chatbot a fourni à un client des informations erronées sur les frais. Schéma intéressant. Article à paraître vendredi. @NovaTechFinancial »

Le jeudi matin, le tweet a enregistré 3 400 interactions. Deux autres publications fintech l'ont repris. L'équipe de presse de la Banque centrale d'Irlande l'a vu. La plainte de Robert Acheson a été traitée comme un ticket de service client standard — il a reçu un e-mail automatisé et a répondu : « Je ne veux pas d'excuses automatisées de la même entreprise dont l'IA m'a menti. Je dépose une plainte auprès de la Banque centrale. »

Niamh (jeudi matin, 8h15)

Elena, nous avons perdu le contrôle de la situation. La journaliste publie demain, avec ou sans notre contribution. Le client a escaladé l'affaire auprès de la Banque centrale. Et Fiona ne rentre que ce soir. Si elle aborde l'appel avec la journaliste vendredi avec une posture « il n'y a rien à voir ici », cela devient la une, et non un article secondaire.

Elena

Que faisons-nous ?

Niamh

Nous aurions dû agir hier. Article 50 exigeait la transparence dès le moment où nous avons déployé ces systèmes. Chaque jour de retard réduit la patience du régulateur. Je dois informer le conseil d'administration. Ce n'est plus un problème de communication.

16h00 mercredi — La crise du chatbot s'aggrave

Niamh transfère à Elena un e-mail du Délégué à la Protection des Données (DPD) de NovaTech :

Objet : NovaAssist — Examen de conformité urgent
De : Dr. Katya Novak, DPD <k.novak@novatech.ie>
À : Elena Vasquez, Niamh O'Brien

Elena / Niamh,

J'ai examiné la configuration du chatbot NovaAssist. Trois problèmes :

  1. Le chatbot n'informe pas les utilisateurs qu'ils interagissent avec un système d'IA. Cela constitue une violation de l'Article 50(1) du Règlement sur l'IA de l'UE.
  2. La « personnalité configurée » du chatbot lui demande de « répondre en tant que conseiller financier NovaTech serviable ». Au titre de la Directive sur le crédit à la consommation et de MiFID II, seules des personnes réglementées peuvent fournir des conseils financiers — nous sommes confrontés à un double problème réglementaire.
  3. Le chatbot enregistre toutes les conversations, y compris les requêtes financières et les numéros de compte. Il n'existe aucun avis de traitement des données conforme au RGPD pour ces journaux.

Je recommande une suspension immédiate dans l'attente d'un examen de conformité.

Cordialement,
Dr. Katya Novak, DPD

Niamh

Ce n'est plus seulement un problème lié au Règlement sur l'IA de l'UE. Le chatbot cumule trois violations. N'importe laquelle pourrait déclencher une enquête réglementaire. Les trois ensemble ? Nous devons arrêter ça aujourd'hui.

Elena

Fiona dira que nous réagissons de manière excessive.

Niamh

Fiona ne sera pas celle qui se retrouvera face à l'inspecteur de la Banque centrale. Article 50(1) est clair : si une personne interagit avec un système d'IA, elle doit en être informée. Il n'existe aucune exception du type « sauf si la directrice marketing juge cela inutile ».

Niamh présentant les options de politique
Décision 3 : La Politique

Jeudi, 9h00 — Réunion d'urgence

Fiona arrive au bureau de Dublin, décalage horaire oblige. Elle a vu la couverture médiatique. Elle convoque une réunion d'urgence : Elena, Niamh et Amir.

Fiona

Bien. Où en sommes-nous ? Et avant que quiconque réponde — je ne cherche pas à blâmer qui que ce soit. J'ai poussé l'adoption de l'IA. Je l'assume. Mais nous avons besoin d'un plan pour les 24 prochaines heures, et d'un autre pour les 6 prochains mois.

Niamh

Le plan à 24 heures, c'est l'appel avec la journaliste. Le plan à 6 mois, c'est le cadre de gouvernance des contenus IA dont nous avons besoin avant que l'Article 50 soit pleinement appliqué en août. Mais les deux sont liés — ce que nous dirons à la journaliste demain doit être cohérent avec la politique que nous élaborons. Si nous tenons un discours au FT et faisons autre chose en interne, nous créons un dossier documenté d'inexactitudes.

Fiona

Quelles sont les options ?

A. Gouvernance complète de l'IA

Cadre complet de gouvernance du contenu IA : divulgation obligatoire, révision humaine, refonte du chatbot avec mention de l'IA, audits trimestriels, formation du personnel. Présenter cela à la journaliste comme une initiative proactive. Niamh prépare un rapport réglementaire pour la Banque centrale. Art. 50 · Art. 13 · Art. 4 · Art. 26

B. Conformité minimale viable

Correctif ciblé : ajouter des mentions de divulgation au blog, mettre en place une liste de contrôle pour la révision, ajouter une bannière de divulgation IA au chatbot. Ne pas tout refondre — simplement ajouter la mention et vérifier manuellement les réponses de la FAQ cette semaine. Étiquettes sous 7 jours, divulgation du chatbot sous 14 jours.

C. L'approche de Fiona : maîtrise du récit

Positionner NovaTech comme « pionnière en matière de transparence » sans reconnaître 11 mois sans supervision. Présenter l'appel de la journaliste comme une opportunité de leadership éclairé. Ne pas mentionner le chatbot. Demander à Amir de ne pas évoquer les processus IA en externe. Informer le conseil d'administration de manière minimale.

Elena Vasquez construisant un cadre de gouvernance
Conséquence 3A : Le Cadre +3

Elena présente le cadre de gouvernance. Fiona écoute, d'abord réticente, puis son attitude change.

Fiona

Vous voulez que je participe à un appel avec le FT et que je dise que nous utilisions l'IA sans divulgation depuis 11 mois ?

Elena

Je veux que vous participiez à l'appel et que vous disiez que nous avons identifié une lacune, que nous avons élaboré un cadre et que nous le mettons en œuvre. L'histoire, c'est le cadre, pas la lacune.

Niamh

Fiona, je dois ajouter quelque chose. Si la Banque centrale ouvre une enquête — et je pense qu'il y a 60 % de chances qu'elle le fasse, compte tenu de la plainte concernant le chatbot — la première question qu'elle posera sera de savoir ce que nous avons fait lorsque nous avons découvert le problème. Si nous pouvons démontrer qu'un cadre de gouvernance complet a été adopté dans les 72 heures suivant l'identification, cela fera la différence entre une lettre d'avertissement et une enquête formelle.

Fiona (long silence)

Quel est le coût ?

Elena

Le relancement du chatbot : environ 40 000 EUR, audit de conformité et refonte inclus. L'audit du contenu existant : il me faudra un prestataire externe pour deux mois, soit environ 15 000 EUR. La formation du personnel : nous pouvons la réaliser en interne. Total : moins de 60 000 EUR.

Fiona

Et le coût de ne pas le faire ?

Niamh

Article 99. Jusqu'à 15 millions d'EUR, ou 3 % du chiffre d'affaires mondial — c'est le niveau le plus élevé pour les violations des obligations des déployeurs, et non pas seulement pour les informations trompeuses (qui relèvent du niveau inférieur de 1 %). Pour NovaTech, cela représente 10,2 millions d'EUR. Et c'est uniquement le Règlement sur l'IA de l'UE — l'exposition au RGPD liée aux journaux du chatbot est distincte.

Fiona

Construisez le cadre. Je passerai l'appel.

Amir (silencieux jusqu'à présent)

Elena... je veux aider. Je sais que j'ai causé une grande partie de tout cela. J'aurais dû demander qu'un processus de révision soit mis en place. J'aurais dû vérifier les réponses du chatbot par rapport au barème des frais. Puis-je contribuer à la création du module de formation ?

Elena

Oui. Vous allez contribuer à sa création parce que vous comprenez exactement ce qui s'est mal passé. Ce n'est pas une punition — c'est la chose la plus utile que vous puissiez faire.

Elena Vasquez proposant une solution rapide
Consequence 3B: The Quick Fix +1

Elena propose l'approche ciblée. Fiona l'approuve immédiatement.

Fiona

Voilà quelque chose avec lequel je peux travailler. Des étiquettes sur le blog, une liste de contrôle de révision, une divulgation pour le chatbot. Nous pouvons dire à la journaliste que nous sommes déjà en train de déployer tout cela. Quel est le calendrier ?

Elena

Les étiquettes d'ici une semaine. La bannière de divulgation du chatbot d'ici deux semaines.

Niamh

Elena, cela traite les symptômes visibles, mais pas la cause profonde. Nous n'avons aucune documentation indiquant quels contenus ont été générés par l'IA. Aucune formation pour l'équipe sur ce qui nécessite une divulgation. Aucun processus de vérification des réponses du chatbot. Et le problème RGPD lié aux journaux de conversation — vous n'avez pas du tout abordé cela.

Elena

Nous traiterons le RGPD séparément. Cela nous permet de passer avant la date limite de la journaliste.

Niamh

Et la Banque Centrale ? Si Robert Acheson dépose sa plainte, elle ne demandera pas si nous avons ajouté une bannière au chatbot. Elle demandera si nous disposons d'un système de gestion des risques. Si nous avons des processus de supervision humaine. Si nous avons formé notre personnel. En vertu de l'Article 9, un système de gestion des risques doit être « établi, mis en œuvre, documenté et maintenu ». Une liste de contrôle n'est pas un système.

Deux semaines plus tard : les mentions de divulgation sont en ligne sur le blog. Le chatbot affiche une petite bannière indiquant « Ce service utilise l'IA. » Mais les réponses de la FAQ n'ont pas été entièrement vérifiées — Amir a examiné les 20 questions les plus fréquentes, mais la base de connaissances du chatbot contient 340 modèles de réponses. Trois autres contiennent des informations obsolètes. L'un d'eux décrit incorrectement le processus de résolution des litiges de NovaTech, orientant les clients vers une équipe restructurée il y a quatre mois.

Elena Vasquez perdant le contrôle de la situation
Conséquence 3C : Maîtrise du récit -2

Fiona prend les choses en main.

Fiona

Voici ce que nous allons faire. L'appel avec le journaliste demain — je nous positionnerai en tant que leaders. « NovaTech a été à la pointe de l'adoption de l'IA dans la fintech, et nous sommes maintenant à la pointe de la transparence en matière d'IA. Nous lançons une initiative de divulgation. » Aucune mention du problème du chatbot. Aucune mention de la durée pendant laquelle nous avons fonctionné sans supervision.

Elena

Fiona, Niamh a signalé des problèmes sérieux—

Fiona

Niamh fait son travail. Je fais le mien. Le conseil d'administration n'a pas besoin de connaître les détails tant que nous n'avons pas trouvé le bon angle de communication. Elena, dites à votre équipe — notamment Amir — que personne ne doit discuter de nos processus de contenu en externe. Cela inclut LinkedIn, cela inclut les anciens collègues, cela inclut les amis d'autres fintechs.

Niamh (se levant)

Fiona, je dois vous informer formellement que le fait d'instruire le personnel de ne pas discuter de préoccupations en matière de conformité en externe pourrait être interprété comme une suppression de la dénonciation. En vertu de la Directive européenne sur la protection des lanceurs d'alerte, que l'Irlande a transposée en 2022, les employés qui signalent des violations du droit de l'UE — y compris du Règlement sur l'IA de l'UE — sont protégés contre les représailles. Si Amir ou quelqu'un dans l'équipe d'Elena soulève cette préoccupation par un canal externe et que nous leur avons dit de ne pas en parler, notre position devient indéfendable.

Fiona

Je ne supprime rien. Je demande simplement une discipline dans la communication.

Niamh

Un régulateur ne le verra pas ainsi.

L'appel avec le journaliste vendredi : Fiona livre un récit soigneusement élaboré. Lena Richter écoute, puis demande :

Lena (lors de l'appel)

Merci, Fiona. C'est utile. Juste pour clarifier — votre chatbot destiné aux clients, NovaAssist, utilise-t-il de l'IA générative ?

Fiona

Notre chatbot utilise un traitement avancé du langage naturel, oui. Il est conçu pour aider les clients avec des demandes courantes.

Lena

Informe-t-il les utilisateurs qu'ils interagissent avec une IA ?

Fiona (hésitant)

Nous sommes... en train d'ajouter des fonctionnalités de transparence renforcées.

Lena

Donc actuellement, non ?

Fiona

Nous mettons en œuvre des mesures de transparence de pointe sur l'ensemble de nos points de contact IA.

Lena

Je comprends. Encore une chose — Robert Acheson, un client à Cork, affirme que votre chatbot lui a communiqué des informations erronées sur les frais et que NovaTech a refusé de les honorer. Êtes-vous au courant de cela ?

Fiona

Je ne suis pas au courant de cas clients spécifiques, mais NovaTech prend tous les retours clients au sérieux.

L'article du FT Alphaville est publié le lundi : « NovaTech Financial : La Fintech qui ne sait pas expliquer sa propre IA »

L'article détaille : 11 mois de contenu généré par l'IA sans divulgation, l'erreur de frais du chatbot, et l'appel de Fiona au cours duquel elle « a systématiquement esquivé les questions sur le fait que les clients soient informés qu'ils interagissent avec une IA ». Robert Acheson a déposé sa plainte auprès de la Banque centrale d'Irlande le jeudi après-midi.

Niamh (Lundi, 7h30)

L'équipe des affaires réglementaires de la Banque Centrale m'a appelée à 7h15. Ils ont vu l'article du FT. Ils souhaitent comprendre notre cadre de gouvernance de l'IA. Je leur ai indiqué que nous leur fournirions la documentation dans les 48 heures. Elena — quelle documentation avons-nous ?

Elena

Nous avons un abonnement ChatGPT et 127 brouillons d'articles de blog non publiés sans historique des versions.

Niamh

Dans ce cas, nous avons 48 heures pour bâtir un cadre que nous aurions dû construire il y a 11 mois. Et nous le faisons sous surveillance réglementaire, et non en amont de celle-ci.

Six Mois Plus Tard

Les décisions que vous avez prises en tant qu'Elena Vasquez ont eu des répercussions — sur l'équipe marketing, sur la réputation de NovaTech, sur Robert Acheson, sur le chatbot et sur la confiance du public. Voici ce qui s'est passé.

Votre résultat
/ 9

Vos décisions

Leçons clés

1. Article 50 n'est pas une transparence facultative — il crée des obligations spécifiques et exécutoires de divulguer l'interaction avec une IA et d'étiqueter les contenus générés par l'IA
2. Vous êtes responsable de chaque déclaration que vos systèmes d'IA font aux clients — l'argument « ce n'est qu'un chatbot » a déjà échoué devant les tribunaux
3. Le coût de la mise en place d'une gouvernance de l'IA est toujours inférieur au coût de sa mise en place sous contrôle réglementaire
4. La culture de l'IA pour le personnel (Article 4) est applicable depuis février 2025 — fournir à quelqu'un des outils d'IA sans formation constitue en soi un manquement à la conformité
5. Identifier un risque et retarder l'action fragilise votre position vis-à-vis des régulateurs — la rapidité de réponse est un facteur atténuant documenté en vertu de Article 99
6. La maîtrise du récit n'est pas une stratégie de conformité — Article 50 crée des obligations vérifiables, et non des opportunités de positionnement de marque
7. Présenter un contenu généré par l'IA comme étant d'origine humaine est pire que la non-divulgation — cela transforme un manque de transparence en tromperie délibérée
8. L'arrêt relatif au chatbot d'Air Canada a établi que les entreprises sont responsables de toutes les déclarations faites par leurs systèmes d'IA — indépendamment des clauses de non-responsabilité quant à l'exactitude des informations

Références juridiques clés

Article 50(1)

Divulgation des interactions avec l'IA

Article 50(2)

Étiquetage des contenus

Article 50(4)

Moment et modalités de divulgation

Article 13

Transparence

Article 4

Littératie en matière d'IA

Article 26

Obligations des déployeurs

Article 99

Sanctions

Air Canada v. Moffatt

Précédent en matière de responsabilité des chatbots

Demandez à votre équipe Formation & Développement de partager le classement d'équipe depuis votre tableau de bord LMS. Votre département peut-il surpasser les autres ?

Scénario suivant

Dans le Module 3, vous endosserez un rôle très différent : celui de Responsable des risques chez NovaTech Financial. Le modèle de notation de crédit par IA de l'entreprise rejette des candidats issus de certains codes postaux à des taux alarmants. Un candidat rejeté a déposé une plainte. Et le fournisseur d'IA refuse de divulguer le fonctionnement du modèle. Nous sommes en plein territoire de l'Article 6 — l'IA à haut risque, là où les enjeux sont les plus élevés.


Ressource Supplémentaire

Guide de Référence Rapide du Règlement sur l'IA de l'UE

Un résumé imprimable de tous les articles clés couverts dans les cinq modules — Articles 4, 5, 6, 9, 13, 14, 25, 26, 27, 50 et 99. Enregistrez en PDF pour consultation hors ligne.

Module 2 Terminé

The Disclosure

Vous avez navigué dans le dilemme de la divulgation. Testez maintenant ce que vous avez appris.

← Retour au cours Passer le quiz du module →