Module 2
Mercredi, 9h17 — Dublin
Directrice Marketing & Communications chez NovaTech Financial — une fintech européenne de taille moyenne, 1 200 employés, siège social à Dublin. Réglementée par la Banque centrale d'Irlande.
Vous arrivez mercredi matin pour trouver deux e-mails reçus pendant la nuit : l'un d'un journaliste du Financial Times, l'autre du Service Client concernant une plainte relative à un chatbot. Votre directeur marketing est injoignable jusqu'à midi. La publication des résultats du T2 est dans 9 jours.
Votre équipe publie du contenu généré par l'IA depuis 11 mois — sans politique de divulgation, sans processus de révision, ni trace documentaire.
Ce module évalue votre compréhension des situations dans lesquelles l'utilisation de l'IA doit être divulguée, et de la manière dont cette divulgation doit être effectuée. Voici les règles dont vous aurez besoin :
Article 50(1) — Divulgation relative aux chatbots
Lorsqu'une personne interagit avec un système d'IA, elle doit être informée qu'elle interagit avec une IA — au moment de l'interaction, et non enfouie dans les conditions générales. Cela s'applique aux chatbots, aux assistants virtuels et à toute IA qu'un utilisateur pourrait confondre avec un être humain.
Article 50(2) — Contenu généré par l'IA
Le contenu généré ou substantiellement modifié par une IA doit être étiqueté comme généré artificiellement. La publication d'articles de blog, de textes marketing ou de rapports rédigés par une IA sans divulgation enfreint cette obligation. La révision humaine ne supprime PAS l'exigence de divulgation.
Article 99 — Sanctions
Fournir des informations trompeuses sur l'utilisation de l'IA aux autorités : jusqu'à €7,5 M ou 1 % du chiffre d'affaires annuel. L'amende ne sanctionne pas l'utilisation de l'IA — elle sanctionne le fait de la dissimuler.
Principe clé
La transparence ne porte pas sur le fait que l'IA soit « bonne » ou « mauvaise ». Elle porte sur le droit du destinataire à être informé. Un client servi par un chatbot IA, un lecteur de contenu généré par une IA et un régulateur s'enquérant de votre utilisation de l'IA ont tous droit à une information exacte.
Chère équipe Communications NovaTech,
Je rédige un article sur le contenu généré par IA dans le marketing des services financiers. J'ai identifié plusieurs articles sur votre blog qui semblent être en grande partie générés par IA, notamment « The Future of Personal Finance » (publié le 12 mars 2026). Pourriez-vous confirmer :
Je travaille avec une échéance vendredi. Je serais ravie d'avoir une conversation avec votre directeur marketing.
Cordialement,
Lena Richter, FT Alphaville
La journaliste a soumis l'article à trois outils de détection d'IA — tous l'ont signalé comme étant généré à plus de 90 % par IA. Elle a été alertée par un ancien contractuel de NovaTech qui a remarqué que la production du blog avait triplé après l'adoption des outils d'IA.
Le deuxième e-mail : le client Robert Acheson a utilisé le chatbot NovaAssist pour se renseigner sur la mise à niveau de son compte. Le chatbot lui a indiqué que le niveau premium n'avait « aucun frais de maintenance mensuel pendant les 12 premiers mois ». Cette exonération a été supprimée il y a 6 mois. Il s'est vu facturer 49 EUR.
Il a publié sur X : « Le chatbot IA de NovaTech m'a menti sur les frais. @CentralBankIE vous regardez ? » — 340 interactions et en hausse.
J'ai identifié plusieurs articles sur votre blog qui semblent être en grande partie générés par IA, notamment « L'avenir des finances personnelles ». Pourriez-vous confirmer si ce contenu a été produit à l'aide d'outils d'IA, et si NovaTech dispose d'une politique de divulgation ?
Je souhaite également savoir si votre chatbot destiné aux clients utilise de l'IA générative, et si c'est le cas, si les clients en sont informés.
Je travaille avec un délai au vendredi. Je serais ravie d'avoir un échange avec votre directeur marketing.
Je dois faire basculer NovaAssist en routage humain uniquement, immédiatement. Toutes les réponses automatiques du chatbot doivent être désactivées. Chaque demande est transmise à un agent en direct.
Cela va tripler la file d'attente. Nous avons trois agents en poste jusqu'à 13h00.
Je sais. Priorisez les demandes urgentes. Toute personne ayant appelé au sujet des frais de compte au cours des dernières 48 heures doit être rappelée aujourd'hui.
Elle ouvre le CMS et dépublie l'article « Future of Personal Finance ». Elle annule la campagne e-mail de 14 h. Elle envoie un message Slack à Amir :
Amir, j'ai besoin d'une liste complète de chaque contenu que vous avez publié à l'aide d'outils d'IA. Articles de blog, textes d'e-mails, scripts de chatbot, publications sur les réseaux sociaux. Tout ce qui date des 11 derniers mois. Il me la faut pour 11 h. Sans jugement — j'ai besoin des faits.
Elena, je suis vraiment désolé. C'est… pratiquement tout. Je vous prépare la liste.
À 11 h 15, Elena dispose d'un tableur recensant 127 articles de blog, 34 campagnes e-mail, l'ensemble des scripts FAQ du chatbot, et environ 200 publications sur les réseaux sociaux dont le contenu était en grande partie généré par l'IA. La plus ancienne avait été publiée 11 mois auparavant. Aucune ne comportait la moindre mention de divulgation.
En vertu de l'Article 50(2) du Règlement sur l'IA de l'UE, les déployeurs de systèmes d'IA qui génèrent du texte synthétique publié « dans le but d'informer le public sur des questions d'intérêt général » doivent indiquer que ce contenu a été généré artificiellement. Les contenus de services financiers portant sur les finances personnelles entrent vraisemblablement dans ce champ d'application. En vertu de l'Article 26(5), les déployeurs doivent suspendre l'utilisation d'un système d'IA lorsqu'ils ont des raisons de croire qu'il présente un risque. La décision d'Elena de marquer une pause est la première mesure la plus défendable. La perturbation est bien réelle — mais c'est le prix à payer pour agir au moment où l'on identifie un risque, et non après qu'un régulateur l'a identifié à votre place.
Elena passe la matinée sur une feuille de calcul. À 11h30, elle dispose d'une vue partielle : au moins 90 articles de blog, la plupart des campagnes d'e-mail et tous les scripts de chatbot semblent être générés par IA. Mais l'audit n'est pas terminé — Amir est encore en train d'extraire des données, et les publications sur les réseaux sociaux sont plus difficiles à retracer.
À 13h47, la campagne d'e-mail est envoyée comme prévu. Il s'agit d'une mise à jour produit sur les comptes d'épargne de NovaTech. L'objet, le corps du message et le bouton d'appel à l'action ont tous été générés par ChatGPT. Elle atteint 28 000 abonnés.
À 14h15, un client à Berlin utilise le chatbot et pose une question sur les frais de virement international. Le chatbot fournit une réponse basée sur le script vieux de six mois d'Amir. La structure tarifaire a changé en janvier. La réponse est erronée de 12 EUR par virement.
Elena, j'ai appris que vous effectuez un audit. Bien. Mais le chatbot est toujours en ligne. Et vous venez d'envoyer une campagne d'e-mail à 28 000 personnes. Si l'un de ces contenus est inexact, chaque heure qu'il passe en ligne représente une exposition supplémentaire. Un audit sans action n'est qu'une documentation d'un problème que vous connaissiez et n'avez pas résolu.
Article 26(5) oblige les déployeurs à suspendre l'utilisation lorsqu'ils identifient un risque. Elena a identifié le risque à 9h17. La campagne d'e-mail a été envoyée à 13h47 — près de cinq heures plus tard. Le chatbot a continué à fournir des réponses potentiellement inexactes. Si un régulateur examine ultérieurement la chronologie des événements, « nous étions encore en train d'auditer » constitue une défense fragile. La deuxième erreur du chatbot (client à Berlin) aggrave la responsabilité.
Elena rédige une réponse à Lena Richter à 9h35 :
Chère Lena,
Je vous remercie de nous avoir contactés. NovaTech utilise des outils d'IA dans le cadre de son processus de création de contenu, avec une supervision éditoriale humaine à chaque étape du processus. Nous croyons en l'utilisation responsable de l'IA pour améliorer nos communications, et nous nous engageons à faire preuve de transparence dans notre façon d'opérer.
Je serais heureuse d'organiser un appel avec notre directrice marketing, Fiona Gallagher, en fin de semaine afin de vous présenter notre approche plus en détail.
Cordialement,
Elena Vasquez
Directrice Marketing & Communications
Le problème : la déclaration contient une inexactitude factuelle. Il n'existe pas de « supervision éditoriale humaine à chaque étape ». Amir publie directement à partir des résultats de ChatGPT.
À 11h40, Lena répond :
Merci, Elena. J'apprécie la rapidité de votre réponse. Pourriez-vous préciser ce que recouvre concrètement la « supervision éditoriale humaine à chaque étape » ? J'ai discuté avec un ancien prestataire qui décrit un processus différent. Je souhaiterais également savoir si l'article « Future of Personal Finance » avait un auteur humain nommément désigné, ou si « NovaTech Insights Team » est une signature utilisée pour du contenu généré par IA. Je reste disponible pour en discuter par téléphone.
Pendant ce temps, le chatbot continue de fonctionner. Le tweet de Robert Acheson comptabilise désormais 1 200 interactions. Un compte dédié aux droits des consommateurs l'a retweeté : « Encore un chatbot IA qui donne de mauvaises informations financières. Quand la Banque centrale va-t-elle agir ? »
Elena, je viens de voir votre e-mail à la journaliste du FT. Vous lui avez dit que nous avons « une supervision éditoriale humaine à chaque étape ». Est-ce le cas ?
Je—
Car si ce n'est pas le cas, et qu'elle peut le prouver, cette réponse devient la preuve que vous avez induit en erreur une journaliste sur nos pratiques en matière d'IA. En vertu de l'Article 50(4), les déployeurs ne doivent pas donner une fausse représentation de la nature générée par IA du contenu. Et en vertu de l'Article 99, la fourniture d'informations trompeuses peut entraîner des amendes allant jusqu'à 7,5 millions d'euros ou 1 % du chiffre d'affaires. Vous avez transformé un problème de transparence en problème de tromperie.
L'Article 50(4) du Règlement sur l'IA de l'UE interdit de présenter un contenu généré par IA d'une manière qui induit le destinataire en erreur quant à son origine artificielle. L'e-mail d'Elena à la journaliste laisse entendre qu'il existe un processus solide de révision humaine qui n'existe pas. Cela transforme une lacune de divulgation (mauvaise mais corrigeable) en une fausse déclaration active (bien plus grave). En vertu de l'Article 99(4), des amendes pouvant atteindre 7,5 millions d'euros ou 1 % du chiffre d'affaires mondial s'appliquent en cas de fourniture d'informations trompeuses. Bien qu'une journaliste ne soit pas un régulateur, l'e-mail crée un document écrit d'affirmations qui peuvent être vérifiées.
Fiona appelle depuis Madrid. Elle a entendu parler de la demande de la journaliste par son assistante de direction.
Elena, que se passe-t-il avec l'affaire du FT ?
[Résume la situation — la journaliste, le chatbot, la plainte du client, la portée du contenu généré par IA]
C'est grave à quel point ?
127 articles de blog, 34 campagnes e-mail, tous les scripts du chatbot. Onze mois. Aucune divulgation sur aucun d'eux.
Bien. Écoutez, je rentre jeudi soir. Peut-on tout mettre en attente jusqu'à ce moment-là ?
La date limite de la journaliste est vendredi.
Alors dites-lui que nous aurons une réponse complète d'ici jeudi. Gagnez-nous une journée. Et Elena — ne lui dites pas plus que nécessaire. Ce n'est pas une confession, c'est une situation de communication.
Fiona, Niamh dit que c'est une situation de conformité. L'Article 50 du Règlement sur l'IA de l'UE—
Le Règlement sur l'IA de l'UE n'est pas encore pleinement appliqué. Nous avons jusqu'en août. Ne surréagissons pas.
Les dispositions relatives à la transparence sont déjà en vigueur pour les contenus générés par les IA à usage général. Et le chatbot a fourni des informations erronées à un client. Il menace de saisir la Banque centrale.
Très bien. Faites intervenir Niamh. Mais je vous le dis, si nous publions un communiqué affirmant « nous avons utilisé l'IA sans en informer personne », c'est cela qui fera la une. Soyons plus intelligents que ça.
Fiona raccroche. Niamh attend dans le bureau d'Elena.
J'ai entendu l'appel. Fiona souhaite maîtriser le récit. Je comprends pourquoi. Mais voici ce qu'elle ne prend pas en compte : les obligations de transparence de l'Article 50 concernant les contenus générés par l'IA susceptibles d'être confondus avec des contenus d'origine humaine sont déjà applicables aux systèmes d'IA à usage général. Nous ne sommes pas dans une zone grise. Et le chatbot — c'est l'Article 50(1). Les personnes interagissant avec un système d'IA doivent être informées qu'elles interagissent avec une IA. Notre chatbot ne divulgue pas du tout le recours à l'IA. Ni dans l'interface, ni dans les conditions d'utilisation, nulle part.
Et le client ? Robert Acheson.
Le précédent Air Canada est sans ambiguïté. Un tribunal a tenu la compagnie aérienne responsable de chaque affirmation faite par son chatbot. Notre chatbot lui a indiqué qu'il n'y avait aucun frais d'entretien. Si nous ne régularisons pas la situation, il dispose d'arguments solides — et pas seulement au titre du Règlement sur l'IA de l'UE. Il s'agit d'une protection élémentaire du consommateur.
Elena a une vision complète de la situation. Elle doit décider comment NovaTech répond — au journaliste, au client, et en interne. Niamh a préparé trois options. Fiona a clairement exprimé sa préférence : minimiser la divulgation.
Répondre honnêtement au journaliste : l'article a été généré par IA, l'entreprise met en place une politique de divulgation complète immédiatement. Appeler Robert Acheson directement, annuler les frais, présenter des excuses. Rédiger une politique sur le contenu IA à soumettre à Fiona pour approbation jeudi. Art. 50(1) · Art. 50(2) · Art. 50(4)
Dire au journaliste : « NovaTech utilise des outils IA pour accompagner notre équipe de contenu. Tout le contenu est relu par des éditeurs humains avant publication. Nous élaborons un cadre de divulgation formel. » Globalement exact — pour l'avenir. Traiter la situation de Robert Acheson via le Service client avec un remboursement à titre de geste commercial. Attendre Fiona avant de créer une politique.
Dire à la journaliste que NovaTech est « à la pointe de l'adoption responsable de l'IA » et proposer un appel avec la directrice marketing jeudi. Ne pas aborder les détails. Traiter la plainte de Robert Acheson comme une plainte standard. Aucune modification interne jusqu'à la décision de Fiona.
Elena rédige deux communications. La première, à Lena Richter :
Chère Lena,
Je vous remercie de votre patience. Je souhaite être directe avec vous.
NovaTech utilise des outils d'IA générative dans l'ensemble de sa fonction contenu depuis 11 mois. Cela inclut des articles de blog, des campagnes d'e-mailing et des scripts de chatbot. L'article que vous avez identifié — « The Future of Personal Finance » — a été généré à l'aide d'outils d'IA. Il n'aurait pas dû être publié sans mention de divulgation, ni sans révision humaine de ses affirmations factuelles.
Nous avons identifié cela comme une lacune dans nos processus et prenons des mesures immédiates :
Je reconnais qu'il s'agit d'un domaine en pleine évolution pour le secteur, et nous aurions dû progresser plus rapidement en matière de gouvernance. Nous serions heureux de pouvoir vous parler de notre approche — non pas pour maîtriser un récit, mais pour être honnêtes sur ce qui s'est passé et sur ce que nous faisons pour y remédier.
Elena Vasquez
Ensuite, Elena appelle Robert Acheson directement.
Mr. Acheson, je m'appelle Elena Vasquez. Je suis Directrice Marketing chez NovaTech. Je vous appelle au sujet de votre expérience avec notre chatbot.
Enfin quelqu'un qui ne lit pas un script.
J'ai examiné ce qui s'est passé. Notre chatbot vous a communiqué des informations incorrectes concernant la dispense de frais pour le compte premium. Cette dispense de frais a été supprimée il y a six mois, mais les informations de notre chatbot n'avaient pas été mises à jour. C'est notre erreur, pas la vôtre.
Et qu'allez-vous faire à ce sujet ?
Trois choses. Premièrement, nous annulons immédiatement le prélèvement de 49 EUR. Deuxièmement, nous honorons la dispense de frais que le chatbot vous a proposée — aucun frais de gestion pendant 12 mois. Troisièmement, nous passons en revue toutes les réponses automatisées du chatbot pour nous assurer que les informations sont à jour.
C'est... juste. C'est ce que je demandais depuis le début. Votre équipe d'assistance n'arrêtait pas de me dire que le chatbot n'avait pas force obligatoire.
Ils n'auraient pas dû dire cela. Si notre système vous communique des informations et que vous agissez de bonne foi sur la base de celles-ci, nous devons en assumer la responsabilité.
Je vous remercie pour cet appel. Je vais supprimer le tweet.
C'était la bonne approche. Le tribunal Air Canada a jugé la compagnie aérienne responsable parce qu'elle avait tenté de se désolidariser des déclarations du chatbot. Vous venez de faire exactement le contraire — et c'est défendable. Si cette affaire est portée devant la Banque centrale, nous pourrons démontrer que nous avons identifié le problème, contacté le client et régularisé la situation dans les 24 heures.
Article 50(1) impose que les personnes interagissant avec un système d'IA en soient informées. Le chatbot de NovaTech n'a divulgué aucune information à ce sujet. Article 50(2) exige que les contenus générés par IA susceptibles d'être confondus avec des contenus d'origine humaine soient signalés comme artificiellement générés. Les articles de blog de NovaTech comportaient une signature au nom à consonance humaine. En optant pour une transparence totale, Elena constitue un dossier documenté d'identification, d'action et de remédiation — les trois éléments que les régulateurs recherchent pour évaluer la bonne foi. L'article du FT paraîtra vraisemblablement, mais il dira « une fintech identifie un manque de transparence en matière d'IA et agit » plutôt que « une fintech dissimule des contenus générés par IA ».
Elena envoie une réponse soigneusement formulée à la journaliste :
Chère Lena,
NovaTech intègre l'IA dans son flux de travail de contenu. Tout le contenu est relu par des éditeurs humains avant publication, et nous développons un cadre de divulgation formel aligné sur les exigences de transparence du Règlement sur l'IA de l'UE. Nous serions ravis de vous présenter notre approche avec notre directrice marketing, Fiona Gallagher, disponible pour un appel vendredi.
Elena Vasquez
La déclaration est techniquement tournée vers l'avenir — « tout le contenu est relu » sera vrai une fois le nouveau processus mis en place. Mais ce n'est pas vrai aujourd'hui, et ça ne l'était pas non plus au cours des 11 derniers mois.
Lena répond dans l'heure :
Merci, Elena. Je serais ravie de participer à l'appel avec Fiona. Quelques questions complémentaires : l'article « Future of Personal Finance » a-t-il été relu par un éditeur humain avant publication ? Pouvez-vous me communiquer le nom de cet éditeur ? Et pouvez-vous confirmer si votre chatbot utilise l'IA générative — l'un de vos clients a publiquement exprimé des préoccupations concernant des informations incorrectes reçues de sa part.
Pendant ce temps, le service client traite le cas de Robert Acheson avec un remboursement de 49 EUR et un e-mail de « désolé pour le désagrément ». Robert est partiellement satisfait mais ne supprime pas son tweet. Il répond : « J'apprécie le remboursement. Mais quelqu'un doit répondre de la raison pour laquelle une IA prodigue des conseils financiers sans le signaler aux utilisateurs. »
Elena, la journaliste va poser des questions sur l'article en question. Elle connaît déjà la réponse. Si Fiona lui affirme vendredi que l'article a été relu par un éditeur humain, et que la journaliste dispose de preuves que ce n'était pas le cas, nous passerons d'un problème de transparence à un problème de crédibilité. Et concernant le client — un remboursement sans reconnaissance que le chatbot est alimenté par l'IA ne suffit pas au regard de l'Article 50(1). Nous avons résolu le problème de facturation, mais pas celui de la divulgation.
L'approche de divulgation partielle crée un problème de calendrier. NovaTech a identifié le problème lié au contenu IA mercredi matin. Ils ont répondu par une déclaration prospective qui implique une conformité actuelle. Si la journaliste publie la déclaration originale et démontre ultérieurement qu'elle était trompeuse, la crédibilité de NovaTech auprès du régulateur s'en trouvera érodée. En vertu de Article 50(4), l'obligation est claire : le contenu susceptible d'être confondu avec du contenu généré par un humain doit être étiqueté. Une politique prospective ne corrige pas rétroactivement 11 mois de contenu non étiqueté. Le remboursement du client est approprié mais insuffisant — le problème de divulgation concernant le chatbot demeure non résolu.
Elena envoie un e-mail à la journaliste :
Chère Lena,
Merci pour votre demande. NovaTech est à la pointe de l'adoption responsable de l'IA dans les services financiers. Notre directrice marketing, Fiona Gallagher, serait ravie d'échanger avec vous sur notre approche. Elle est disponible pour un appel jeudi après-midi ou vendredi matin.
Elena Vasquez
La réponse n'aborde aucune des trois questions précises de la journaliste. Lena s'en rend compte immédiatement. Elle ne répond pas. À la place, elle publie sur X à 17h30 :
« J'ai demandé à NovaTech Financial si leur blog de leadership éclairé était généré par IA. J'ai obtenu une non-réponse. Par ailleurs : leur chatbot a fourni à un client des informations erronées sur les frais. Schéma intéressant. Article à paraître vendredi. @NovaTechFinancial »
Le jeudi matin, le tweet a enregistré 3 400 interactions. Deux autres publications fintech l'ont repris. L'équipe de presse de la Banque centrale d'Irlande l'a vu. La plainte de Robert Acheson a été traitée comme un ticket de service client standard — il a reçu un e-mail automatisé et a répondu : « Je ne veux pas d'excuses automatisées de la même entreprise dont l'IA m'a menti. Je dépose une plainte auprès de la Banque centrale. »
Elena, nous avons perdu le contrôle de la situation. La journaliste publie demain, avec ou sans notre contribution. Le client a escaladé l'affaire auprès de la Banque centrale. Et Fiona ne rentre que ce soir. Si elle aborde l'appel avec la journaliste vendredi avec une posture « il n'y a rien à voir ici », cela devient la une, et non un article secondaire.
Que faisons-nous ?
Nous aurions dû agir hier. Article 50 exigeait la transparence dès le moment où nous avons déployé ces systèmes. Chaque jour de retard réduit la patience du régulateur. Je dois informer le conseil d'administration. Ce n'est plus un problème de communication.
Le retard aggrave l'exposition au titre du Règlement sur l'IA de l'UE. Article 26(5) oblige les déployeurs à suspendre l'utilisation lorsqu'ils identifient un risque pour les droits fondamentaux. Elena a identifié le risque mercredi matin. Jeudi, le chatbot fonctionne toujours sans divulgation, le contenu généré par l'IA demeure publié sans mention, et la seule communication de l'entreprise avec la journaliste a été une esquive. En vertu de Article 99, les régulateurs tiennent compte du « degré de coopération avec l'autorité de surveillance » lors de la fixation des sanctions. Bloquer une journaliste n'est pas illégal — mais lorsque le régulateur lira l'article du FT et constatera que la réponse de NovaTech était « nous sommes à la pointe de l'adoption responsable de l'IA », l'évaluation de la coopération ne sera pas favorable.
Niamh transfère à Elena un e-mail du Délégué à la Protection des Données (DPD) de NovaTech :
Elena / Niamh,
J'ai examiné la configuration du chatbot NovaAssist. Trois problèmes :
Je recommande une suspension immédiate dans l'attente d'un examen de conformité.
Cordialement,
Dr. Katya Novak, DPD
Ce n'est plus seulement un problème lié au Règlement sur l'IA de l'UE. Le chatbot cumule trois violations. N'importe laquelle pourrait déclencher une enquête réglementaire. Les trois ensemble ? Nous devons arrêter ça aujourd'hui.
Fiona dira que nous réagissons de manière excessive.
Fiona ne sera pas celle qui se retrouvera face à l'inspecteur de la Banque centrale. Article 50(1) est clair : si une personne interagit avec un système d'IA, elle doit en être informée. Il n'existe aucune exception du type « sauf si la directrice marketing juge cela inutile ».
Fiona arrive au bureau de Dublin, décalage horaire oblige. Elle a vu la couverture médiatique. Elle convoque une réunion d'urgence : Elena, Niamh et Amir.
Bien. Où en sommes-nous ? Et avant que quiconque réponde — je ne cherche pas à blâmer qui que ce soit. J'ai poussé l'adoption de l'IA. Je l'assume. Mais nous avons besoin d'un plan pour les 24 prochaines heures, et d'un autre pour les 6 prochains mois.
Le plan à 24 heures, c'est l'appel avec la journaliste. Le plan à 6 mois, c'est le cadre de gouvernance des contenus IA dont nous avons besoin avant que l'Article 50 soit pleinement appliqué en août. Mais les deux sont liés — ce que nous dirons à la journaliste demain doit être cohérent avec la politique que nous élaborons. Si nous tenons un discours au FT et faisons autre chose en interne, nous créons un dossier documenté d'inexactitudes.
Quelles sont les options ?
Cadre complet de gouvernance du contenu IA : divulgation obligatoire, révision humaine, refonte du chatbot avec mention de l'IA, audits trimestriels, formation du personnel. Présenter cela à la journaliste comme une initiative proactive. Niamh prépare un rapport réglementaire pour la Banque centrale. Art. 50 · Art. 13 · Art. 4 · Art. 26
Correctif ciblé : ajouter des mentions de divulgation au blog, mettre en place une liste de contrôle pour la révision, ajouter une bannière de divulgation IA au chatbot. Ne pas tout refondre — simplement ajouter la mention et vérifier manuellement les réponses de la FAQ cette semaine. Étiquettes sous 7 jours, divulgation du chatbot sous 14 jours.
Positionner NovaTech comme « pionnière en matière de transparence » sans reconnaître 11 mois sans supervision. Présenter l'appel de la journaliste comme une opportunité de leadership éclairé. Ne pas mentionner le chatbot. Demander à Amir de ne pas évoquer les processus IA en externe. Informer le conseil d'administration de manière minimale.
Elena présente le cadre de gouvernance. Fiona écoute, d'abord réticente, puis son attitude change.
Vous voulez que je participe à un appel avec le FT et que je dise que nous utilisions l'IA sans divulgation depuis 11 mois ?
Je veux que vous participiez à l'appel et que vous disiez que nous avons identifié une lacune, que nous avons élaboré un cadre et que nous le mettons en œuvre. L'histoire, c'est le cadre, pas la lacune.
Fiona, je dois ajouter quelque chose. Si la Banque centrale ouvre une enquête — et je pense qu'il y a 60 % de chances qu'elle le fasse, compte tenu de la plainte concernant le chatbot — la première question qu'elle posera sera de savoir ce que nous avons fait lorsque nous avons découvert le problème. Si nous pouvons démontrer qu'un cadre de gouvernance complet a été adopté dans les 72 heures suivant l'identification, cela fera la différence entre une lettre d'avertissement et une enquête formelle.
Quel est le coût ?
Le relancement du chatbot : environ 40 000 EUR, audit de conformité et refonte inclus. L'audit du contenu existant : il me faudra un prestataire externe pour deux mois, soit environ 15 000 EUR. La formation du personnel : nous pouvons la réaliser en interne. Total : moins de 60 000 EUR.
Et le coût de ne pas le faire ?
Article 99. Jusqu'à 15 millions d'EUR, ou 3 % du chiffre d'affaires mondial — c'est le niveau le plus élevé pour les violations des obligations des déployeurs, et non pas seulement pour les informations trompeuses (qui relèvent du niveau inférieur de 1 %). Pour NovaTech, cela représente 10,2 millions d'EUR. Et c'est uniquement le Règlement sur l'IA de l'UE — l'exposition au RGPD liée aux journaux du chatbot est distincte.
Construisez le cadre. Je passerai l'appel.
Elena... je veux aider. Je sais que j'ai causé une grande partie de tout cela. J'aurais dû demander qu'un processus de révision soit mis en place. J'aurais dû vérifier les réponses du chatbot par rapport au barème des frais. Puis-je contribuer à la création du module de formation ?
Oui. Vous allez contribuer à sa création parce que vous comprenez exactement ce qui s'est mal passé. Ce n'est pas une punition — c'est la chose la plus utile que vous puissiez faire.
Cette approche traite simultanément les trois dimensions réglementaires. Article 50(1) : le chatbot divulguera l'interaction avec l'IA. Article 50(2) : les contenus publiés porteront des mentions indiquant leur génération par IA. Article 50(4) : aucune représentation erronée supplémentaire. Article 13 : le cadre de gouvernance crée la documentation sur la transparence que les déployeurs sont tenus de conserver. Article 4 : la formation du personnel répond à l'obligation de culture de l'IA en vigueur depuis février 2025. Le coût est de 60 000 EUR. La pénalité maximale évitée est de 10,2 millions d'EUR. Cela représente un ratio risque/coût de 170 pour 1.
Elena propose l'approche ciblée. Fiona l'approuve immédiatement.
Voilà quelque chose avec lequel je peux travailler. Des étiquettes sur le blog, une liste de contrôle de révision, une divulgation pour le chatbot. Nous pouvons dire à la journaliste que nous sommes déjà en train de déployer tout cela. Quel est le calendrier ?
Les étiquettes d'ici une semaine. La bannière de divulgation du chatbot d'ici deux semaines.
Elena, cela traite les symptômes visibles, mais pas la cause profonde. Nous n'avons aucune documentation indiquant quels contenus ont été générés par l'IA. Aucune formation pour l'équipe sur ce qui nécessite une divulgation. Aucun processus de vérification des réponses du chatbot. Et le problème RGPD lié aux journaux de conversation — vous n'avez pas du tout abordé cela.
Nous traiterons le RGPD séparément. Cela nous permet de passer avant la date limite de la journaliste.
Et la Banque Centrale ? Si Robert Acheson dépose sa plainte, elle ne demandera pas si nous avons ajouté une bannière au chatbot. Elle demandera si nous disposons d'un système de gestion des risques. Si nous avons des processus de supervision humaine. Si nous avons formé notre personnel. En vertu de l'Article 9, un système de gestion des risques doit être « établi, mis en œuvre, documenté et maintenu ». Une liste de contrôle n'est pas un système.
Deux semaines plus tard : les mentions de divulgation sont en ligne sur le blog. Le chatbot affiche une petite bannière indiquant « Ce service utilise l'IA. » Mais les réponses de la FAQ n'ont pas été entièrement vérifiées — Amir a examiné les 20 questions les plus fréquentes, mais la base de connaissances du chatbot contient 340 modèles de réponses. Trois autres contiennent des informations obsolètes. L'un d'eux décrit incorrectement le processus de résolution des litiges de NovaTech, orientant les clients vers une équipe restructurée il y a quatre mois.
Une conformité au minimum vital traite l'Article 50 comme un simple exercice d'étiquetage. Ce n'est pas le cas. L'Article 50 s'inscrit dans une architecture de transparence plus large qui comprend l'Article 13 (transparence envers les déployeurs), l'Article 4 (culture de l'IA pour le personnel), et l'Article 26 (obligations des déployeurs, notamment la surveillance et la suspension). L'ajout d'une bannière est nécessaire mais insuffisant. Les réponses de la FAQ non vérifiées signifient que le chatbot continue de présenter un risque. L'exposition au RGPD liée aux journaux de conversation reste sans réponse.
Fiona prend les choses en main.
Voici ce que nous allons faire. L'appel avec le journaliste demain — je nous positionnerai en tant que leaders. « NovaTech a été à la pointe de l'adoption de l'IA dans la fintech, et nous sommes maintenant à la pointe de la transparence en matière d'IA. Nous lançons une initiative de divulgation. » Aucune mention du problème du chatbot. Aucune mention de la durée pendant laquelle nous avons fonctionné sans supervision.
Fiona, Niamh a signalé des problèmes sérieux—
Niamh fait son travail. Je fais le mien. Le conseil d'administration n'a pas besoin de connaître les détails tant que nous n'avons pas trouvé le bon angle de communication. Elena, dites à votre équipe — notamment Amir — que personne ne doit discuter de nos processus de contenu en externe. Cela inclut LinkedIn, cela inclut les anciens collègues, cela inclut les amis d'autres fintechs.
Fiona, je dois vous informer formellement que le fait d'instruire le personnel de ne pas discuter de préoccupations en matière de conformité en externe pourrait être interprété comme une suppression de la dénonciation. En vertu de la Directive européenne sur la protection des lanceurs d'alerte, que l'Irlande a transposée en 2022, les employés qui signalent des violations du droit de l'UE — y compris du Règlement sur l'IA de l'UE — sont protégés contre les représailles. Si Amir ou quelqu'un dans l'équipe d'Elena soulève cette préoccupation par un canal externe et que nous leur avons dit de ne pas en parler, notre position devient indéfendable.
Je ne supprime rien. Je demande simplement une discipline dans la communication.
Un régulateur ne le verra pas ainsi.
L'appel avec le journaliste vendredi : Fiona livre un récit soigneusement élaboré. Lena Richter écoute, puis demande :
Merci, Fiona. C'est utile. Juste pour clarifier — votre chatbot destiné aux clients, NovaAssist, utilise-t-il de l'IA générative ?
Notre chatbot utilise un traitement avancé du langage naturel, oui. Il est conçu pour aider les clients avec des demandes courantes.
Informe-t-il les utilisateurs qu'ils interagissent avec une IA ?
Nous sommes... en train d'ajouter des fonctionnalités de transparence renforcées.
Donc actuellement, non ?
Nous mettons en œuvre des mesures de transparence de pointe sur l'ensemble de nos points de contact IA.
Je comprends. Encore une chose — Robert Acheson, un client à Cork, affirme que votre chatbot lui a communiqué des informations erronées sur les frais et que NovaTech a refusé de les honorer. Êtes-vous au courant de cela ?
Je ne suis pas au courant de cas clients spécifiques, mais NovaTech prend tous les retours clients au sérieux.
L'article du FT Alphaville est publié le lundi : « NovaTech Financial : La Fintech qui ne sait pas expliquer sa propre IA »
L'article détaille : 11 mois de contenu généré par l'IA sans divulgation, l'erreur de frais du chatbot, et l'appel de Fiona au cours duquel elle « a systématiquement esquivé les questions sur le fait que les clients soient informés qu'ils interagissent avec une IA ». Robert Acheson a déposé sa plainte auprès de la Banque centrale d'Irlande le jeudi après-midi.
L'équipe des affaires réglementaires de la Banque Centrale m'a appelée à 7h15. Ils ont vu l'article du FT. Ils souhaitent comprendre notre cadre de gouvernance de l'IA. Je leur ai indiqué que nous leur fournirions la documentation dans les 48 heures. Elena — quelle documentation avons-nous ?
Nous avons un abonnement ChatGPT et 127 brouillons d'articles de blog non publiés sans historique des versions.
Dans ce cas, nous avons 48 heures pour bâtir un cadre que nous aurions dû construire il y a 11 mois. Et nous le faisons sous surveillance réglementaire, et non en amont de celle-ci.
La maîtrise du récit n'est pas une stratégie de conformité. Article 50 crée des obligations spécifiques et vérifiables — divulguer l'interaction avec l'IA (50(1)), étiqueter les contenus générés par l'IA (50(2)), ne pas faire passer des contenus générés par l'IA pour des contenus d'origine humaine (50(4)). L'approche de Fiona lors de l'appel avec la journaliste a créé une instance enregistrée d'esquive. L'instruction donnée à Amir de ne pas évoquer les processus de contenu en externe entre potentiellement en conflit avec la Directive de l'UE sur la protection des lanceurs d'alerte. En vertu de Article 99(3), la coopération avec les autorités de surveillance constitue un facteur atténuant dans le calcul des sanctions. NovaTech a renoncé à ce bénéfice atténuant.
Les décisions que vous avez prises en tant qu'Elena Vasquez ont eu des répercussions — sur l'équipe marketing, sur la réputation de NovaTech, sur Robert Acheson, sur le chatbot et sur la confiance du public. Voici ce qui s'est passé.
Article 50(1)
Divulgation des interactions avec l'IA
Article 50(2)
Étiquetage des contenus
Article 50(4)
Moment et modalités de divulgation
Article 13
Transparence
Article 4
Littératie en matière d'IA
Article 26
Obligations des déployeurs
Article 99
Sanctions
Air Canada v. Moffatt
Précédent en matière de responsabilité des chatbots
Demandez à votre équipe Formation & Développement de partager le classement d'équipe depuis votre tableau de bord LMS. Votre département peut-il surpasser les autres ?
Dans le Module 3, vous endosserez un rôle très différent : celui de Responsable des risques chez NovaTech Financial. Le modèle de notation de crédit par IA de l'entreprise rejette des candidats issus de certains codes postaux à des taux alarmants. Un candidat rejeté a déposé une plainte. Et le fournisseur d'IA refuse de divulguer le fonctionnement du modèle. Nous sommes en plein territoire de l'Article 6 — l'IA à haut risque, là où les enjeux sont les plus élevés.
Ressource Supplémentaire
Un résumé imprimable de tous les articles clés couverts dans les cinq modules — Articles 4, 5, 6, 9, 13, 14, 25, 26, 27, 50 et 99. Enregistrez en PDF pour consultation hors ligne.
Module 2 Terminé
Vous avez navigué dans le dilemme de la divulgation. Testez maintenant ce que vous avez appris.