Módulo 2
Miércoles, 9:17 — Dublín
Directora de Marketing y Comunicaciones en NovaTech Financial — una fintech europea de tamaño medio, 1.200 empleados, sede en Dublín. Regulada por el Banco Central de Irlanda.
Llega usted el miércoles por la mañana y encuentra dos correos electrónicos recibidos durante la noche: uno de un periodista del Financial Times y otro del Servicio de Atención al Cliente sobre una queja relacionada con un chatbot. Su director de marketing no estará disponible hasta el mediodía. La presentación de resultados del segundo trimestre es en 9 días.
Su equipo lleva 11 meses publicando contenido generado por IA — sin una política de divulgación, un proceso de revisión ni un registro documental.
Este módulo evalúa su comprensión sobre cuándo y cómo debe divulgarse el uso de la IA. Estas son las normas que necesitará conocer:
Article 50(1) — Divulgación del uso de chatbots
Cuando una persona interactúa con un sistema de IA, debe ser informada de que está interactuando con IA — en el momento de la interacción, no de forma oculta en los términos y condiciones. Esto se aplica a los chatbots, los asistentes virtuales y cualquier IA que un usuario pueda confundir con un ser humano.
Article 50(2) — Contenido generado por IA
El contenido generado o modificado sustancialmente por IA debe etiquetarse como generado artificialmente. Publicar entradas de blog, textos de marketing o informes redactados por IA sin divulgarlo incumple esta obligación. La revisión humana NO elimina el requisito de divulgación.
Article 99 — Sanciones
Facilitar información engañosa sobre el uso de IA a las autoridades: hasta €7,5 M o el 1 % de la facturación anual. La multa no es por utilizar IA — sino por ocultarla.
Principio clave
La transparencia no consiste en si la IA es “buena” o “mala”. Se trata del derecho del destinatario a saber. Un cliente atendido por un chatbot de IA, un lector de contenido generado por IA y un regulador que pregunta sobre el uso de IA en su organización tienen todos derecho a recibir información veraz.
Estimado equipo de Comunicaciones de NovaTech,
Estoy redactando un artículo sobre contenido generado por IA en el marketing de servicios financieros. He identificado varios artículos en su blog que parecen haber sido generados en gran medida por IA, entre ellos "The Future of Personal Finance" (publicado el 12 de marzo de 2026). ¿Podrían confirmar:
Trabajo con un plazo de entrega el viernes. Agradecería poder mantener una conversación con su Director de Marketing.
Atentamente,
Lena Richter, FT Alphaville
La periodista analizó el artículo con tres herramientas de detección de IA; todas lo marcaron como generado por IA en un >90%. Recibió el aviso de un antiguo contratista de NovaTech que observó que la producción del blog se triplicó tras la adopción de herramientas de IA.
El segundo correo electrónico: el cliente Robert Acheson utilizó el chatbot NovaAssist para preguntar sobre la mejora de su cuenta. El chatbot le indicó que el nivel premium no tenía "comisión de mantenimiento mensual durante los primeros 12 meses". Esa exención se eliminó hace 6 meses. Se le cobró 49 EUR.
Ha publicado en X: "El chatbot de IA de NovaTech me mintió sobre las comisiones. @CentralBankIE, ¿están atentos?" — 340 interacciones y en aumento.
He identificado varios artículos en su blog que parecen haber sido generados en gran medida por IA, incluido "El futuro de las finanzas personales". ¿Podría confirmar si este contenido fue producido con herramientas de IA y si NovaTech cuenta con una política de divulgación?
También le pregunto si su chatbot orientado al cliente utiliza IA generativa y, en ese caso, si se informa a los clientes al respecto.
Trabajo con un plazo de entrega el viernes. Agradecería una conversación con su Director/a de Marketing.
Necesito que NovaAssist cambie inmediatamente a enrutamiento solo humano. Todas las respuestas automáticas del chatbot deben desactivarse. Cada consulta debe ir a un agente en directo.
Eso va a triplicar la cola. Tenemos tres agentes de turno hasta la 1 PM.
Lo sé. Priorice las consultas urgentes. Cualquier persona que haya llamado sobre comisiones de cuenta en las últimas 48 horas recibirá una llamada de vuelta hoy.
Abre el CMS y despublica el artículo "Future of Personal Finance". Cancela la campaña de correo electrónico de las 14:00. Le envía un mensaje a Amir por Slack:
Amir, necesito una lista completa de todo el contenido que ha publicado utilizando herramientas de IA. Entradas de blog, textos para correos electrónicos, guiones para el chatbot, publicaciones en redes sociales. Todo lo de los últimos 11 meses. Lo necesito antes de las 11:00. Sin juicios de valor — necesito los hechos.
Elena, lo siento mucho. Es... prácticamente todo. Le preparo la lista.
A las 11:15, Elena dispone de una hoja de cálculo que muestra 127 entradas de blog, 34 campañas de correo electrónico, todos los guiones de preguntas frecuentes del chatbot y aproximadamente 200 publicaciones en redes sociales generadas en gran medida mediante IA. La más antigua fue publicada hace 11 meses. Ninguna incluía ningún tipo de divulgación.
En virtud del Article 50(2) del Reglamento de IA de la UE, los responsables del despliegue de sistemas de IA que generen texto sintético publicado «con el propósito de informar al público sobre asuntos de interés general» deben divulgar que el contenido fue generado artificialmente. El contenido de servicios financieros sobre finanzas personales entra, de forma razonable, dentro de este ámbito de aplicación. En virtud del Article 26(5), los responsables del despliegue deben suspender el uso de un sistema de IA cuando tengan motivos para creer que presenta un riesgo. La decisión de Elena de pausar el uso es el primer paso más justificable. La interrupción es real — pero es el coste de actuar cuando se identifica un riesgo, y no después de que lo identifique un organismo regulador.
Elena pasa la mañana frente a una hoja de cálculo. A las 11:30, tiene una visión parcial: al menos 90 entradas de blog, la mayoría de las campañas de correo electrónico y todos los guiones del chatbot parecen haber sido generados por IA. Pero la auditoría no está completa: Amir todavía está extrayendo datos y las publicaciones en redes sociales son más difíciles de rastrear.
A las 13:47, la campaña de correo electrónico se envía según lo programado. Se trata de una actualización de producto sobre las cuentas de ahorro de NovaTech. El asunto, el cuerpo del mensaje y la llamada a la acción fueron generados por ChatGPT. Llega a 28.000 suscriptores.
A las 14:15, un cliente en Berlín utiliza el chatbot y pregunta sobre las comisiones por transferencias internacionales. El chatbot responde basándose en el guion de Amir, que tiene seis meses de antigüedad. La estructura de comisiones cambió en enero. La respuesta es incorrecta en 12 EUR por transferencia.
Elena, me he enterado de que está realizando una auditoría. Bien. Pero el chatbot sigue activo. Y acaba de enviar una campaña de correo electrónico a 28.000 personas. Si alguno de esos contenidos es inexacto, cada hora que permanezca ahí fuera supone una exposición adicional. Una auditoría sin acción no es más que documentar un problema que usted conocía y no corrigió.
Article 26(5) exige a los responsables de despliegue que suspendan el uso cuando identifiquen un riesgo. Elena identificó el riesgo a las 9:17. La campaña de correo electrónico se envió a las 13:47, casi cinco horas después. El chatbot continuó ofreciendo respuestas potencialmente inexactas. Si un regulador examina posteriormente la cronología, «todavía estábamos auditando» es una defensa débil. El segundo error del chatbot (el cliente de Berlín) agrava la responsabilidad.
Elena redacta una respuesta para Lena Richter a las 9:35 h:
Estimada Lena:
Gracias por ponerse en contacto con nosotros. NovaTech utiliza herramientas de IA como parte de su flujo de trabajo de creación de contenidos, con supervisión editorial humana en cada etapa del proceso. Creemos en el uso responsable de la IA para mejorar nuestras comunicaciones y nos comprometemos a actuar con transparencia en nuestra forma de operar.
Con mucho gusto puedo organizar una llamada con nuestra Directora de Marketing, Fiona Gallagher, a finales de esta semana para hablar sobre nuestro enfoque con más detalle.
Atentamente,
Elena Vasquez
Directora de Marketing y Comunicaciones
El problema: la declaración contiene una inexactitud factual. No existe «supervisión editorial humana en cada etapa». Amir ha estado publicando directamente a partir del contenido generado por ChatGPT.
A las 11:40 h, Lena responde:
Gracias, Elena. Le agradezco la rápida respuesta. ¿Podría precisar en qué consiste concretamente la «supervisión editorial humana en cada etapa»? He hablado con un antiguo colaborador que describe un proceso diferente. También me gustaría entender si el artículo «Future of Personal Finance» tiene un autor humano identificado o si «NovaTech Insights Team» es un nombre de firma utilizado para contenido generado por IA. Con gusto podemos hablar en una llamada.
Mientras tanto, el chatbot sigue en funcionamiento. El tuit de Robert Acheson acumula ya 1.200 interacciones. Una cuenta de defensa de los derechos del consumidor lo ha retuiteado: «Otro chatbot de IA dando información financiera incorrecta. ¿Cuándo va a actuar el Banco Central?»
Elena, acabo de ver su correo a la periodista del FT. Le dijo que tenemos «supervisión editorial humana en cada etapa». ¿Es así?
Yo—
Porque si no es así, y ella puede demostrarlo, esa respuesta se convierte en evidencia de haber inducido a error a una periodista sobre nuestras prácticas de IA. En virtud del Article 50(4), los responsables del despliegue no deben tergiversar la naturaleza generada por IA de los contenidos. Y en virtud del Article 99, proporcionar información engañosa puede acarrear multas de hasta 7,5 millones de euros o el 1 % de la facturación. Ha convertido un problema de transparencia en un problema de engaño.
El Article 50(4) del Reglamento de IA de la UE prohíbe presentar contenido generado por IA de manera que induzca a error al destinatario sobre su origen artificial. El correo de Elena a la periodista da a entender un sólido proceso de revisión humana que no existe. Esto transforma una laguna en la divulgación (grave pero subsanable) en una representación errónea afirmativa (mucho más grave). En virtud del Article 99(4), se aplican multas de hasta 7,5 millones de euros o el 1 % de la facturación global por proporcionar información engañosa. Aunque una periodista no es una autoridad reguladora, el correo crea un registro documentado de afirmaciones que pueden verificarse.
Fiona llama desde Madrid. Se ha enterado de la consulta del periodista a través de su asistente ejecutiva.
Elena, ¿qué está pasando con lo del FT?
[Resume la situación — el periodista, el chatbot, la reclamación del cliente, el alcance del contenido generado por IA]
¿Qué tan grave es?
127 entradas de blog, 34 campañas de correo electrónico, todos los guiones del chatbot. Once meses. Sin divulgación en ninguno de ellos.
Entendido. Mira, regreso el jueves por la tarde. ¿Podemos esperar hasta entonces?
El plazo del periodista es el viernes.
Entonces dile que tendremos una respuesta completa para el jueves. Gánanos un día. Y Elena — no le cuentes más de lo necesario. Esto no es una confesión, es una situación de relaciones públicas.
Fiona, Niamh dice que es una situación de cumplimiento normativo. Article 50 of the AI Act—
El Reglamento de IA de la UE aún no está completamente en vigor. Tenemos hasta agosto. No reaccionemos de forma exagerada.
Las disposiciones de transparencia ya están en vigor para los resultados de la IA de uso general. Y el chatbot le dio información incorrecta a un cliente. Está amenazando con denunciarlo al Banco Central.
Está bien. Involucrad a Niamh. Pero os digo que si publicamos una declaración diciendo «usamos IA y no se lo dijimos a nadie», eso será el titular. Seamos más inteligentes que eso.
Fiona cuelga. Niamh está esperando en la oficina de Elena.
Escuché la llamada. Fiona quiere gestionar el relato. Entiendo por qué. Pero esto es lo que no está teniendo en cuenta: las obligaciones de transparencia del Article 50 para el contenido generado por IA que podría confundirse con contenido generado por humanos ya son exigibles para los sistemas de IA de uso general. No estamos en una zona gris. Y el chatbot — eso es el Article 50(1). Las personas que interactúan con un sistema de IA deben ser informadas de que están interactuando con IA. Nuestro chatbot no revela en absoluto que utiliza IA. Ni en la interfaz, ni en los términos, en ningún lugar.
¿Y qué hay del cliente? Robert Acheson.
El precedente de Air Canada es claro. Un tribunal declaró a la aerolínea responsable de todas las declaraciones que realizó su chatbot. Nuestro chatbot le dijo que no había ninguna tarifa de mantenimiento. Si no rectificamos esto, tiene un caso sólido — y no solo bajo el Reglamento de IA de la UE. Esto es protección básica del consumidor.
Elena tiene el panorama completo. Debe decidir cómo responde NovaTech — al periodista, al cliente y de manera interna. Niamh ha preparado tres opciones. Fiona ha dejado clara su preferencia: minimizar la divulgación.
Responder al periodista con honestidad: el artículo fue generado por IA, la empresa está implementando inmediatamente una política de divulgación integral. Llamar directamente a Robert Acheson, revertir la comisión y disculparse. Redactar una política de contenido de IA para que Fiona la apruebe el jueves. Art. 50(1) · Art. 50(2) · Art. 50(4)
Decirle al periodista: «NovaTech utiliza herramientas de IA para asistir a nuestro equipo de contenidos. Todo el contenido es revisado por editores humanos antes de su publicación. Estamos desarrollando un marco formal de divulgación.» En su mayor parte cierto — de cara al futuro. Gestionar el caso de Robert Acheson a través del Servicio de Atención al Cliente con un reembolso de buena voluntad. Esperar a Fiona antes de crear la política.
Decirle a la periodista que NovaTech está "a la vanguardia de la adopción responsable de la IA" y ofrecerle una llamada con el CMO el jueves. No abordar detalles específicos. Escalar el caso de Robert Acheson como una reclamación estándar. Sin cambios internos hasta que Fiona decida.
Elena redacta dos comunicaciones. La primera, dirigida a Lena Richter:
Estimada Lena:
Gracias por su paciencia. Quiero ser directa con usted.
NovaTech ha estado utilizando herramientas de IA generativa en nuestra función de contenidos durante los últimos 11 meses. Esto incluye entradas de blog, campañas de correo electrónico y guiones para el chatbot. El artículo que usted identificó — "The Future of Personal Finance" — fue generado mediante herramientas de IA. No debería haberse publicado sin una declaración de divulgación, ni sin una revisión humana de sus afirmaciones de hecho.
Hemos identificado esto como una laguna en nuestros procesos y estamos tomando medidas inmediatas:
Reconozco que este es un ámbito en evolución para todo el sector, y deberíamos haber avanzado más rápido en materia de gobernanza. Nos gustaría tener la oportunidad de hablar con usted sobre nuestro enfoque — no para gestionar una narrativa, sino para ser honestos sobre lo que ocurrió y lo que estamos haciendo al respecto.
Elena Vasquez
En segundo lugar, Elena llama directamente a Robert Acheson.
Mr. Acheson, me llamo Elena Vasquez. Soy la Directora de Marketing de NovaTech. Le llamo en relación con su experiencia con nuestro chatbot.
Por fin alguien que no lee un guion.
He revisado lo ocurrido. Nuestro chatbot le proporcionó información incorrecta sobre la exención de la comisión de la cuenta premium. Dicha exención fue eliminada hace seis meses, pero la información del chatbot no se actualizó. El error es nuestro, no suyo.
¿Y qué va a hacer al respecto?
Tres cosas. En primer lugar, revertiremos el cargo de 49 EUR de inmediato. En segundo lugar, aplicaremos la exención de comisión que le ofreció el chatbot — sin comisión de mantenimiento durante 12 meses. En tercer lugar, revisaremos todas las respuestas automatizadas del chatbot para asegurarnos de que la información esté actualizada.
Eso es... justo. Es lo que pedía desde el principio. El equipo de soporte no dejaba de decirme que el chatbot no era vinculante.
No deberían haberle dicho eso. Si nuestro sistema le facilita información y usted actúa de buena fe en base a ella, debemos respaldarla.
Le agradezco la llamada. Eliminaré el tuit.
Ese fue el enfoque correcto. El tribunal de Air Canada declaró a la aerolínea responsable porque intentaron desvincularse de las afirmaciones del chatbot. Usted acaba de hacer lo contrario — y eso es defendible. Si esto llega al Banco Central, podemos demostrar que identificamos el problema, contactamos al cliente y lo resolvimos en menos de 24 horas.
El Article 50(1) exige que las personas que interactúen con un sistema de IA sean informadas de ese hecho. El chatbot de NovaTech no reveló nada. El Article 50(2) exige que el contenido generado por IA que pueda confundirse con contenido generado por humanos esté marcado como generado artificialmente. Las entradas del blog de NovaTech llevaban una firma con nombre propio. Al optar por la transparencia total, Elena establece un registro documentado de identificación, acción y subsanación — los tres elementos que los reguladores buscan al evaluar la buena fe. Es probable que el artículo del FT se publique, pero dirá «fintech identifica brecha de transparencia en IA y actúa» en lugar de «fintech oculta contenido de IA».
Elena envía una respuesta cuidadosamente redactada al periodista:
Estimada Lena:
NovaTech incorpora la IA como parte de su flujo de trabajo de contenidos. Todo el contenido es revisado por editores humanos antes de su publicación, y estamos desarrollando un marco formal de divulgación alineado con los requisitos de transparencia del Reglamento de IA de la UE. Estaríamos encantados de hablar sobre nuestro enfoque con nuestra CMO, Fiona Gallagher, quien está disponible para una llamada el viernes.
Elena Vasquez
La declaración es técnicamente prospectiva — "todo el contenido es revisado" será cierto una vez que se implemente el nuevo proceso. Pero no es cierto hoy, y no lo fue durante los últimos 11 meses.
Lena responde en menos de una hora:
Gracias, Elena. Acepto con gusto la llamada con Fiona. Algunas preguntas adicionales: ¿Fue el artículo "Future of Personal Finance" revisado por un editor humano antes de su publicación? ¿Puede compartir el nombre del editor? ¿Y puede confirmar si su chatbot utiliza IA generativa? — uno de sus clientes ha manifestado públicamente su preocupación por haber recibido información incorrecta de este.
Mientras tanto, el Servicio de Atención al Cliente gestiona el caso de Robert Acheson con un reembolso de 49 EUR y un correo electrónico de "disculpe las molestias". Robert queda parcialmente satisfecho, pero no elimina su tuit. Responde: "Agradezco el reembolso. Pero alguien tiene que responder por qué una IA está dando consejos financieros sin informar a las personas de que es una IA."
Elena, la periodista va a preguntar sobre el artículo en concreto. Ya conoce la respuesta. Si Fiona le dice el viernes que el artículo fue revisado por un editor humano, y la periodista tiene pruebas de que no fue así, habremos pasado de un problema de transparencia a un problema de credibilidad. Y en cuanto al cliente — un reembolso sin reconocer que el chatbot funciona con IA no es suficiente en virtud del Article 50(1). Hemos resuelto el cargo, pero no la divulgación.
El enfoque de divulgación parcial crea un problema de cronología. NovaTech identificó el problema del contenido de IA el miércoles por la mañana. Respondieron con una declaración prospectiva que implica cumplimiento actual. Si la periodista publica la afirmación original y luego demuestra que era engañosa, la credibilidad de NovaTech ante el regulador se verá erosionada. Según el Article 50(4), la obligación es clara: el contenido que pueda confundirse con contenido generado por humanos debe estar etiquetado. Una política prospectiva no subsana retroactivamente 11 meses de contenido sin etiquetar. El reembolso al cliente es apropiado pero insuficiente — el problema de divulgación del chatbot sigue sin resolverse.
Elena envía un correo electrónico a la periodista:
Estimada Lena:
Gracias por su consulta. NovaTech está a la vanguardia de la adopción responsable de la IA en los servicios financieros. Nuestra CMO, Fiona Gallagher, estaría encantada de hablar con usted sobre nuestro enfoque. Tiene disponibilidad para una llamada el jueves por la tarde o el viernes por la mañana.
Elena Vasquez
La respuesta no aborda ninguna de las tres preguntas concretas de la periodista. Lena lo reconoce de inmediato. No responde. En cambio, publica en X a las 17:30 h:
"Le pregunté a NovaTech Financial si su blog de liderazgo de opinión está generado por IA. Recibí una respuesta evasiva. Además: su chatbot le dio a un cliente información incorrecta sobre las tarifas. Un patrón interesante. Artículo el viernes. @NovaTechFinancial"
El jueves por la mañana, el tuit acumula 3.400 interacciones. Otras dos publicaciones del sector fintech lo han recogido. El equipo de prensa del Banco Central de Irlanda lo ha visto. La reclamación de Robert Acheson fue tramitada como un ticket estándar de atención al cliente — recibió un correo electrónico automatizado y respondió: "No quiero una disculpa automatizada de la misma empresa cuya IA me mintió. Voy a presentar una denuncia ante el Banco Central."
Elena, hemos perdido el control de la situación. El periodista publica mañana con o sin nuestra colaboración. El cliente ha escalado el asunto al Banco Central. Y Fiona no regresa hasta esta noche. Si entra a esa llamada con el periodista el viernes con una actitud de "aquí no ha pasado nada", esto se convierte en el titular principal, no en una nota secundaria.
¿Qué hacemos?
Tendríamos que haberlo hecho ayer. El Article 50 exigía transparencia desde el momento en que desplegamos estos sistemas. Cada día que demoramos, la paciencia del regulador mengua. Necesito informar al consejo. Esto ya no es un problema de marketing.
Los retrasos agravan la exposición al riesgo en virtud del Reglamento de IA de la UE. El Article 26(5) exige a los responsables del despliegue que suspendan el uso cuando identifiquen un riesgo para los derechos fundamentales. Elena identificó el riesgo el miércoles por la mañana. El jueves, el chatbot sigue funcionando sin divulgación, el contenido generado por IA permanece publicado sin etiquetas y la única comunicación de la empresa con el periodista fue una evasiva. En virtud del Article 99, los reguladores tienen en cuenta "el grado de cooperación con la autoridad de supervisión" a la hora de fijar las sanciones. Obstaculizar a un periodista no es ilegal — pero cuando el regulador lea el artículo del FT y compruebe que la respuesta de NovaTech fue "estamos a la vanguardia de la adopción responsable de la IA", la valoración de la cooperación no resultará favorable.
Niamh reenvía a Elena un correo electrónico del Delegado de Protección de Datos (DPD) de NovaTech:
Elena / Niamh,
He revisado la configuración del chatbot NovaAssist. Hay tres problemas:
Recomiendo la suspensión inmediata a la espera de una revisión de cumplimiento.
Atentamente,
Dr. Katya Novak, DPD
Esto ya no es solo un problema del Reglamento de IA de la UE. El chatbot acumula tres infracciones. Cualquiera de ellas podría desencadenar una investigación regulatoria. ¿Las tres juntas? Tenemos que cerrar esto hoy mismo.
Fiona dirá que estamos exagerando.
Fiona no es quien estará sentada frente al inspector del Banco Central. Article 50(1) es claro: si una persona interactúa con un sistema de IA, debe ser informada de ello. No existe ninguna excepción de «a menos que la directora de marketing considere que no es necesario».
Fiona llega a la oficina de Dublín con el jet lag encima. Ha visto la cobertura mediática. Convoca una reunión de urgencia con Elena, Niamh y Amir.
Bien. ¿En qué punto estamos? Y antes de que alguien responda: no busco culpables. Yo impulsé la adopción de la IA. Eso es responsabilidad mía. Pero necesitamos un plan para las próximas 24 horas y otro para los próximos 6 meses.
El plan de las 24 horas es la llamada con el periodista. El plan de los 6 meses es el marco de gobernanza de contenidos de IA que necesitamos antes de que Article 50 entre en plena vigencia en agosto. Pero están interconectados: lo que le digamos al periodista mañana debe ser coherente con la política que estamos construyendo. Si decimos una cosa al FT y hacemos otra internamente, creamos un registro documentado de tergiversación.
¿Cuáles son las opciones?
Marco completo de gobernanza de contenidos de IA: divulgación obligatoria, revisión humana, rediseño del chatbot con divulgación de IA, auditorías trimestrales, formación del personal. Presente esto al periodista como una iniciativa proactiva. Niamh prepara un informe regulatorio para el Banco Central. Art. 50 · Art. 13 · Art. 4 · Art. 26
Corrección específica: añadir etiquetas de divulgación al blog, implementar una lista de verificación de revisión, añadir un banner de divulgación de IA al chatbot. No reformar todo — simplemente añadir la divulgación y verificar manualmente las respuestas de las FAQ esta semana. Etiquetas en 7 días, divulgación del chatbot en 14 días.
Posicionar a NovaTech como «líder en transparencia» sin reconocer 11 meses sin supervisión. Enmarcar la llamada del periodista como una oportunidad de liderazgo de opinión. No mencionar el chatbot. Decirle a Amir que no comente los procesos de IA externamente. Informar al consejo de forma mínima.
Elena presenta el marco de gobernanza. Fiona escucha, inicialmente reticente, pero luego cambia de postura.
¿Quiere que participe en una llamada con el FT y diga que hemos estado usando IA sin divulgación durante 11 meses?
Quiero que participe en la llamada y diga que identificamos una brecha, hemos construido un marco y lo estamos implementando. La noticia es el marco, no la brecha.
Fiona, necesito añadir algo. Si el Banco Central abre una investigación —y creo que hay un 60% de probabilidades de que lo haga, basándome en la reclamación sobre el chatbot— lo primero que preguntarán es qué hicimos cuando nos enteramos. Si podemos demostrar un marco de gobernanza integral adoptado en un plazo de 72 horas desde su identificación, esa será la diferencia entre una carta de advertencia y una investigación formal.
¿Cuál es el coste?
El relanzamiento del chatbot: aproximadamente 40.000 EUR, incluida la revisión de cumplimiento y el rediseño. La auditoría del contenido existente: necesitaré un contratista durante dos meses, unos 15.000 EUR. La formación del personal: podemos hacerla internamente. Total: menos de 60.000 EUR.
¿Y el coste de no hacerlo?
Article 99. Hasta 15 millones de euros, o el 3% de la facturación global — ese es el nivel superior para las infracciones de las obligaciones del desplegador, no solo por información engañosa (que conlleva el nivel inferior del 1%). Para NovaTech, eso supone 10,2 millones de euros. Y eso es solo el Reglamento de IA de la UE — la exposición al RGPD derivada de los registros del chatbot es aparte.
Construid el marco. Yo haré la llamada.
Elena... quiero ayudar. Sé que yo fui la causa de gran parte de esto. Debería haber preguntado por un proceso de revisión. Debería haber verificado las respuestas del chatbot con respecto al calendario de tarifas. ¿Puedo ayudar a desarrollar el módulo de formación?
Sí. Vas a ayudar a desarrollarlo porque entiendes exactamente qué salió mal. Eso no es un castigo — es lo más útil que puedes hacer.
Este enfoque aborda las tres dimensiones regulatorias de forma simultánea. Article 50(1): el chatbot informará sobre la interacción con IA. Article 50(2): el contenido publicado llevará etiquetas de generación por IA. Article 50(4): ninguna representación falsa adicional. Article 13: el marco de gobernanza crea la documentación de transparencia que los desplegadores deben mantener. Article 4: la formación del personal aborda la obligación de alfabetización en IA vigente desde febrero de 2025. El coste es de 60.000 euros. La sanción máxima evitada es de 10,2 millones de euros. Eso supone una ratio de riesgo-coste de 170:1.
Elena propone el enfoque específico. Fiona lo aprueba de inmediato.
Con esto puedo trabajar. Etiquetas en el blog, lista de verificación, aviso de divulgación en el chatbot. Podemos decirle a la periodista que ya lo estamos implementando. ¿Cuál es el plazo?
Las etiquetas en una semana. El aviso de divulgación en el chatbot en dos semanas.
Elena, esto aborda los síntomas visibles, pero no la causa raíz. No tenemos documentación de qué contenido fue generado por IA. No hay formación para el equipo sobre qué requiere divulgación. No existe ningún proceso de verificación de las respuestas del chatbot. Y el problema del RGPD con los registros de conversaciones — eso no lo ha abordado en absoluto.
El RGPD lo gestionaremos por separado. Esto nos permite superar el plazo de la periodista.
¿Y qué hay del Banco Central? Si Robert Acheson presenta su reclamación, no preguntarán si añadimos un aviso al chatbot. Preguntarán si disponemos de un sistema de gestión de riesgos. Si contamos con procesos de supervisión humana. Si formamos a nuestro personal. Con arreglo al Article 9, un sistema de gestión de riesgos debe estar «establecido, implementado, documentado y mantenido». Una lista de verificación no es un sistema.
Dos semanas después: Las etiquetas de divulgación están activas en el blog. El chatbot tiene un pequeño banner que dice "Este servicio utiliza IA." Pero las respuestas de las FAQ no han sido completamente verificadas — Amir revisó las 20 preguntas más frecuentes, pero la base de conocimientos del chatbot contiene 340 plantillas de respuesta. Tres más contienen información desactualizada. Una indica incorrectamente el proceso de resolución de disputas de NovaTech, dirigiendo a los clientes a un equipo que fue reestructurado hace cuatro meses.
El cumplimiento mínimo viable trata el Article 50 como un ejercicio de etiquetado. No lo es. El Article 50 forma parte de una arquitectura de transparencia más amplia que incluye el Article 13 (transparencia hacia los responsables del despliegue), el Article 4 (alfabetización en IA para el personal) y el Article 26 (obligaciones del responsable del despliegue, incluidos el seguimiento y la suspensión). Añadir un banner es necesario pero insuficiente. Las respuestas de FAQ no verificadas implican que el chatbot sigue representando un riesgo. La exposición al RGPD derivada de los registros de conversaciones permanece sin resolver.
Fiona toma la iniciativa.
Esto es lo que haremos. La llamada con la periodista de mañana — me posicionaré como líderes. "NovaTech ha estado a la vanguardia de la adopción de IA en el sector fintech, y ahora estamos a la vanguardia de la transparencia en IA. Vamos a lanzar una iniciativa de divulgación." Sin mencionar el problema del chatbot. Sin mencionar cuánto tiempo llevamos operando sin supervisión.
Fiona, Niamh ha señalado problemas graves—
Niamh está haciendo su trabajo. Yo estoy haciendo el mío. La junta directiva no necesita conocer los detalles hasta que hayamos perfilado bien el mensaje. Elena, dígale a su equipo — especialmente a Amir — que nadie hable de nuestros procesos de contenido con personas externas. Eso incluye LinkedIn, incluye a excompañeros, incluye a amigos en otras empresas fintech.
Fiona, necesito comunicarle formalmente que instruir al personal para que no comente externamente sus preocupaciones en materia de cumplimiento podría interpretarse como supresión de la denuncia de irregularidades. En virtud de la Directiva europea sobre protección de denunciantes, que Irlanda transpuso en 2022, los empleados que comuniquen infracciones del derecho de la UE — incluido el Reglamento de IA de la UE — están protegidos frente a represalias. Si Amir o cualquier miembro del equipo de Elena plantea esta preocupación a través de un canal externo y nosotros les hemos dicho que no hablen, nuestra posición será indefendible.
No estoy suprimiendo nada. Estoy pidiendo coherencia en el mensaje.
Un regulador no lo verá de esa manera.
La llamada del viernes con la periodista: Fiona presenta un relato pulido. Lena Richter escucha y luego pregunta:
Gracias, Fiona. Es útil saberlo. Solo para aclarar — su chatbot de atención al cliente, NovaAssist, ¿utiliza IA generativa?
Nuestro chatbot utiliza procesamiento avanzado del lenguaje natural, sí. Está diseñado para ayudar a los clientes con consultas habituales.
¿Informa a los usuarios de que están interactuando con una IA?
Estamos... en proceso de añadir funciones de transparencia mejoradas.
¿Es decir que actualmente no?
Estamos implementando medidas de transparencia líderes en el sector en todos nuestros puntos de contacto con IA.
Entiendo. Una cosa más — Robert Acheson, un cliente en Cork, afirma que su chatbot le proporcionó información incorrecta sobre las tarifas y que NovaTech no la respetó. ¿Tiene usted conocimiento de esto?
No tengo conocimiento de casos específicos de clientes, pero NovaTech se toma muy en serio todos los comentarios de sus clientes.
El artículo de FT Alphaville se publica el lunes: "NovaTech Financial: La Fintech que no sabe explicar su propia IA"
El artículo detalla: 11 meses de contenido generado por IA sin divulgación, el error de tarifas del chatbot y la llamada de Fiona en la que «eludió repetidamente las preguntas sobre si se informa a los clientes de que están interactuando con una IA». Robert Acheson presentó su reclamación ante el Banco Central de Irlanda el jueves por la tarde.
El equipo de Asuntos Regulatorios del Banco Central me llamó a las 7:15. Han visto el artículo del FT. Quieren entender nuestro marco de gobernanza de IA. Les dije que proporcionaríamos documentación en 48 horas. Elena — ¿qué documentación tenemos?
Tenemos una suscripción a ChatGPT y 127 borradores de entradas de blog sin publicar, sin historial de versiones.
Entonces tenemos 48 horas para construir un marco que deberíamos haber construido hace 11 meses. Y lo estamos construyendo bajo el escrutinio regulatorio, no antes de él.
El control de la narrativa no es una estrategia de cumplimiento. Article 50 establece obligaciones específicas y verificables — revelar la interacción con IA (50(1)), etiquetar el contenido generado por IA (50(2)), no hacer pasar contenido de IA por contenido generado por personas (50(4)). El enfoque de Fiona en la llamada con la periodista creó un registro de evasión. La instrucción a Amir de no hablar externamente sobre los procesos de contenido podría entrar en conflicto con la Directiva de la UE sobre protección de denunciantes. En virtud del Article 99(3), la cooperación con las autoridades de supervisión es un factor atenuante en el cálculo de sanciones. NovaTech ha perdido esa atenuación.
Las decisiones que tomó como Elena Vasquez se propagaron hacia afuera — al equipo de marketing, a la reputación de NovaTech, a Robert Acheson, al chatbot y a la confianza pública. Esto es lo que ocurrió.
Article 50(1)
Divulgación de la interacción con IA
Article 50(2)
Etiquetado de contenidos
Article 50(4)
Momento y Forma de la Divulgación
Article 13
Transparencia
Article 4
Alfabetización en IA
Article 26
Obligaciones del Responsable del Despliegue
Article 99
Sanciones
Air Canada v. Moffatt
Precedente de responsabilidad por chatbot
Pida a su equipo de F&D que comparta la clasificación del equipo desde el panel de su LMS. ¿Puede su departamento superar al resto?
En el Módulo 3, asumirá un rol muy diferente: Director de Riesgos en NovaTech Financial. El modelo de puntuación crediticia por IA de la empresa ha estado rechazando solicitantes de determinados códigos postales a tasas alarmantes. Un solicitante rechazado ha presentado una reclamación. Y el proveedor de IA no quiere compartir el funcionamiento del modelo. Esto es territorio del Article 6 — IA de alto riesgo, donde las consecuencias son más graves.
Recurso Complementario
Un resumen imprimible de todos los artículos clave tratados en los cinco módulos: Article 4, 5, 6, 9, 13, 14, 25, 26, 27, 50 y 99. Guárdelo como PDF para consultarlo sin conexión.
Módulo 2 Completado
Navegó por el dilema de la divulgación. Ahora ponga a prueba lo que ha aprendido.