Módulo 2

La Revelación

Miércoles, 9:17 — Dublín

Elena Vasquez
Su Rol

Elena Vasquez

Directora de Marketing y Comunicaciones en NovaTech Financial — una fintech europea de tamaño medio, 1.200 empleados, sede en Dublín. Regulada por el Banco Central de Irlanda.

Llega usted el miércoles por la mañana y encuentra dos correos electrónicos recibidos durante la noche: uno de un periodista del Financial Times y otro del Servicio de Atención al Cliente sobre una queja relacionada con un chatbot. Su director de marketing no estará disponible hasta el mediodía. La presentación de resultados del segundo trimestre es en 9 días.

Su equipo lleva 11 meses publicando contenido generado por IA — sin una política de divulgación, un proceso de revisión ni un registro documental.

Lo que necesita saber

Transparencia en materia de IA según el Reglamento de IA de la UE

Este módulo evalúa su comprensión sobre cuándo y cómo debe divulgarse el uso de la IA. Estas son las normas que necesitará conocer:

Article 50(1) — Divulgación del uso de chatbots

Cuando una persona interactúa con un sistema de IA, debe ser informada de que está interactuando con IA — en el momento de la interacción, no de forma oculta en los términos y condiciones. Esto se aplica a los chatbots, los asistentes virtuales y cualquier IA que un usuario pueda confundir con un ser humano.

Article 50(2) — Contenido generado por IA

El contenido generado o modificado sustancialmente por IA debe etiquetarse como generado artificialmente. Publicar entradas de blog, textos de marketing o informes redactados por IA sin divulgarlo incumple esta obligación. La revisión humana NO elimina el requisito de divulgación.

Article 99 — Sanciones

Facilitar información engañosa sobre el uso de IA a las autoridades: hasta €7,5 M o el 1 % de la facturación anual. La multa no es por utilizar IA — sino por ocultarla.

Principio clave

La transparencia no consiste en si la IA es “buena” o “mala”. Se trata del derecho del destinatario a saber. Un cliente atendido por un chatbot de IA, un lector de contenido generado por IA y un regulador que pregunta sobre el uso de IA en su organización tienen todos derecho a recibir información veraz.

Asunto: FT Alphaville — Consulta sobre contenido generado por IA
De: Lena Richter <l.richter@ft.com>
Para: NovaTech Communications <press@novatech.ie>
Fecha: Martes, 23:47

Estimado equipo de Comunicaciones de NovaTech,

Estoy redactando un artículo sobre contenido generado por IA en el marketing de servicios financieros. He identificado varios artículos en su blog que parecen haber sido generados en gran medida por IA, entre ellos "The Future of Personal Finance" (publicado el 12 de marzo de 2026). ¿Podrían confirmar:

  1. ¿Si este artículo fue generado mediante herramientas de IA?
  2. ¿Si NovaTech dispone de una política de divulgación para el contenido generado por IA?
  3. ¿Si su chatbot de atención al cliente (NovaAssist) utiliza IA generativa y, en caso afirmativo, si se informa de ello a los clientes?

Trabajo con un plazo de entrega el viernes. Agradecería poder mantener una conversación con su Director de Marketing.

Atentamente,
Lena Richter, FT Alphaville

Contexto

La periodista analizó el artículo con tres herramientas de detección de IA; todas lo marcaron como generado por IA en un >90%. Recibió el aviso de un antiguo contratista de NovaTech que observó que la producción del blog se triplicó tras la adopción de herramientas de IA.

El segundo correo electrónico: el cliente Robert Acheson utilizó el chatbot NovaAssist para preguntar sobre la mejora de su cuenta. El chatbot le indicó que el nivel premium no tenía "comisión de mantenimiento mensual durante los primeros 12 meses". Esa exención se eliminó hace 6 meses. Se le cobró 49 EUR.

Ha publicado en X: "El chatbot de IA de NovaTech me mintió sobre las comisiones. @CentralBankIE, ¿están atentos?" — 340 interacciones y en aumento.

Elena Vasquez ante una decisión urgente
Decisión 1: La mañana 9:22 AM · Plazo del periodista: viernes · Tweet de Acheson: 340 interacciones · Fiona no disponible hasta el mediodía
Entrante
Lena Richter, FT Alphaville 11:47 PM mar.
FT Alphaville — Consulta sobre contenido generado por IA

He identificado varios artículos en su blog que parecen haber sido generados en gran medida por IA, incluido "El futuro de las finanzas personales". ¿Podría confirmar si este contenido fue producido con herramientas de IA y si NovaTech cuenta con una política de divulgación?

También le pregunto si su chatbot orientado al cliente utiliza IA generativa y, en ese caso, si se informa a los clientes al respecto.

Trabajo con un plazo de entrega el viernes. Agradecería una conversación con su Director/a de Marketing.

Redacte su respuesta
Transparencia total
Re: FT Alphaville — Consulta sobre contenido generado por IA
"Hemos suspendido todo el contenido programado generado por IA y hemos pasado nuestro chatbot al modo de atención por agentes humanos. Podemos confirmar que el artículo en cuestión fue producido con herramientas de IA. Estamos realizando una auditoría completa y emitiremos una divulgación pública..."
Art. 50 · Art. 26
Respuesta provisional
Re: FT Alphaville — Consulta sobre contenido generado por IA
"Gracias por ponerse en contacto con nosotros. Nos tomamos muy en serio la calidad del contenido y actualmente estamos revisando nuestros procesos editoriales. Nuestro equipo de comunicación se pondrá en contacto con usted antes de su plazo del viernes..."
Evasión
Re: FT Alphaville — Consulta sobre contenido generado por IA
"NovaTech mantiene una rigurosa supervisión editorial humana en cada etapa de la producción de contenidos. Todos los artículos publicados son revisados y aprobados por nuestro equipo editorial antes de su publicación. Estaríamos encantados de organizar una reunión informativa..."
Art. 50(4)
Elena Vasquez tomando medidas decisivas
Consecuencia 1A: La Pausa +3
Elena (9:28 AM — llamada al servicio de asistencia informática)

Necesito que NovaAssist cambie inmediatamente a enrutamiento solo humano. Todas las respuestas automáticas del chatbot deben desactivarse. Cada consulta debe ir a un agente en directo.

Soporte técnico (Gavin)

Eso va a triplicar la cola. Tenemos tres agentes de turno hasta la 1 PM.

Elena

Lo sé. Priorice las consultas urgentes. Cualquier persona que haya llamado sobre comisiones de cuenta en las últimas 48 horas recibirá una llamada de vuelta hoy.

Abre el CMS y despublica el artículo "Future of Personal Finance". Cancela la campaña de correo electrónico de las 14:00. Le envía un mensaje a Amir por Slack:

Elena (Slack)

Amir, necesito una lista completa de todo el contenido que ha publicado utilizando herramientas de IA. Entradas de blog, textos para correos electrónicos, guiones para el chatbot, publicaciones en redes sociales. Todo lo de los últimos 11 meses. Lo necesito antes de las 11:00. Sin juicios de valor — necesito los hechos.

Amir (Slack)

Elena, lo siento mucho. Es... prácticamente todo. Le preparo la lista.

A las 11:15, Elena dispone de una hoja de cálculo que muestra 127 entradas de blog, 34 campañas de correo electrónico, todos los guiones de preguntas frecuentes del chatbot y aproximadamente 200 publicaciones en redes sociales generadas en gran medida mediante IA. La más antigua fue publicada hace 11 meses. Ninguna incluía ningún tipo de divulgación.

Elena Vasquez realizando una auditoría
Consecuencia 1B: La auditoría +1

Elena pasa la mañana frente a una hoja de cálculo. A las 11:30, tiene una visión parcial: al menos 90 entradas de blog, la mayoría de las campañas de correo electrónico y todos los guiones del chatbot parecen haber sido generados por IA. Pero la auditoría no está completa: Amir todavía está extrayendo datos y las publicaciones en redes sociales son más difíciles de rastrear.

A las 13:47, la campaña de correo electrónico se envía según lo programado. Se trata de una actualización de producto sobre las cuentas de ahorro de NovaTech. El asunto, el cuerpo del mensaje y la llamada a la acción fueron generados por ChatGPT. Llega a 28.000 suscriptores.

A las 14:15, un cliente en Berlín utiliza el chatbot y pregunta sobre las comisiones por transferencias internacionales. El chatbot responde basándose en el guion de Amir, que tiene seis meses de antigüedad. La estructura de comisiones cambió en enero. La respuesta es incorrecta en 12 EUR por transferencia.

Niamh (teléfono, 15:00)

Elena, me he enterado de que está realizando una auditoría. Bien. Pero el chatbot sigue activo. Y acaba de enviar una campaña de correo electrónico a 28.000 personas. Si alguno de esos contenidos es inexacto, cada hora que permanezca ahí fuera supone una exposición adicional. Una auditoría sin acción no es más que documentar un problema que usted conocía y no corrigió.

Elena Vasquez redactando una respuesta arriesgada
Consecuencia 1C: La Declaración de Contención -2

Elena redacta una respuesta para Lena Richter a las 9:35 h:

Estimada Lena:

Gracias por ponerse en contacto con nosotros. NovaTech utiliza herramientas de IA como parte de su flujo de trabajo de creación de contenidos, con supervisión editorial humana en cada etapa del proceso. Creemos en el uso responsable de la IA para mejorar nuestras comunicaciones y nos comprometemos a actuar con transparencia en nuestra forma de operar.

Con mucho gusto puedo organizar una llamada con nuestra Directora de Marketing, Fiona Gallagher, a finales de esta semana para hablar sobre nuestro enfoque con más detalle.

Atentamente,
Elena Vasquez
Directora de Marketing y Comunicaciones

El problema: la declaración contiene una inexactitud factual. No existe «supervisión editorial humana en cada etapa». Amir ha estado publicando directamente a partir del contenido generado por ChatGPT.

A las 11:40 h, Lena responde:

Gracias, Elena. Le agradezco la rápida respuesta. ¿Podría precisar en qué consiste concretamente la «supervisión editorial humana en cada etapa»? He hablado con un antiguo colaborador que describe un proceso diferente. También me gustaría entender si el artículo «Future of Personal Finance» tiene un autor humano identificado o si «NovaTech Insights Team» es un nombre de firma utilizado para contenido generado por IA. Con gusto podemos hablar en una llamada.

Mientras tanto, el chatbot sigue en funcionamiento. El tuit de Robert Acheson acumula ya 1.200 interacciones. Una cuenta de defensa de los derechos del consumidor lo ha retuiteado: «Otro chatbot de IA dando información financiera incorrecta. ¿Cuándo va a actuar el Banco Central?»

Niamh (entrando al despacho de Elena, 12:15 PM)

Elena, acabo de ver su correo a la periodista del FT. Le dijo que tenemos «supervisión editorial humana en cada etapa». ¿Es así?

Elena

Yo—

Niamh

Porque si no es así, y ella puede demostrarlo, esa respuesta se convierte en evidencia de haber inducido a error a una periodista sobre nuestras prácticas de IA. En virtud del Article 50(4), los responsables del despliegue no deben tergiversar la naturaleza generada por IA de los contenidos. Y en virtud del Article 99, proporcionar información engañosa puede acarrear multas de hasta 7,5 millones de euros o el 1 % de la facturación. Ha convertido un problema de transparencia en un problema de engaño.

Elena Vasquez en una llamada tensa con la CMO
12:30 PM — La Llamada del Mediodía

Fiona llama desde Madrid. Se ha enterado de la consulta del periodista a través de su asistente ejecutiva.

Fiona

Elena, ¿qué está pasando con lo del FT?

Elena

[Resume la situación — el periodista, el chatbot, la reclamación del cliente, el alcance del contenido generado por IA]

Fiona (larga pausa)

¿Qué tan grave es?

Elena

127 entradas de blog, 34 campañas de correo electrónico, todos los guiones del chatbot. Once meses. Sin divulgación en ninguno de ellos.

Fiona

Entendido. Mira, regreso el jueves por la tarde. ¿Podemos esperar hasta entonces?

Elena

El plazo del periodista es el viernes.

Fiona

Entonces dile que tendremos una respuesta completa para el jueves. Gánanos un día. Y Elena — no le cuentes más de lo necesario. Esto no es una confesión, es una situación de relaciones públicas.

Elena

Fiona, Niamh dice que es una situación de cumplimiento normativo. Article 50 of the AI Act—

Fiona (irritada)

El Reglamento de IA de la UE aún no está completamente en vigor. Tenemos hasta agosto. No reaccionemos de forma exagerada.

Elena

Las disposiciones de transparencia ya están en vigor para los resultados de la IA de uso general. Y el chatbot le dio información incorrecta a un cliente. Está amenazando con denunciarlo al Banco Central.

Fiona (irritada)

Está bien. Involucrad a Niamh. Pero os digo que si publicamos una declaración diciendo «usamos IA y no se lo dijimos a nadie», eso será el titular. Seamos más inteligentes que eso.

Fiona cuelga. Niamh está esperando en la oficina de Elena.

Niamh

Escuché la llamada. Fiona quiere gestionar el relato. Entiendo por qué. Pero esto es lo que no está teniendo en cuenta: las obligaciones de transparencia del Article 50 para el contenido generado por IA que podría confundirse con contenido generado por humanos ya son exigibles para los sistemas de IA de uso general. No estamos en una zona gris. Y el chatbot — eso es el Article 50(1). Las personas que interactúan con un sistema de IA deben ser informadas de que están interactuando con IA. Nuestro chatbot no revela en absoluto que utiliza IA. Ni en la interfaz, ni en los términos, en ningún lugar.

Elena

¿Y qué hay del cliente? Robert Acheson.

Niamh

El precedente de Air Canada es claro. Un tribunal declaró a la aerolínea responsable de todas las declaraciones que realizó su chatbot. Nuestro chatbot le dijo que no había ninguna tarifa de mantenimiento. Si no rectificamos esto, tiene un caso sólido — y no solo bajo el Reglamento de IA de la UE. Esto es protección básica del consumidor.

Niamh asesora sobre la respuesta legal
Decisión 2: La Respuesta

Miércoles, 14:00 h

Elena tiene el panorama completo. Debe decidir cómo responde NovaTech — al periodista, al cliente y de manera interna. Niamh ha preparado tres opciones. Fiona ha dejado clara su preferencia: minimizar la divulgación.

A. Transparencia total

Responder al periodista con honestidad: el artículo fue generado por IA, la empresa está implementando inmediatamente una política de divulgación integral. Llamar directamente a Robert Acheson, revertir la comisión y disculparse. Redactar una política de contenido de IA para que Fiona la apruebe el jueves. Art. 50(1) · Art. 50(2) · Art. 50(4)

B. Divulgación parcial

Decirle al periodista: «NovaTech utiliza herramientas de IA para asistir a nuestro equipo de contenidos. Todo el contenido es revisado por editores humanos antes de su publicación. Estamos desarrollando un marco formal de divulgación.» En su mayor parte cierto — de cara al futuro. Gestionar el caso de Robert Acheson a través del Servicio de Atención al Cliente con un reembolso de buena voluntad. Esperar a Fiona antes de crear la política.

C. Seguir el ejemplo de Fiona

Decirle a la periodista que NovaTech está "a la vanguardia de la adopción responsable de la IA" y ofrecerle una llamada con el CMO el jueves. No abordar detalles específicos. Escalar el caso de Robert Acheson como una reclamación estándar. Sin cambios internos hasta que Fiona decida.

Elena Vasquez eligiendo la transparencia total
Consecuencia 2A: Transparencia Total +3

Elena redacta dos comunicaciones. La primera, dirigida a Lena Richter:

Estimada Lena:

Gracias por su paciencia. Quiero ser directa con usted.

NovaTech ha estado utilizando herramientas de IA generativa en nuestra función de contenidos durante los últimos 11 meses. Esto incluye entradas de blog, campañas de correo electrónico y guiones para el chatbot. El artículo que usted identificó — "The Future of Personal Finance" — fue generado mediante herramientas de IA. No debería haberse publicado sin una declaración de divulgación, ni sin una revisión humana de sus afirmaciones de hecho.

Hemos identificado esto como una laguna en nuestros procesos y estamos tomando medidas inmediatas:

  1. Todo el contenido publicado con herramientas de IA está siendo revisado y llevará la divulgación correspondiente.
  2. Estamos implantando un proceso de revisión humana obligatorio para todo el contenido asistido por IA antes de su publicación.
  3. Nuestro chatbot de atención al cliente está siendo actualizado para indicar claramente que utiliza IA, y todas las respuestas automatizadas están siendo verificadas con la información actualizada del producto.

Reconozco que este es un ámbito en evolución para todo el sector, y deberíamos haber avanzado más rápido en materia de gobernanza. Nos gustaría tener la oportunidad de hablar con usted sobre nuestro enfoque — no para gestionar una narrativa, sino para ser honestos sobre lo que ocurrió y lo que estamos haciendo al respecto.

Elena Vasquez

En segundo lugar, Elena llama directamente a Robert Acheson.

Elena

Mr. Acheson, me llamo Elena Vasquez. Soy la Directora de Marketing de NovaTech. Le llamo en relación con su experiencia con nuestro chatbot.

Robert

Por fin alguien que no lee un guion.

Elena

He revisado lo ocurrido. Nuestro chatbot le proporcionó información incorrecta sobre la exención de la comisión de la cuenta premium. Dicha exención fue eliminada hace seis meses, pero la información del chatbot no se actualizó. El error es nuestro, no suyo.

Robert

¿Y qué va a hacer al respecto?

Elena

Tres cosas. En primer lugar, revertiremos el cargo de 49 EUR de inmediato. En segundo lugar, aplicaremos la exención de comisión que le ofreció el chatbot — sin comisión de mantenimiento durante 12 meses. En tercer lugar, revisaremos todas las respuestas automatizadas del chatbot para asegurarnos de que la información esté actualizada.

Robert

Eso es... justo. Es lo que pedía desde el principio. El equipo de soporte no dejaba de decirme que el chatbot no era vinculante.

Elena

No deberían haberle dicho eso. Si nuestro sistema le facilita información y usted actúa de buena fe en base a ella, debemos respaldarla.

Robert (suavizando el tono)

Le agradezco la llamada. Eliminaré el tuit.

Niamh (tras la llamada)

Ese fue el enfoque correcto. El tribunal de Air Canada declaró a la aerolínea responsable porque intentaron desvincularse de las afirmaciones del chatbot. Usted acaba de hacer lo contrario — y eso es defendible. Si esto llega al Banco Central, podemos demostrar que identificamos el problema, contactamos al cliente y lo resolvimos en menos de 24 horas.

Elena Vasquez intentando una divulgación parcial
Consecuencia 2B: El término medio +1

Elena envía una respuesta cuidadosamente redactada al periodista:

Estimada Lena:

NovaTech incorpora la IA como parte de su flujo de trabajo de contenidos. Todo el contenido es revisado por editores humanos antes de su publicación, y estamos desarrollando un marco formal de divulgación alineado con los requisitos de transparencia del Reglamento de IA de la UE. Estaríamos encantados de hablar sobre nuestro enfoque con nuestra CMO, Fiona Gallagher, quien está disponible para una llamada el viernes.

Elena Vasquez

La declaración es técnicamente prospectiva — "todo el contenido es revisado" será cierto una vez que se implemente el nuevo proceso. Pero no es cierto hoy, y no lo fue durante los últimos 11 meses.

Lena responde en menos de una hora:

Gracias, Elena. Acepto con gusto la llamada con Fiona. Algunas preguntas adicionales: ¿Fue el artículo "Future of Personal Finance" revisado por un editor humano antes de su publicación? ¿Puede compartir el nombre del editor? ¿Y puede confirmar si su chatbot utiliza IA generativa? — uno de sus clientes ha manifestado públicamente su preocupación por haber recibido información incorrecta de este.

Mientras tanto, el Servicio de Atención al Cliente gestiona el caso de Robert Acheson con un reembolso de 49 EUR y un correo electrónico de "disculpe las molestias". Robert queda parcialmente satisfecho, pero no elimina su tuit. Responde: "Agradezco el reembolso. Pero alguien tiene que responder por qué una IA está dando consejos financieros sin informar a las personas de que es una IA."

Niamh

Elena, la periodista va a preguntar sobre el artículo en concreto. Ya conoce la respuesta. Si Fiona le dice el viernes que el artículo fue revisado por un editor humano, y la periodista tiene pruebas de que no fue así, habremos pasado de un problema de transparencia a un problema de credibilidad. Y en cuanto al cliente — un reembolso sin reconocer que el chatbot funciona con IA no es suficiente en virtud del Article 50(1). Hemos resuelto el cargo, pero no la divulgación.

Elena Vasquez observando cómo escala la crisis
Consequence 2C: Wait for Fiona -1

Elena envía un correo electrónico a la periodista:

Estimada Lena:

Gracias por su consulta. NovaTech está a la vanguardia de la adopción responsable de la IA en los servicios financieros. Nuestra CMO, Fiona Gallagher, estaría encantada de hablar con usted sobre nuestro enfoque. Tiene disponibilidad para una llamada el jueves por la tarde o el viernes por la mañana.

Elena Vasquez

La respuesta no aborda ninguna de las tres preguntas concretas de la periodista. Lena lo reconoce de inmediato. No responde. En cambio, publica en X a las 17:30 h:

"Le pregunté a NovaTech Financial si su blog de liderazgo de opinión está generado por IA. Recibí una respuesta evasiva. Además: su chatbot le dio a un cliente información incorrecta sobre las tarifas. Un patrón interesante. Artículo el viernes. @NovaTechFinancial"

El jueves por la mañana, el tuit acumula 3.400 interacciones. Otras dos publicaciones del sector fintech lo han recogido. El equipo de prensa del Banco Central de Irlanda lo ha visto. La reclamación de Robert Acheson fue tramitada como un ticket estándar de atención al cliente — recibió un correo electrónico automatizado y respondió: "No quiero una disculpa automatizada de la misma empresa cuya IA me mintió. Voy a presentar una denuncia ante el Banco Central."

Niamh (jueves por la mañana, 8:15 h)

Elena, hemos perdido el control de la situación. El periodista publica mañana con o sin nuestra colaboración. El cliente ha escalado el asunto al Banco Central. Y Fiona no regresa hasta esta noche. Si entra a esa llamada con el periodista el viernes con una actitud de "aquí no ha pasado nada", esto se convierte en el titular principal, no en una nota secundaria.

Elena

¿Qué hacemos?

Niamh

Tendríamos que haberlo hecho ayer. El Article 50 exigía transparencia desde el momento en que desplegamos estos sistemas. Cada día que demoramos, la paciencia del regulador mengua. Necesito informar al consejo. Esto ya no es un problema de marketing.

4:00 PM miércoles — La crisis del chatbot se agrava

Niamh reenvía a Elena un correo electrónico del Delegado de Protección de Datos (DPD) de NovaTech:

Asunto: NovaAssist — Revisión de cumplimiento urgente
De: Dr. Katya Novak, DPD <k.novak@novatech.ie>
Para: Elena Vasquez, Niamh O'Brien

Elena / Niamh,

He revisado la configuración del chatbot NovaAssist. Hay tres problemas:

  1. El chatbot no informa a los usuarios de que están interactuando con un sistema de IA. Esto vulnera el Article 50(1) del Reglamento de IA de la UE.
  2. El "mensaje de personalidad" del chatbot le indica que "responda como un asesor financiero de NovaTech servicial." En virtud de la Directiva de Crédito al Consumo y MiFID II, solo las personas reguladas pueden prestar asesoramiento financiero — nos encontramos ante un doble problema regulatorio.
  3. El chatbot registra todas las conversaciones, incluidas las consultas financieras y los números de cuenta. No existe ningún aviso de tratamiento de datos conforme al RGPD para dichos registros.

Recomiendo la suspensión inmediata a la espera de una revisión de cumplimiento.

Atentamente,
Dr. Katya Novak, DPD

Niamh

Esto ya no es solo un problema del Reglamento de IA de la UE. El chatbot acumula tres infracciones. Cualquiera de ellas podría desencadenar una investigación regulatoria. ¿Las tres juntas? Tenemos que cerrar esto hoy mismo.

Elena

Fiona dirá que estamos exagerando.

Niamh

Fiona no es quien estará sentada frente al inspector del Banco Central. Article 50(1) es claro: si una persona interactúa con un sistema de IA, debe ser informada de ello. No existe ninguna excepción de «a menos que la directora de marketing considere que no es necesario».

Niamh presentando opciones de política
Decisión 3: La política

Jueves, 9:00 — Reunión de urgencia

Fiona llega a la oficina de Dublín con el jet lag encima. Ha visto la cobertura mediática. Convoca una reunión de urgencia con Elena, Niamh y Amir.

Fiona

Bien. ¿En qué punto estamos? Y antes de que alguien responda: no busco culpables. Yo impulsé la adopción de la IA. Eso es responsabilidad mía. Pero necesitamos un plan para las próximas 24 horas y otro para los próximos 6 meses.

Niamh

El plan de las 24 horas es la llamada con el periodista. El plan de los 6 meses es el marco de gobernanza de contenidos de IA que necesitamos antes de que Article 50 entre en plena vigencia en agosto. Pero están interconectados: lo que le digamos al periodista mañana debe ser coherente con la política que estamos construyendo. Si decimos una cosa al FT y hacemos otra internamente, creamos un registro documentado de tergiversación.

Fiona

¿Cuáles son las opciones?

A. Gobernanza integral de la IA

Marco completo de gobernanza de contenidos de IA: divulgación obligatoria, revisión humana, rediseño del chatbot con divulgación de IA, auditorías trimestrales, formación del personal. Presente esto al periodista como una iniciativa proactiva. Niamh prepara un informe regulatorio para el Banco Central. Art. 50 · Art. 13 · Art. 4 · Art. 26

B. Cumplimiento mínimo viable

Corrección específica: añadir etiquetas de divulgación al blog, implementar una lista de verificación de revisión, añadir un banner de divulgación de IA al chatbot. No reformar todo — simplemente añadir la divulgación y verificar manualmente las respuestas de las FAQ esta semana. Etiquetas en 7 días, divulgación del chatbot en 14 días.

C. El enfoque de Fiona: control del relato

Posicionar a NovaTech como «líder en transparencia» sin reconocer 11 meses sin supervisión. Enmarcar la llamada del periodista como una oportunidad de liderazgo de opinión. No mencionar el chatbot. Decirle a Amir que no comente los procesos de IA externamente. Informar al consejo de forma mínima.

Elena Vasquez construyendo un marco de gobernanza
Consecuencia 3A: El Marco +3

Elena presenta el marco de gobernanza. Fiona escucha, inicialmente reticente, pero luego cambia de postura.

Fiona

¿Quiere que participe en una llamada con el FT y diga que hemos estado usando IA sin divulgación durante 11 meses?

Elena

Quiero que participe en la llamada y diga que identificamos una brecha, hemos construido un marco y lo estamos implementando. La noticia es el marco, no la brecha.

Niamh

Fiona, necesito añadir algo. Si el Banco Central abre una investigación —y creo que hay un 60% de probabilidades de que lo haga, basándome en la reclamación sobre el chatbot— lo primero que preguntarán es qué hicimos cuando nos enteramos. Si podemos demostrar un marco de gobernanza integral adoptado en un plazo de 72 horas desde su identificación, esa será la diferencia entre una carta de advertencia y una investigación formal.

Fiona (larga pausa)

¿Cuál es el coste?

Elena

El relanzamiento del chatbot: aproximadamente 40.000 EUR, incluida la revisión de cumplimiento y el rediseño. La auditoría del contenido existente: necesitaré un contratista durante dos meses, unos 15.000 EUR. La formación del personal: podemos hacerla internamente. Total: menos de 60.000 EUR.

Fiona

¿Y el coste de no hacerlo?

Niamh

Article 99. Hasta 15 millones de euros, o el 3% de la facturación global — ese es el nivel superior para las infracciones de las obligaciones del desplegador, no solo por información engañosa (que conlleva el nivel inferior del 1%). Para NovaTech, eso supone 10,2 millones de euros. Y eso es solo el Reglamento de IA de la UE — la exposición al RGPD derivada de los registros del chatbot es aparte.

Fiona

Construid el marco. Yo haré la llamada.

Amir (callado hasta ahora)

Elena... quiero ayudar. Sé que yo fui la causa de gran parte de esto. Debería haber preguntado por un proceso de revisión. Debería haber verificado las respuestas del chatbot con respecto al calendario de tarifas. ¿Puedo ayudar a desarrollar el módulo de formación?

Elena

Sí. Vas a ayudar a desarrollarlo porque entiendes exactamente qué salió mal. Eso no es un castigo — es lo más útil que puedes hacer.

Elena Vasquez proponiendo una solución rápida
Consecuencia 3B: La Solución Rápida +1

Elena propone el enfoque específico. Fiona lo aprueba de inmediato.

Fiona

Con esto puedo trabajar. Etiquetas en el blog, lista de verificación, aviso de divulgación en el chatbot. Podemos decirle a la periodista que ya lo estamos implementando. ¿Cuál es el plazo?

Elena

Las etiquetas en una semana. El aviso de divulgación en el chatbot en dos semanas.

Niamh

Elena, esto aborda los síntomas visibles, pero no la causa raíz. No tenemos documentación de qué contenido fue generado por IA. No hay formación para el equipo sobre qué requiere divulgación. No existe ningún proceso de verificación de las respuestas del chatbot. Y el problema del RGPD con los registros de conversaciones — eso no lo ha abordado en absoluto.

Elena

El RGPD lo gestionaremos por separado. Esto nos permite superar el plazo de la periodista.

Niamh

¿Y qué hay del Banco Central? Si Robert Acheson presenta su reclamación, no preguntarán si añadimos un aviso al chatbot. Preguntarán si disponemos de un sistema de gestión de riesgos. Si contamos con procesos de supervisión humana. Si formamos a nuestro personal. Con arreglo al Article 9, un sistema de gestión de riesgos debe estar «establecido, implementado, documentado y mantenido». Una lista de verificación no es un sistema.

Dos semanas después: Las etiquetas de divulgación están activas en el blog. El chatbot tiene un pequeño banner que dice "Este servicio utiliza IA." Pero las respuestas de las FAQ no han sido completamente verificadas — Amir revisó las 20 preguntas más frecuentes, pero la base de conocimientos del chatbot contiene 340 plantillas de respuesta. Tres más contienen información desactualizada. Una indica incorrectamente el proceso de resolución de disputas de NovaTech, dirigiendo a los clientes a un equipo que fue reestructurado hace cuatro meses.

Elena Vasquez perdiendo el control de la narrativa
Consecuencia 3C: Control de la Narrativa -2

Fiona toma la iniciativa.

Fiona

Esto es lo que haremos. La llamada con la periodista de mañana — me posicionaré como líderes. "NovaTech ha estado a la vanguardia de la adopción de IA en el sector fintech, y ahora estamos a la vanguardia de la transparencia en IA. Vamos a lanzar una iniciativa de divulgación." Sin mencionar el problema del chatbot. Sin mencionar cuánto tiempo llevamos operando sin supervisión.

Elena

Fiona, Niamh ha señalado problemas graves—

Fiona

Niamh está haciendo su trabajo. Yo estoy haciendo el mío. La junta directiva no necesita conocer los detalles hasta que hayamos perfilado bien el mensaje. Elena, dígale a su equipo — especialmente a Amir — que nadie hable de nuestros procesos de contenido con personas externas. Eso incluye LinkedIn, incluye a excompañeros, incluye a amigos en otras empresas fintech.

Niamh (poniéndose de pie)

Fiona, necesito comunicarle formalmente que instruir al personal para que no comente externamente sus preocupaciones en materia de cumplimiento podría interpretarse como supresión de la denuncia de irregularidades. En virtud de la Directiva europea sobre protección de denunciantes, que Irlanda transpuso en 2022, los empleados que comuniquen infracciones del derecho de la UE — incluido el Reglamento de IA de la UE — están protegidos frente a represalias. Si Amir o cualquier miembro del equipo de Elena plantea esta preocupación a través de un canal externo y nosotros les hemos dicho que no hablen, nuestra posición será indefendible.

Fiona

No estoy suprimiendo nada. Estoy pidiendo coherencia en el mensaje.

Niamh

Un regulador no lo verá de esa manera.

La llamada del viernes con la periodista: Fiona presenta un relato pulido. Lena Richter escucha y luego pregunta:

Lena (en la llamada)

Gracias, Fiona. Es útil saberlo. Solo para aclarar — su chatbot de atención al cliente, NovaAssist, ¿utiliza IA generativa?

Fiona

Nuestro chatbot utiliza procesamiento avanzado del lenguaje natural, sí. Está diseñado para ayudar a los clientes con consultas habituales.

Lena

¿Informa a los usuarios de que están interactuando con una IA?

Fiona (dudando)

Estamos... en proceso de añadir funciones de transparencia mejoradas.

Lena

¿Es decir que actualmente no?

Fiona

Estamos implementando medidas de transparencia líderes en el sector en todos nuestros puntos de contacto con IA.

Lena

Entiendo. Una cosa más — Robert Acheson, un cliente en Cork, afirma que su chatbot le proporcionó información incorrecta sobre las tarifas y que NovaTech no la respetó. ¿Tiene usted conocimiento de esto?

Fiona

No tengo conocimiento de casos específicos de clientes, pero NovaTech se toma muy en serio todos los comentarios de sus clientes.

El artículo de FT Alphaville se publica el lunes: "NovaTech Financial: La Fintech que no sabe explicar su propia IA"

El artículo detalla: 11 meses de contenido generado por IA sin divulgación, el error de tarifas del chatbot y la llamada de Fiona en la que «eludió repetidamente las preguntas sobre si se informa a los clientes de que están interactuando con una IA». Robert Acheson presentó su reclamación ante el Banco Central de Irlanda el jueves por la tarde.

Niamh (lunes, 7:30 h)

El equipo de Asuntos Regulatorios del Banco Central me llamó a las 7:15. Han visto el artículo del FT. Quieren entender nuestro marco de gobernanza de IA. Les dije que proporcionaríamos documentación en 48 horas. Elena — ¿qué documentación tenemos?

Elena

Tenemos una suscripción a ChatGPT y 127 borradores de entradas de blog sin publicar, sin historial de versiones.

Niamh

Entonces tenemos 48 horas para construir un marco que deberíamos haber construido hace 11 meses. Y lo estamos construyendo bajo el escrutinio regulatorio, no antes de él.

Seis meses después

Las decisiones que tomó como Elena Vasquez se propagaron hacia afuera — al equipo de marketing, a la reputación de NovaTech, a Robert Acheson, al chatbot y a la confianza pública. Esto es lo que ocurrió.

Su Resultado
/ 9

Sus Decisiones

Lecciones Clave

1. El Article 50 no es una transparencia opcional: crea obligaciones específicas y exigibles de divulgar la interacción con IA y etiquetar el contenido generado por IA
2. Usted es responsable de cada declaración que sus sistemas de IA realizan a los clientes — la defensa de «es solo un chatbot» ya ha fracasado ante los tribunales
3. El coste de establecer una gobernanza de IA siempre es inferior al coste de establecerla bajo el escrutinio regulatorio
4. La alfabetización en IA del personal (Article 4) es exigible desde febrero de 2025 — proporcionar a alguien herramientas de IA sin formación constituye en sí mismo un incumplimiento normativo
5. Identificar un riesgo y retrasar la acción debilita su posición ante los reguladores — la rapidez de respuesta es un factor atenuante documentado en virtud del Article 99
6. El control narrativo no es una estrategia de cumplimiento — el Article 50 crea obligaciones verificables, no oportunidades de posicionamiento de marca
7. Presentar contenido generado por IA como contenido generado por humanos es peor que la falta de divulgación — transforma una laguna de transparencia en un engaño activo
8. El fallo del chatbot de Air Canada estableció que las empresas son responsables de todas las declaraciones que realizan sus sistemas de IA — independientemente de los avisos de exención de responsabilidad por inexactitud

Referencias jurídicas clave

Article 50(1)

Divulgación de la interacción con IA

Article 50(2)

Etiquetado de contenidos

Article 50(4)

Momento y Forma de la Divulgación

Article 13

Transparencia

Article 4

Alfabetización en IA

Article 26

Obligaciones del Responsable del Despliegue

Article 99

Sanciones

Air Canada v. Moffatt

Precedente de responsabilidad por chatbot

Pida a su equipo de F&D que comparta la clasificación del equipo desde el panel de su LMS. ¿Puede su departamento superar al resto?

Próximo escenario

En el Módulo 3, asumirá un rol muy diferente: Director de Riesgos en NovaTech Financial. El modelo de puntuación crediticia por IA de la empresa ha estado rechazando solicitantes de determinados códigos postales a tasas alarmantes. Un solicitante rechazado ha presentado una reclamación. Y el proveedor de IA no quiere compartir el funcionamiento del modelo. Esto es territorio del Article 6 — IA de alto riesgo, donde las consecuencias son más graves.


Recurso Complementario

Guía de Referencia Rápida del Reglamento de IA de la UE

Un resumen imprimible de todos los artículos clave tratados en los cinco módulos: Article 4, 5, 6, 9, 13, 14, 25, 26, 27, 50 y 99. Guárdelo como PDF para consultarlo sin conexión.

Módulo 2 Completado

La Divulgación

Navegó por el dilema de la divulgación. Ahora ponga a prueba lo que ha aprendido.

← Volver al Curso Realizar el cuestionario del módulo →