El Estado de Nueva York promulgó recientemente una de las leyes más relevantes en Estados Unidos respecto al uso de inteligencia artificial generativa en publicidad, al exigir que las empresas transparenten cuando sus anuncios incluyen intérpretes sintéticos creados con IA. Esta normativa aprobada el pasado diciembre, posiciona a Nueva York a la vanguardia del equilibrio entre innovación tecnológica, protección al consumidor y respeto por los derechos de los creadores y talentos humanos.
¿Qué exige la nueva ley? La legislación introduce el requisito de que toda publicidad que utilice un “intérprete sintético” debe indicar que lo que el público ve no corresponde a una persona real. Un intérprete sintético es un activo digital creado o modificado por computadora (mediante IA generativa o algoritmos de software) diseñado para generar la impresión de que realiza una actuación visual o audiovisual propia de un intérprete humano real, sin que el público pueda reconocerlo como una persona natural identificable. La ley obliga a que esta revelación se haga de manera visible y comprensible para el consumidor y no escondida en letras pequeñas, con el fin de evitar confusión o engaño sobre la autenticidad de lo representado.
Un matiz relevante es que la norma no se limita a creaciones basadas estrictamente en inteligencia artificial generativa, sino que cualquier activo digital que imite a un intérprete humano y que sea creado mediante un “algoritmo de software” califica como intérprete sintético, haya o no intervención de IA. Esto significa que incluso el uso de herramientas tradicionales de efectos visuales o animación digital, no necesariamente basadas en IA, puede quedar cubierto por la obligación de revelación. Si el resultado final puede inducir al consumidor a creer que está frente a una persona real, la transparencia se vuelve exigible. Para mercados como el costarricense donde muchas agencias utilizan técnicas híbridas de edición, animación y retoque digital, este enfoque resulta particularmente relevante.
Las infracciones llevan aparejadas sanciones económicas progresivas de $1.000 por la primera violación y $5.000 por cada violación subsiguiente. Estas multas buscan ser un incentivo para que las empresas incorporen rápidamente las prácticas de disclosure en sus procesos creativos y operativos.
Derechos de imagen y publicidad responsable
En los últimos años, la proliferación de herramientas de IA capaces de generar rostros, voces y movimientos realistas ha planteado retos legales y éticos significativos. Artistas, sindicatos y defensores de la transparencia han reclamado protección ante el uso indebido de estas tecnologías, especialmente cuando se imitan identidades humanas sin consentimiento ni remuneración. Nueva York incorporó en esta iniciativa un segundo componente legal que refuerza los derechos de publicidad y de imagen, facilitando que la utilización comercial de la identidad de personas fallecidas requiera consentimiento de herederos o representantes legales. Con ello, la legislación reconoce que los avances tecnológicos no deben vaciar de valor ni de control los derechos patrimoniales y personales de individuos y sus familias.
Impacto para anunciantes y mercados. Aunque la ley entra en vigor en junio de 2026, su adopción ya está marcando pautas en las prácticas de marketing digital. Los anunciantes, desde grandes marcas hasta agencias creativas, deberán revisar sus políticas internas de producción de contenido para incorporar mecanismos de identificación de IA. Esto implica el uso de auditorías tecnológicas para identificar el uso de herramientas generativas, protocolos de labeling que cumplan con los estándares de visibilidad y claridad y ajustes contractuales con proveedores de tecnología de IA y talentos creativos.
El objetivo final, lejos de restringir la innovación, es asegurar que no mine la confianza del público ni los mercados, en línea con enfoques regulatorios globales que exploran cómo gobernar la IA sin matar su potencial.

La ley introduce excepciones y límites de responsabilidad relevantes: quedan excluidos los anuncios de obras expresivas como películas, series, contenidos de streaming o videojuegos, cuando el intérprete sintético se utiliza en la publicidad de forma coherente con su aparición en la obra original; tampoco aplica a la publicidad exclusivamente sonora ni a los casos en que la IA se emplea solo para traducción o adaptación lingüística de un intérprete humano. Además, exime de responsabilidad a editores y plataformas que se limitan a difundir los anuncios, reafirmando que la responsabilidad principal recae en quien crea y controla el contenido publicitario, no en quien lo distribuye.
¿Un modelo para otras jurisdicciones? Costa Rica, al igual que la mayoría del planeta, no cuenta con una regulación específica sobre el uso de IA generativa. Sin embargo, nuestro marco jurídico ya contiene principios que apuntan en la misma dirección: la prohibición de publicidad engañosa, el deber de información clara y veraz al consumidor, la protección del derecho a la imagen y a la identidad personal o la responsabilidad por uso indebido de datos o atributos personales.
Lo que hizo la ley de Nueva York es traducir esos principios clásicos a un entorno algorítmico, algo que inevitablemente tendremos que hacer también en la región. En mercados pequeños y altamente digitalizados como el costarricense, la ausencia de reglas claras puede generar riesgos reputacionales, legales y comerciales para las empresas que operan de buena fe.
En un momento en que América Latina y Costa Rica en particular discute marcos de gobernanza para la IA, este tipo de normas ofrece una lección valiosa: no todo pasa por crear grandes y pretenciosas leyes de inteligencia artificial. A veces, basta con actualizar inteligentemente las reglas existentes para proteger la confianza y la libertad de elección del consumidor.
---
Abogado experto en Tecnología, Medios y Telecomunicaciones en Ecija Legal Costa Rica.