La inteligencia artificial (IA), y en particular los grandes modelos de lenguaje (LLM), se desarrollan rápido y de forma turbulenta. La calidad de generación y creación aumentó de manera dramática durante 2025: textos, voces, rostros, imágenes y videos “casi reales” pasaron de ser curiosidad a ser infraestructura de comunicación. Ese salto ya se siente en la publicidad, en las redes sociales, en las noticias y, cada vez más, en la conversación política. En un país como Costa Rica, donde la confianza institucional es un activo democrático, esto exige reglas claras ya, no cuando el daño sea irreversible.

El problema ya no es solo el fraude: la normalización del contenido sintético
El fraude impulsado por contenido creado con IA sigue siendo un riesgo crítico y creciente. Sin embargo, el cambio estructural de estos años es que el contenido sintético dejó de ser una anomalía y pasó a convertirse en rutina: publicidad, entretenimiento, perfiles de “creadores”, reseñas, noticias, material corporativo y piezas de campaña pueden estar total o parcialmente generados con IA sin que el público lo sepa.
Esa normalización importa porque abarata el engaño. Si las voces, los rostros y las escenas artificiales se vuelven parte del día a día, se anestesia la sospecha. Entonces una estafa con audio clonado o un video manipulado deja de “hacer ruido”: pasa por normal. Y ahí está la trampa: el fraude funciona mejor porque el entorno ya lo entrenó para parecer legítimo.
Además, la normalización abre un segundo problema: el mercado incentiva la simulación, aunque no siempre sea claramente perseguible. Perfiles sintéticos en redes sociales monetizados como si fueran personas reales, anuncios y campañas producidos con actores inexistentes, testimonios cuya autenticidad no se verifica y contenido publicitario que imita lo auténtico sin declarar su origen.
En redes, esto se ve en perfiles y “creadores” que en realidad son personajes generados por IA, con estética humana y narrativa “real”, que atraen a millones de seguidores y dinero de marcas. Mucha gente sospecha que es generado, pero igual consume; mientras que otros lo creen auténtico. No se trata de juzgar al consumidor, sino de reconocer el cambio cultural que se está instalando: la apariencia pesa más que la procedencia. Cuando ese criterio se traslada a medios, materiales de campaña o información pública, la confianza deja de ser el punto de partida y se convierte en una apuesta.
El resultado es doble: por un lado, crece la tasa de engaño (más fraudes y más difíciles de detectar); por el otro, se erosiona la credibilidad general (nadie sabe qué creer, incluso cuando la información es legítima).
La discusión no es si el contenido generado por IA es válido, sino si puede presentarse como experiencia humana sin declararlo: ahí se afecta la libertad de elección, la competencia justa y la confianza pública.
En el 2025 también se consolidó lo que en publicidad ya es obvio: para muchas empresas, usar IA en campañas es cientos de veces más barato. No es que “la creatividad murió”, es que el costo de producción se desplomó y la calidad subió lo suficiente para que el incentivo económico gane. Ese cambio no es malo por sí mismo; lo peligroso es que la producción sintética se mezcla con formatos donde la gente presume veracidad.
Por eso, la discusión regulatoria no puede limitarse a “castigar estafas”. Se necesita también transparencia obligatoria en usos de alto impacto: etiquetado claro del contenido generado o alterado con IA, y trazabilidad mínima cuando se trate de medios, publicidad masiva o comunicación pública. La meta es impulsar el desarrollo y la adopción de la tecnología, pero con claridad, transparencia y certidumbre para la población.
Situación en Costa Rica
En Costa Rica hay herramientas dispersas para perseguir suplantación de identidad, delitos informáticos y proteger datos personales, pero no un marco transversal de transparencia y trazabilidad. El problema se agrava cuando la prueba y la atribución se vuelven complicadas cuando el contenido es indistinguible.
Cuando el contenido sintético que ve la población se vuelve cotidiano (en anuncios, filtros, clips, locuciones) cambia el entorno de confianza. No porque todo sea falso, sino porque todo puede parecer verdadero, como ocurre cuando esas mismas herramientas se usan para suplantar, manipular, engañar. En ese paisaje, una suplantación o un montaje se mezcla con lo normal y reduce el umbral de sospecha. El resultado es simple y corrosivo: la gente ya no sabe en qué confiar.
Y esto no es teórico: el Tribunal Supremo de Elecciones (TSE) preparó a su personal para enfrentar desinformación y retos de IA de cara a elecciones, con capacitaciones y trabajo con organizaciones de fact-checking. Además, el TSE habilitó su programa “Votante Informado” en las elecciones que se celebraron 1° de febrero de 2026.
En Costa Rica hay tres piezas nacionales relevantes:
Estrategia Nacional de IA 2024–2027 (MICITT): Costa Rica ya tiene una estrategia para adopción responsable de IA, útil como marco de política pública, pero una estrategia no sustituye obligaciones legales y sanciones por el incumplimiento.
Normas electorales y transparencia (TSE): En 2025 se reportó que el TSE incorporó el deber de que los partidos políticos informen si usaron IA en la elaboración de planes/programas de gobierno para 2026.
Proyecto de ley específico para IA en procesos electorales (Expediente 24.875): Este proyecto apunta a lo más sensible: etiquetado del contenido producido con IA, y prohibiciones como deepfakes, perfiles automatizados para simular interacción humana y microfocalización publicitaria orientada a manipulación.
Aun así, esto cubre sobre todo el frente electoral. Falta lo grande: una ley transversal para medios, publicidad y recursos públicos que defina estándares mínimos de transparencia y trazabilidad.
¿Qué se necesita?
Costa Rica necesita una Ley de Integridad del Contenido Público para proteger el espacio público con reglas claras sobre contenido generado o alterado con IA.
Etiquetado obligatorio (alto impacto): marca visible/audible y en metadatos.
Trazabilidad en sector público: registro mínimo de origen; alineación con credenciales de contenido sin depender de una marca.
Cumplimiento y responsabilidades: quién responde y qué pasa si no cumple.
Estándar editorial en medios: declaración de uso de IA + revisión humana responsable.
¿Qué están haciendo otros países?
Unión Europea:
El AI Act de la Unión Europea (Reglamento 2024/1689) establece deberes de divulgación. El contenido sintético debe identificarse como tal y también debe informarse cuando una persona está interactuando con un sistema de IA. Además, la Comisión Europea impulsa un código de práctica centrado en marcación y etiquetado de contenido generado por IA.
EE.UU:
En EE. UU. se ha adoptado un enfoque regulatorio por contexto. Por un lado, se impulsan medidas federales contra daños específicos, como las imágenes íntimas no consentidas (Take It Down Act, 2025). Por otro lado, no existe un etiquetado general obligatorio como en la UE; en su lugar, se actúa según el ámbito: en publicidad, por ejemplo, se sancionan prácticas engañosas como reseñas, testimonios o endorsements generados con IA que se presentan como si fueran experiencias reales.
Reino Unido: enfoque fuerte en abuso sexual y “nudify”
El Reino Unido ha endurecido su enfoque frente en abuso sexual y nudify, imágenes íntimas no consentidas y deepfakes explícitos dentro de su marco de Online Safety, con anuncios y medidas recientes.
La pregunta incómoda para 2026: ¿qué pasa si no se hace nada?
En Costa Rica todavía falta un marco integral para frenar el uso oculto de IA en el ecosistema informativo —prensa, medios, publicidad y comunicación pagada con recursos públicos—. Si no construimos ese marco regulatorio, la erosión será silenciosa pero constante: más ruido, menos claridad y una confianza pública a punto de romperse. Porque en 2026 la pregunta decisiva no será “¿esto lo hizo una IA?”, sino la que deja todo en suspenso: “¿Por qué debería creerte?”
---
El autor es miembro de la Asociación Blockchain Costa Rica.