La IA ya está impactando en los pilares de la gobernanza democrática en todo el mundo. Sus efectos pueden representarse como círculos concéntricos que se extienden desde las elecciones pasando por la adopción gubernamental, la participación política, la confianza pública y los ecosistemas de información, hasta llegar a riesgos sistémicos más amplios: crisis económicas, competencia geopolítica y riesgos “existenciales” como el cambio climático o las armas biológicas. Cada círculo presenta oportunidades y desafíos a la vez.
Empecemos por las elecciones. Especialmente en Estados Unidos, los administradores electorales carecen de personal y fondos suficientes. Muchos sostienen que la IA podría ayudar traduciendo las boletas electorales a varios idiomas, verificando los votos por correo o seleccionando las ubicaciones óptimas para los centros de votación. Sin embargo, hoy en día, solo el 8% de los administradores electorales estadounidenses utilizan estas herramientas.
En cambio, la IA se está utilizando para dificultar la votación. En el estado de Georgia, activistas utilizaron la red Eagle AI para generar impugnaciones masivas de votantes y presionar a las autoridades para que depuraran los censos electorales. (Los opositores están utilizando herramientas similares para tratar de reintegrar a los votantes). Y abundan los riesgos conocidos, como las deepfakes (falsificaciones profundas) diseñadas para confundir o engañar a los votantes. En 2024, Rumanía anuló los resultados de sus elecciones presidenciales ante la evidencia de una interferencia rusa amplificada por IA -el primer ejemplo inequívoco del impacto de la IA.
Pero la búsqueda de pruebas irrefutables puede pasar por alto el peligro mayor: la erosión constante de la confianza, la verdad y la cohesión social.
El uso de IA por parte del gobierno ofrece un segundo vector de influencia, más prometedor. La confianza pública en el gobierno federal de Estados Unidos ronda el 23%, y las agencias gubernamentales de todos los niveles están experimentando con la IA para mejorar la eficiencia. Estos esfuerzos ya están dando resultados. El Departamento de Estado, por ejemplo, ha reducido el tiempo que el personal dedica a las solicitudes de la Ley de Libertad de Información (FOIA) un 60%. En California, San José utilizó un programa informático de optimización del tránsito basado en IA para rediseñar las rutas de autobús, reduciendo los tiempos de viaje en casi un 20%.
Estas mejoras podrían fortalecer la legitimidad democrática, pero los riesgos son reales. Los algoritmos de caja negra ya influyen en las decisiones sobre la elegibilidad para prestaciones gubernamentales, e incluso en las sentencias penales, lo que supone una grave amenaza para la equidad y los derechos civiles. La adopción militar también se está acelerando: en 2024, el Departamento de Defensa de Estados Unidos firmó contratos por valor de 200 millones de dólares con cuatro empresas líderes en IA, lo que aumenta la preocupación por la vigilancia estatal y la actuación policial y bélica impulsada por la IA.
Al mismo tiempo, la IA podría transformar la participación pública. En Taiwán -un modelo global de gobierno basado en tecnología-, herramientas basadas en IA como Pol.is ayudaron a reconstruir la confianza pública tras la ocupación del Parlamento en 2014, impulsando los índices de aprobación de las instituciones gubernamentales de menos del 10% a más del 70%. El Deliberative Democracy Lab de Stanford actualmente está implementando moderadores de IA en más de 40 países, y Jigsaw, de Google, está explorando enfoques similares para promover un debate más sano. Incluso los organizadores de movimientos sociales están utilizando la IA para identificar posibles aliados o rastrear a quienes están detrás del dinero que financia iniciativas antidemocráticas.
Pero cuatro riesgos se ciernen sobre nosotros: sistemas de participación rotos, ya que procesos como “notificar y comentar” se inundan de basura de IA; el silenciamiento activo, ya que el doxing y el troleo amplificados por la IA -e incluso la vigilancia estatal- amenazan con intimidar a los activistas y expulsarlos de los espacios cívicos; el silenciamiento pasivo si las personas optan por abandonar los espacios cívicos del mundo real en favor de los digitales, o incluso delegan por completo su voz cívica a agentes de IA; y, por último, la erosión de la competencia, en tanto la dependencia excesiva de la IA -o de los chatbots aduladores de la IA- debilita aún más nuestra capacidad para el buen juicio y el desacuerdo respetuoso.
El ecosistema informativo también está cambiando como consecuencia de la IA. La parte positiva es que las redacciones están innovando. En California, CalMatters y Cal Poly utilizan la IA para procesar las transcripciones legislativas de todo el estado, extraer información e incluso generar ideas para artículos.
Sin embargo, estos beneficios podrían verse eclipsados por una avalancha de noticias falsas y medios sintéticos cada vez más convincentes. Los contenidos falsos pueden influir en las opiniones -las personas solo distinguen las imágenes reales de las falsas un 60% de las veces-. De forma más insidiosa, el gran volumen de contenido falso alimenta el llamado “dividendo del mentiroso”, ya que la gente se siente tan abrumada por el contenido inventado que empieza a dudar de todo. El resultado es cinismo y falta de compromiso.
Por último, más allá de las amenazas inmediatas a las instituciones democráticas, existen desafíos sistémicos más amplios. El Fondo Monetario Internacional estima que la IA podría afectar al 60% de los empleos en las economías avanzadas, mientras que McKinsey prevé que entre 75 y 345 millones de personas podrían tener que cambiar de trabajo para 2030.
El problema no es solo que las grandes crisis económicas pongan invariablemente en peligro la estabilidad política. La IA podría exacerbar las concentraciones extremas de riqueza, distorsionando la voz política y socavando la igualdad. A esto se suma la posibilidad de que Occidente pierda la carrera de la IA, cediendo el dominio militar y económico global a superpotencias antidemocráticas como China.
Hacer frente a estos retos exige actuar en dos frentes. En primer lugar, medidas específicas para cada sector pueden ayudar a periodistas, funcionarios públicos, administradores electorales y a la sociedad civil a adoptar la IA de forma responsable. En segundo lugar, necesitamos “intervenciones fundacionales” más amplias -medidas transversales que protejan no solo a sectores concretos, sino a la sociedad en su conjunto.
Las medidas fundamentales deben abarcar todo el ciclo de vida de la IA, desde el desarrollo hasta la implementación. Esto incluye una fuerte protección de la privacidad, así como transparencia sobre los datos utilizados para entrenar modelos, posibles sesgos, cómo las empresas y los gobiernos implementan la IA, capacidades peligrosas y cualquier daño en el mundo real.
También son esenciales los límites en materia de utilización, desde la implementación de IA por parte de la policía para el reconocimiento facial en tiempo real hasta el seguimiento por parte de escuelas y empleadores de las actividades (o incluso de las emociones) de estudiantes o trabajadores. Se necesitan regímenes de responsabilidad cuando los sistemas de IA niegan injustamente empleos, préstamos o prestaciones públicas. También pueden ser necesarias nuevas ideas en cuanto al antimonopolio o la redistribución económica para evitar niveles de desigualdad democráticamente insostenibles.
Por último, es necesaria una infraestructura pública de IA -modelos abiertos, recursos informáticos asequibles y bases de datos compartidas a las que pueda acceder la sociedad civil para garantizar que los beneficios de la tecnología se distribuyan ampliamente.
Mientras que la Unión Europea ha avanzado rápidamente en materia de regulación, la acción federal en Estados Unidos se ha estancado. Las legislaturas estatales, en cambio, están avanzando: 20 estados han promulgado leyes de privacidad, 47 hoy cuentan con estatutos sobre falsificación profunda de IA y 15 han restringido el uso policial del reconocimiento facial.
El margen de acción política es limitado. Al igual que, tras el escándalo del Watergate, se llevaron a cabo reformas en cuanto a la financiación de las campañas electorales y que, tras las elecciones estadounidenses de 2016, se aceleraron los esfuerzos para regular las redes sociales -para luego estancarse-, las democracias deben estar a la altura del reto de la IA, mitigando sus costos y aprovechando al mismo tiempo sus notables beneficios.
---
La autora, exdirectora del Centro de Ciberpolíticas de la Universidad de Stanford, es directora de la iniciativa Democracia, Derechos y Gobernanza de la Fundación David y Lucile Packard.