Durante siglos, la última frontera de la privacidad fue el pensamiento. La intimidad de nuestras emociones, memorias y deseos nos ha parecido inviolable. Pero esa premisa está siendo erosionada por el avance acelerado de las neurotecnologías: dispositivos capaces de registrar, interpretar o incluso modificar la actividad cerebral.
En su novela 1984, George Orwell imaginó un mundo donde hasta el pensamiento podía ser vigilado por la temida Policía del Pensamiento. Lo que era un constructo literario con aires de advertencia empieza a adquirir forma técnica. Ya no se trata solo de controlar lo que hacemos o decimos, sino de leer —y eventualmente influir— en lo que sentimos o pensamos.
Hoy, empresas tecnológicas y de salud desarrollan productos que leen impulsos neuronales para predecir emociones, facilitar comandos mentales, tratar la depresión o diseñar campañas publicitarias más efectivas. Lo que parecía ciencia ficción ya está en el mercado. Y con ello surge un nuevo reto: ¿estamos preparados legal y éticamente para proteger lo más íntimo de lo humano?
La respuesta, de momento, es no.
Los datos neuronales consisten en información derivada directamente del sistema nervioso, por lo que son un tipo especial de dato personal. Mientras el historial médico describe, el dato neuronal revela: permite inferir emociones, intenciones, estados mentales. Es suerte de “código fuente” de cada persona, que podría incluso utilizarse para recrear su personalidad o detectar niveles de veracidad, atención o cansancio. Por eso, el neurodato no debería tratarse bajo las mismas reglas que aplican al número de cédula, la imagen personal o a la dirección de correo electrónico. Sin embargo, su tratamiento jurídico sigue siendo disperso y reactivo.

Algunos países han comenzado a tomar medidas. En Estados Unidos, Colorado se convirtió en el primer estado en incluir expresamente los datos neuronales dentro de su definición legal de información personal sensible. La regulación allí exige consentimiento claro, informado y renovado cada 24 meses, además de auditorías y garantías frente al uso discriminatorio. California ha seguido una vía similar, aunque menos robusta, limitándose a reconocer un derecho de oposición al tratamiento de estos datos.
En Europa, aunque el Reglamento General de Protección de Datos (GDPR) aún no menciona expresamente los datos neuronales, autoridades como el Supervisor Europeo de Protección de Datos y la Agencia Española de Protección de Datos ya han advertido sobre la necesidad de tratarlos como una categoría especial, sujeta a principios de proporcionalidad, transparencia y finalidad específica.
En América Latina, Chile ha sido pionero: en 2021 reformó su Constitución para proteger los “neuroderechos” como parte de los derechos fundamentales. En 2023 la Corte Suprema de Chile ordenó a una empresa estadounidense de neurotecnología eliminar los datos neuronales de un ciudadano, al considerar que la empresa se había apropiado de datos neuronales de un usuario mediante una diadema inalámbrica que utiliza electroencefalogramas (EEG) para interpretar emociones y ejecutar comandos mentales. El usuario alegó que, al usar una versión gratuita, no tenía acceso a sus propios datos neuronales, y que la empresa se reservaba el derecho de transferir esos datos a terceros. La Corte consideró que esa práctica violaba la dignidad, la autonomía y la privacidad mental del individuo, ordenó la eliminación de los datos y la fiscalización de la tecnología antes de su comercialización en el país.
También desde la medicina se empieza a levantar la voz. En junio de este año, la Asociación Médica Americana adoptó la Resolución 503, que reconoce el carácter único y extremadamente sensible del neurodato, subraya el riesgo de manipulación de la voluntad individual mediante neurotecnologías, y exige barreras éticas frente a usos discriminatorios o que alteren la identidad personal.
Costa Rica, en cambio, aún no ha actualizado su marco normativo. Nuestra Ley 8968 de Protección de Datos Personales, con todos sus vacíos, no contempla una categoría especial para estos datos, ni anticipa los desafíos de tecnologías que, sin ser dispositivos médicos regulados, ya operan sobre el sistema nervioso humano. Mientras tanto, el mercado crece —en salud, educación, consumo y seguridad— y con él, el riesgo de usos invasivos, discriminatorios o manipuladores.
Este debate no es solo técnico. Es jurídico, político y ético. Obliga a repensar la arquitectura de los derechos fundamentales, eminentemente analógicos, en la era digital. ¿Puede un empleador exigir el uso de un dispositivo que monitorean la concentración cerebral de sus empleados? ¿Es válido que una empresa comercialice emociones detectadas en tiempo real durante la experiencia de un usuario? ¿Qué ocurre con los menores de edad que usan los múltiples neurojuguetes que existen ya en el mercado? ¿Quién audita los algoritmos que procesan todos estos impulsos neuronales?
Frente a estas preguntas, el principio debe ser claro: sin consentimiento informado, sin transparencia algorítmica y sin límites éticos claros, no puede haber legitimidad en la captura ni en el uso de datos que nos exponen desde el centro mismo de nuestro ser.
La defensa de la privacidad neural exige una convergencia internacional que ponga límites éticos y jurídicos antes de que la tecnología imponga los suyos. No se trata de frenar la innovación, sino de exigir que ésta se desarrolle con integridad. Proteger la privacidad neural es proteger lo que nos hace humanos. Es honrar ese principio que durante siglos pareció indiscutible: cogito, nemo partitur. El pensamiento no se comparte. No se transfiere. No se monetiza. Se respeta.
---
El autor es abogado especialista en Tecnología, Medios y Telecomunicaciones.