Las plataformas de inteligencia artificial (IA) brindan más oportunidades para realizar más tareas y de forma más innovadora, eficiente y productiva. También tienen retos en el ámbito de la seguridad y protección de los datos de las personas y las empresas.
Es claro que no se deben compartir, en redes sociales ni en las plataformas de IA, las cuentas y claves o contraseñas de correos electrónicos, servicios web, tiendas en línea o de los bancos. Tampoco fotografías privadas e íntimas, de menores de edad, direcciones físicas, datos de su salario o padecimientos y enfermedades.
A nivel empresarial debe mantenerse como un secreto de Estado las cuentas y claves de servicios informáticos y de los bancos, los estados financieros, los planes y estrategias de negocios, ventas o mercadeo, los prototipos de nuevos productos o servicios, modelo de negocios, programación de logística o distribución de productos y pedidos, códigos de ingreso a instalaciones y datos de las redes informáticas y de videovigilancia, entre otras más.
“Todas estas plataformas procesan grandes volúmenes de datos y muchas veces el usuario no es plenamente consciente de la información que se recolecta y cómo se usa”, dijo José Andrés Fernández Marmolejo, coordinador de la comisión de IA del Colegio de Profesionales en Informática y Computación (CPIC).
Aparte de las dudas sobre qué hacen las firmas tecnológicas con la información, hay cuestionamientos sobre la posibilidad de que los datos sean revelados a otros usuarios que realicen consultas similares.
Los especialistas aclaran que, más que medidas técnicas, lo que se debe pensar es la relación con los sistemas, que son entornos vivos, adaptativos, que aprenden de la conducta y retroalimentan al usuario constantemente.
La colaboración, el aprendizaje y el entrenamiento de modelos no tienen que ser negativos, necesariamente. Las plataformas abren oportunidades para nuevas formas de expresión, creatividad y acceso al conocimiento.
Pero siempre se debe mantener una actitud consciente, reflexiva, con criterio y curiosidad para explorar y aprovechar las herramientas, en especial porque hay muchos cambios; nada es fijo y más bien requieren tanta imaginación como ética.
Tomás de Camino, director de la Escuela de Sistemas Inteligentes de la Universidad Cenfotec, recalcó que usar la IA implica formar parte de un proceso más amplio de transformación cultural, tecnológica y humana.
“Por eso, más que miedo o rechazo, lo que necesitamos es una forma de participación crítica y creativa”, dijo De Camino. “La privacidad no es un botón que se activa o desactiva, sino una forma de conciencia continua sobre cómo participamos en este ecosistema. El usuario es parte activa del sistema, no está fuera de él. Por eso, protegerse significa también entender cómo fluye la información, qué se optimiza, qué se registra y cómo eso afecta nuestra experiencia y la de los demás”.

Configuración
Los usuarios pueden aprovechar las plataformas de IA con la precaución de no revelar los datos privados e íntimos personales o de sus empresas y negocios.
Hay plataformas como Grok (de xAI, la firma de la red social de X y propiedad de Elon Musk), Meta AI (de Meta, la propietaria de Facebook, Instagram y WhatsApp) y DeepSeek, entre otras, donde las políticas de privacidad y seguridad, así como el uso de los datos, son menos claros.
En esos casos, puede desactivar las funcionalidades o seguir con las medidas básicas de privacidad de no compartir imágenes íntimas, contraseñas, claves, usuarios y cuentas informáticas o bancarias.
En las principales plataformas mantenga esas mismas medidas y, además, configure cada una.
ChatGPT
En ChatGPT puede utilizar varias medidas para la privacidad de su información.
Una de ellas es:
—Vaya a “Configuración”.
—“Control de datos”
—“Mejorar el modelo para todos”.
—Desactive el botón de “Mejorar el modelo para todos”.
Como puede leer ahí, la misma plataforma indica que —al tener activada esa facilidad y aunque la firma Open AI indica que protege la privacidad— se permite que el contenido se use para formar a nuestros modelos.
En esa misma ventana encontrará que puede también desactivar o autorizar que sus grabaciones de voz y video se utilicen de la misma forma.
Con ese paso ya no se usarían sus datos para compartirlos con terceros, si bien la plataforma sí recuerda su historial y usted los podría usar en el futuro. “Lo que hace es que lo que yo comparta, no lo comparte para entrenar el modelo. O sea, los demás no tienen acceso a eso”, sostuvo Fernández Marmolejo.

Gemini
En el caso de Gemini, de Google, procede lo siguiente:
—Abra el chat en el navegador.
—Vaya al menú colocado en la esquina inferior izquierda.
—Ingrese en “Actividad”
—Ingrese en “Actividad en las aplicaciones de Gemini”.
—Seleccione “Desactivar”.
También hay otras opciones, como activar la eliminación automática de la actividad en Gemini en los últimos 3, 18 o 36 meses. Aquí también tiene opciones para eliminar el historial web y en YouTube.
Ahí mismo puede gestionar la verificación de actividad, que exigirá un paso adicional cada vez que ingrese a la plataforma.
Se recomienda ir al Centro de Privacidad de Google para revisar las protecciones activadas. Analice cada una de las opciones que se ofrecen ahí.

Copilot
En Copilot la protección se basa en la política de seguridad Microsoft, cuya “Declaración de privacidad” se encuentra en la ventana de inició de sesión en ese chat o plataforma.
En esa declaración va a “Cómo acceder a sus datos personales y controlarlos”, donde se brindan opciones de control de uso y exclusión de datos.
Para personalizar el chat (y controlar qué puede recordar la herramienta y si permite que sus conversaciones se usen para entrenar el modelo):
—Ingrese a su perfil de usuario.
—Vaya a privacidad.
—Vaya a personalización.
—Defina si quiere seguir viendo anuncios y eliminar el historial.
Al iniciar sesión con una cuenta de Microsoft, el usuario puede controlar si desea que sus datos se utilicen para entrenar los modelos generativos. Esto excluiría los datos del consumidor —pasados, presentes y futuros— del entrenamiento de los modelos.
En Microsoft 365 Copilot para empresas e instituciones, los administradores pueden gestionar la configuración a través de Content Search o Microsoft Purview, donde también puede establecer medidas de retención de datos.
La firma asegura que no entrena sus modelos de IA con datos de los clientes comerciales ni de personas que inicien sesión con una cuenta organizacional de Microsoft 365 o EntraID.
Sin embargo, admitió que sí se entrena y utiliza información anonimizada proveniente del buscador Bing, del portal MSN, de Copilot y de la interacción con anuncios “en ciertos países”.
“Diseñamos nuestros productos con seguridad y privacidad integradas en cada etapa del diseño e implementación”, recalcó Marcelo Felman, director de ciberseguridad de Microsoft Latinoamérica.