Tecnología

Inteligencias artificiales imponen sesgos y estereotipos a sus usuarios, según estudio

Los modelos generativos de IA, ChatGPT, Bard y Midjourney, están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa, pero sin sentido, alerta un estudio publicado en la revista Science

EscucharEscuchar

Los modelos generativos de IA, ChatGPT, Bard y Midjourney, están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa, pero sin sentido, alerta un estudio publicado en la revista Science. Los autores alertan de que los grupos marginados se ven afectados de forma desproporcionada, y los niños corren un riesgo especial.








En beneficio de la transparencia y para evitar distorsiones del debate público por medios informáticos o aprovechando el anonimato, la sección de comentarios está reservada para nuestros suscriptores para comentar sobre el contenido de los artículos, no sobre los autores. El nombre completo y número de cédula del suscriptor aparecerá automáticamente con el comentario.