Tecnología

ChatGPT miente mejor que los humanos, según nuevo estudio

Un nuevo estudio descubre que es más difícil detectar la desinformación en tuits si estos están escritos por una inteligencia artificial

EscucharEscuchar

Un grupo de 697 personas leyó 220 de tuits escritos por otros humanos y por el modelo de inteligencia artificial GPT-3, el germen del actual éxito global ChatGPT. Tenían que adivinar dos cosas: uno, cuáles eran verdaderos y cuáles falsos y, dos, si habían sido escritos por una persona o por la máquina. GPT-3 ganó en ambos casos: mintió mejor que los humanos y también mintió para hacer creer que era otro humano quien escribía. “GPT-3 es capaz de informarnos y desinformarnos mejor”, concluyen los autores de un nuevo estudio, que acaba de publicar la revista Science Advances.








En beneficio de la transparencia y para evitar distorsiones del debate público por medios informáticos o aprovechando el anonimato, la sección de comentarios está reservada para nuestros suscriptores para comentar sobre el contenido de los artículos, no sobre los autores. El nombre completo y número de cédula del suscriptor aparecerá automáticamente con el comentario.