Por: Steve Lohr.   29 junio
Empleados de Kyndi, una startup de Silicon Valley que se enfoca en el lado del razonamiento de la inteligencia artificial, en las profundidades de la vida.

Durante los últimos cinco años, lo más novedoso dentro de la inteligencia artificial ha sido una rama conocida como “aprendizaje profundo”. La técnica estadística de nombre grandioso sirve, en pocas palabras, para que las computadoras aprendan por medio del procesamiento de enormes cantidades de información.

Gracias al aprendizaje profundo, las computadoras pueden, de manera fácil, identificar rostros y reconocer palabras habladas, lo que pareciera poner al alcance de la mano otras formas de inteligencia similares a la humana.

Las empresas como Google, Facebook y Microsoft han invertido dinero en el aprendizaje profundo. Las empresas emergentes que buscan desde curas para el cáncer hasta la automatización administrativa proclaman su pericia en el aprendizaje profundo.

Y las habilidades de percepción y establecimiento de concordancia de patrones de esta tecnología se utilizan para mejorar el progreso en campos como el descubrimiento de fármacos y los vehículos autónomos.

Sin embargo, ahora algunos científicos están cuestionando si el aprendizaje profundo en verdad es tan profundo después de todo.

Recientemente, en conversaciones, comentarios en línea y algunos ensayos extensos, una cantidad cada vez mayor de expertos en inteligencia artificial han advertido que tal vez la obsesión con el aprendizaje profundo pueda producir miopía y sobreinversión ahora… y desilusión después.

“No veo una verdadera inteligencia”, mencionó Michael I. Jordan, un profesor de la Universidad de California, campus Berkeley, y el autor de un ensayo publicado en abril que tiene como objetivo moderar las expectativas idealistas en torno a la inteligencia artificial. “Y creo que confiar demasiado en estos algoritmos de fuerza bruta es poner la fe en un lugar equivocado”.

Un muro técnico

Algunos expertos advierten que el peligro está en que la inteligencia artificial chocará contra un muro técnico y con el tiempo enfrentará una respuesta negativa de la gente: un patrón conocido en la inteligencia artificial desde que se acuñó el término en la década de 1950. Los investigadores señalaron que, en particular con el aprendizaje profundo, la preocupación se debe a los límites de la tecnología.

Los algoritmos del aprendizaje profundo se entrenan con un lote de datos relacionados —como fotos de rostros humanos— y después se alimentan de una cantidad cada vez mayor de información, lo cual mejora de forma constante la precisión de la concordancia de patrones del software. Además, aunque la técnica ha tenido éxito, los resultados se han limitado principalmente a campos donde esos inmensos conjuntos de datos están disponibles y las tareas están bien definidas, como catalogar imágenes o transcribir palabras habladas a un texto.

La tecnología tiene problemas en los terrenos más abiertos de la inteligencia: es decir, en el razonamiento y en el conocimiento del sentido común. A pesar de que el software de aprendizaje profundo puede identificar millones de palabras al instante, no entiende conceptos como “justicia”, “democracia” o “interferencia”.

Los investigadores han demostrado que se puede engañar con facilidad al aprendizaje profundo. Si revuelves un puñado relativo de pixeles, la tecnología puede confundir una tortuga con un rifle o una señal de estacionamiento con un refrigerador.

En un artículo muy leído que se publicó a principios de este año en arXiv.org, un sitio para artículos científicos, Gary Marcus, un profesor de la Universidad de Nueva York, formuló una pregunta: "¿El aprendizaje profundo se está acercando a un tope?". Marcus escribió: "Como suele ser el caso, los patrones que extrae el aprendizaje profundo son más superficiales de lo que parecen en un inicio".

El instituto Allen, un laboratorio sin fines de lucro con sede en Seattle, anunció que en los próximos tres años invertirá $125 millones fundamentalmente en la investigación para enseñar a las máquinas a generar conocimiento del sentido común: una iniciativa llamada Project Alexandria.

Si el alcance del aprendizaje profundo es limitado, tal vez el dinero y las mentes capaces dedicados a este son excesivos, comentó Oren Etzioni, el director ejecutivo de Allen Institute for Artificial Intelligence. "Corremos el riesgo de no ver otros conceptos y caminos importantes para que avance la inteligencia artificial", afirmó.

En medio del debate, algunos grupos de investigadores, empresas emergentes y computólogos están mostrando más interés en enfoques hacia la inteligencia artificial que abordan algunas de las debilidades del aprendizaje profundo.

Para empezar, en febrero, el instituto Allen, un laboratorio sin fines de lucro con sede en Seattle, anunció que en los próximos tres años invertirá $125 millones fundamentalmente en la investigación para enseñar a las máquinas a generar conocimiento del sentido común: una iniciativa llamada Project Alexandria.

Aunque ese programa y otras iniciativas son variados, su meta común es una inteligencia más amplia y más flexible que el aprendizaje profundo. Del mismo modo, lo más usual es que tengan mucho menos hambre de datos. Suelen utilizar el aprendizaje profundo como un ingrediente más de su receta.

"No estamos en contra del aprendizaje profundo", opinó Yejin Choi, investigadora del instituto Allen y computóloga de la Universidad de Washington. "Intentamos aumentar las expectativas de la inteligencia artificial, no criticar herramientas".

Esas otras herramientas que no son de aprendizaje profundo suelen ser técnicas antiguas que se emplean de nuevas formas. En Kyndi, una empresa emergente de Silicon Valley, los computólogos escriben código en Prolog, un lenguaje de programación que data de la década de 1970. Fue diseñado para el lado de la representación del razonamiento y el conocimiento de la inteligencia artificial, el cual procesa hechos y conceptos e intenta completar tareas que no siempre están bien definidas. El aprendizaje profundo proviene del lado estadístico de la inteligencia artificial conocido como aprendizaje automático.

Señales esperanzadoras

Benjamin Grosof, un investigador que se ha especializado en la inteligencia artificial desde hace tres décadas, ingresó a Kyndi en el puesto de director científico. Grosof comentó que estaba impresionado con el trabajo realizado por Kyndi sobre “las nuevas formas de unir las dos ramas de la inteligencia artificial”.

Kyndi ha utilizado muy poco entrenamiento con datos para automatizar la generación de hechos, conceptos e inferencias, señaló Ryan Welsh, el director ejecutivo de la empresa emergente.

Kyndi y otras empresas están apostando a que por fin ha llegado el momento de aceptar algunos de los desafíos más intimidantes de la inteligencia artificial. Esto reproduce la trayectoria del aprendizaje profundo, que durante décadas había progresado poco antes de que la reciente explosión de los datos digitales y las computadoras cada vez más veloces impulsara avances en el rendimiento de las llamadas redes neuronales. Estas redes son capas digitales vagamente análogas a las neuronas biológicas. Lo "profundo" se refiere a muchas capas.

Hay otras señales esperanzadoras en el campo más allá del aprendizaje profundo. El otoño pasado, Vicarious, una compañía emergente que desarrolla robots que pueden cambiar de una tarea a otra como los humanos, publicó una investigación promisoria en la revista Science.

A partir de relativamente pocos ejemplos, su tecnología de inteligencia artificial aprendió a imitar la inteligencia visual de los humanos, usando la información de manera 300 veces más eficaz que los modelos de aprendizaje profundo. El sistema también logró superar las defensas de las “captcha”, las pruebas de identificación con letras garrapatosas que usan los sitios web para detener a los intrusos de los software.

El brazo de investigación del Pentágono, la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa (DARPA, por su sigla en inglés), ha propuesto un programa para financiar investigación universitaria y ofrecer una red no comercial para compartir ideas sobre tecnología que emule el razonamiento humano del sentido común, el cual no logra el aprendizaje profundo. Si se aprueba, el programa, Machine Common Sense, comenzaría este otoño y lo más probable es que dure cinco años, con un financiamiento cercano a los $60 millones.

"Es un proyecto de alto riesgo, y el problema es más grande que cualquier empresa o grupo de investigación", comentó David Gunning, quien dirigió el programa de asistentes personales de la DARPA, el cual terminó hace una década y produjo la tecnología que se convirtió en Siri, de Apple.