23 febrero
Laura Norén, becaria postdoctoral en el Centro de Ciencia de Datos de la Universidad de Nueva York, imparte un curso sobre ética en ciencia de datos en ese centro de estudios.
Laura Norén, becaria postdoctoral en el Centro de Ciencia de Datos de la Universidad de Nueva York, imparte un curso sobre ética en ciencia de datos en ese centro de estudios.

​Los profesionales de la salud tienen una ética: primero, no provoques daño.

Silicon Valley tiene un sistema de valores: crea primero y después pide perdón.

Ahora, tras el auge de las noticias falsas y otros problemas que están padeciendo las empresas tecnológicas, las universidades de donde egresaron algunos de los mejores tecnólogos de Silicon Valley se están dando prisa para llevar a las ciencias de la computación una moralidad parecida a la que tiene la medicina.

Este semestre, la Universidad de Harvard y el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) están ofreciendo de manera conjunta un nuevo curso en ética y regulación de la inteligencia artificial.

La Universidad de Texas en Austin acaba de introducir una asignatura titulada “Fundamentos éticos de las ciencias de la computación”, con la idea de que con el tiempo sea una materia en todas las licenciaturas de ciencias de la computación.

Y en la Universidad Stanford, el corazón académico de la industria, tres profesores y un investigador adjunto están desarrollando un curso de ética de las ciencias de la computación para el próximo año. Esperan que haya cientos de alumnos inscritos.

La idea es capacitar a las próximas generaciones de tecnólogos y legisladores para que consideren las consecuencias de las innovaciones —como las armas autónomas o los vehículos inteligentes— antes de que los productos salgan a la venta.

“El objetivo es encontrar o identificar los problemas a los que se enfrentarán los estudiantes que se gradúen dentro de dos, tres, cinco o diez años”, afirmó Mehran Sahami, un popular profesor de ciencias de la computación de Stanford que está colaborando en el desarrollo del curso.

Sahami es famoso en el campus por haber llevado a clase a Mark Zuckerberg.“La tecnología no es neutral”, explicó Sahami, quien trabajó como investigador sénior para Google. “Por lo tanto, las decisiones que se toman al momento de crear tecnología conllevan ramificaciones sociales”.

Efectos secundarios

Los cursos están surgiendo en un momento en el que las grandes empresas tecnológicas tienen problemas para manejar los efectos secundarios que conlleva la mentalidad que tiene la industria de crear primero: las noticias falsas en Facebook, los seguidores falsos en Twitter, videos lascivos de niños en YouTube.

Son un desafío abierto a una actitud común de Silicon Valley que por lo general ha desestimado la ética al percibirla como un obstáculo. “Necesitamos al menos enseñar a las personas que la idea de hacer las cosas rápido y romperlas tiene un lado oscuro”, señaló Laura Norén, una becaria posdoctoral del Centro de Ciencias de Datos de la Universidad de Nueva York, quien este semestre comenzó a dar un nuevo curso de ética de la ciencia de datos. “Se puede parchar el software, pero no se puede parchar a una persona si tú… dañas su reputación”.

“Muchas de las decisiones que toma una empresa tienen una carga ética: qué productos decidieron desarrollar, qué políticas adoptaron en torno a los datos de los usuarios. Si enseñar ética de la ciencia de datos se centra por completo en la responsabilidad individual de cada científico, se corre el riesgo de omitir el papel que tiene la empresa en general”, señaló Karen Levy, profesora adjunta de ciencias de la información.

Los programas de ciencias de la computación deben garantizar que los estudiantes comprendan los problemas éticos relacionados con la computación para que los avale el ABET, un grupo mundial de acreditación para programas de ciencia e ingeniería a nivel universitario.

Algunos departamentos de ciencias de la computación han desdoblado el tema a una asignatura más amplia y otros tienen cursos independientes. Sin embargo, no fue sino hasta hace poco tiempo que la ética pareció relevante para muchos estudiantes.

“En comparación con los choferes o los doctores, tu interacción diaria con los daños físicos, la muerte o el dolor es mucho menor si estás diseñando el software para una aplicación”, señaló Joi Ito, director del MIT Media Lab.

Consecuencias potenciales

Una razón para que las universidades estén impulsando la ética de la tecnología en este momento es la popularización de herramientas poderosas como el aprendizaje automático: algoritmos de computadora que pueden aprender tareas de forma automática tras analizar grandes cantidades de información.

Debido a que esas herramientas básicamente podrían alterar la sociedad humana, las universidades se están apurando para ayudar a los estudiantes a entender las consecuencias potenciales, comentó Ito, quien también está impartiendo el curso de ética de Harvard y el MIT.

“Debido a que empezamos a ver cosas —como los vehículos autónomos— que claramente tienen la capacidad de salvar a la gente, pero también de provocar daños, creo que las personas se están sumando cada vez más para construir un sistema ético”, explicó (Ito es uno de los consejeros de The New York Times Company).

En otoño pasado, la Universidad Cornell presentó una asignatura de ciencia de datos en la que los estudiantes aprendieron a enfrentarse con desafíos éticos, como conjuntos de datos sesgados que incluyen a muy poca gente de bajos recursos como para ser representativos de la población general.

Los alumnos también debatieron sobre el uso de los algoritmos en la toma de decisiones automatizadas cruciales que están relacionadas con la vida de las personas, como las contrataciones en los trabajos o las admisiones a las universidades.

“En realidad, el curso se centró en intentar ayudarlos a comprender qué es lo más probable que van a enfrentar en su práctica diaria como científicos de datos, y a ayudarles a analizar en detalle esos desafíos de una forma más sistemática”, afirmó Solon Barocas, un profesor adjunto de ciencias de la información que dio el curso.

En otra asignatura que se imparte en Cornell, Karen Levy, quien también es profesora adjunta de ciencias de la información, enseña a sus estudiantes a enfocarse más en la ética de las empresas tecnológicas. “Muchas de las decisiones que toma una empresa tienen una carga ética: qué productos decidieron desarrollar, qué políticas adoptaron en torno a los datos de los usuarios”, mencionó Levy. “Si enseñar ética de la ciencia de datos se centra por completo en la responsabilidad individual de cada científico, se corre el riesgo de omitir el papel que tiene la empresa en general”.