Isabelle Guyon: “Tenemos que poner la inteligencia artificial al máximo número de personas”

2021/12/01 Roa Zubia, Guillermo - Elhuyar Zientzia Iturria: Elhuyar aldizkaria

Para muchos, Isabelle Guyon es una de las pioneras de la inteligencia artificial. Enseña al ordenador a hacer una cosa y seguramente estarás usando el trabajo de Guyon, que inventó las metodologías básicas para el aprendizaje automático. Las máquinas manejan los números con facilidad, pero para aproximarse realmente a la inteligencia humana, deben aprender a distinguir con precisión objetos como hombres y mujeres, a diferenciar un diagnóstico médico o a identificar patrones en cualquier grupo de datos. En ello ha contribuido de manera fundamental Guyon. Llegó a Bilbao a recoger el Premio Fronteras del Conocimiento de la Fundación BBVA y entrevistó a Guillermo Roa en el programa Norteko Ferrokarrilla de Euskadi Irratia. También lo hemos traído a la revista Elhuyar.
Ed. Universidad de California/Fundación BBVA
Eres experto en inteligencia artificial y big data. Hace 20 años creó los algoritmos que sustentan el aprendizaje automático: los vectores de ayuda. Es decir, los algoritmos que se utilizan cuando hay que analizar muchos datos. ¿Es correcto?

Eso es. Algunos trabajos sencillos para ser humanos son muy difíciles para las máquinas. Por ejemplo, si la máquina tiene que aprender a distinguir peras y manzanas, a veces le resulta difícil, ya que algunas manzanas se parecen a peras y algunas peras a manzana. Es difícil saber dónde está el límite. Y desarrollamos unos complejos algoritmos matemáticos que nos ayudaron a detectar estas limitaciones: los vectores de ayuda.

De hecho, en el aprendizaje automático se utilizan muchos métodos. Al principio me doctoré en redes neuronales, comparé varios métodos, entre ellos los llamados métodos nucleares. Pero luego, cuando conocí al profesor Vladimir Vapnik en el laboratorio Bell, utilizamos y desarrollamos vectores de ayuda basados en un método inventado en la década de los 60, ejemplos de discriminación de datos.

Me di cuenta de que esos algoritmos y el método nuclear podrían combinarse. Mi marido, Bernard Bozer, implementó esa combinación y funcionó bastante bien. Empezamos a aplicar en varias cosas. Con Bernard Schölkopf desarrollamos un campo completo alrededor de los métodos nucleares, multiplicando sus aplicaciones.

Durante muchos años trabajé en este campo. Sustituyó mi primer amor, las redes neuronales. No intencionadamente, pero en mi trabajo había dos ámbitos que competían. Sin embargo, en la práctica no son competidores. Al contrario, creo que son muy complementarios. En el aprendizaje básico se pueden combinar redes neuronales y vectores de apoyo. Ahora son muchas las personas que las combinan y crean técnicas más potentes.

Las redes neuronales son muy útiles, pero es una técnica recientemente resucitado por la capacidad de computación de los ordenadores. Hace unos 25 años, cuando tú investigabas eso, los ordenadores no eran tan poderosos en absoluto, y la idea de las redes neuronales era muy buena, pero no muy realista en ese momento. Hoy en día, sin embargo, su uso es enorme.

Eso es, hubo un punto de inflexión. Desde que se dispone de datos suficientes para formar redes neuronales y otras máquinas de estudio, las máquinas han igualado la capacidad humana. A veces incluso lo han superado, ya que la capacidad de procesamiento de grandes cantidades de datos es muy limitada en humanos. Por ejemplo, formaron a un montón de personas para jugar a Go, con cientos de partidos exhibidos, superando la capacidad humana. Fue una sorpresa que una máquina superara al campeón del juego Go, porque pensábamos que todavía estaba lejos. Y, por supuesto, esto provoca tantos miedos en la gente como el sueño.

Temen que las máquinas se conviertan en “superseres”. Pero yo creo que es una gran oportunidad y que no debemos asustarnos, sino que tenemos que explotarla y ponerla a disposición del mayor segmento de población posible.

Estamos en una revolución. Una gran revolución con redes neuronales y máquinas de aprender. ¿Así lo ves?

Sí, y creo que estamos al principio de la revolución, ya que se están extendiendo mucho, sobre todo los algoritmos que encuentran patrones en los datos. Ahora, en nuestros teléfonos y en nuestros ordenadores hay muchos productos de aprendizaje automático que conocen las caras o que hacen traducciones automáticas, por ejemplo. Existen numerosas aplicaciones de visión artificial gracias a las redes neuronales convolucionales. De hecho, los desarrollaron en el laboratorio Bell cuando trabajaba allí. Y a la vez trabajamos con máquinas vectoriales, porque son complementarias.

Por ejemplo, supongamos que formas una red neuronal para dividir una imagen en pequeños segmentos que luego se combinan en trozos de rayas y cruces. Necesitas grandes bases de datos para formarte bien. ¿Pero si no tienes muchos datos y los que tienes no son adecuados? Por ejemplo, imagina que quieres entrenar a tu sistema para que conozca las caras, pero la mayoría de las imágenes que tienes son imágenes de objetos, otro tipo de datos. Pero supongamos que también tiene unas pocas imágenes de las caras de los niños. Para poder entrenar el sistema necesitas un método basado en ejemplos, como las máquinas vectoriales, y no un método basado en las características que ve.

Las máquinas las formamos para hacer una cosa, pero nosotros, los humanos, somos capaces de hacer cosas muy diferentes y de relacionarlas unas con otras.

Eso es, y además tenemos diferentes formas de aprender. Por ejemplo, tenemos una memoria a largo plazo. Esta memoria necesita muchos datos y nos permite aprender estrategias de diferenciación de patrones. Y tenemos una memoria a corto plazo, con ejemplos que sólo aprendemos de memoria y luego tomamos decisiones comparadas.

También ha trabajado en bioinformática. Esto ha supuesto una gran revolución en la química, por ejemplo. Por ejemplo, si buscas una molécula que se asocie a una determinada proteína, el sistema automático puede estudiar muchas opciones y decidir cuáles son las moléculas más apropiadas. Cada vez se utiliza más en la investigación bioquímica.
Ed. Universidad de California/Fundación BBVA

Sí, eso ha sido muy importante. Y sigue siendo importante. Hablamos del Big Data, que es tener muchos datos. ¿Pero qué datos necesitamos? Básicamente existen dos formas de abordar el tema: el elevado número de ejemplos y el elevado número de características de cada uno de ellos. Si hablamos de química, podemos estudiar una molécula de muchas características, con miles de características. Además, en la investigación biomédica se puede estudiar también al paciente, que tiene miles de características.

Por ejemplo, si medimos todas las actividades de los genes, estudiamos miles de características. Big data es un tipo diferente. No tenemos muchos genes, pero tenemos muchas de sus características. Aquí se pueden utilizar las máquinas de vectores de ayuda. Por eso se han utilizado mucho en biomedicina y ahora también en química.

Recuerdo un ejemplo británico: querían combinar los datos de donantes y pacientes para obtener donantes adecuados para trasplantes renales, teniendo en cuenta la compatibilidad del tipo de sangre y otras características. Disponían de datos de todo el país y gracias a los sistemas de inteligencia artificial fueron capaces de decidir: Esta persona londinense dona un riñón a Manchester y la otra de York… Formaron una compleja red de donantes y pacientes. Eso es un ejemplo simple para vosotros, ¿no? Es, de alguna manera, el pasado del aprendizaje automático.

Sí. Y lo más interesante es que combinamos diferentes disciplinas: estadística, optimización y otros métodos tradicionales. Muchas personas han unido fuerzas en los últimos 20 años. En ocasiones, los métodos estadísticos convencionales no se conocían en informática. Y es emocionante para las personas que han trabajado en otros tipos de inteligencia artificial, que sólo podemos hacer cosas potentes a partir de los números, sobre todo manipulando los números y recopilando muchos datos.

Pero no es magia negra. Si tenemos cientos de miles de características, ¿cómo podemos distinguir los patrones? ¿Tratamos de encontrar las características más características de una cosa u otra? Supongamos que queremos separar los perros de las vacas. No importa tener cuatro patas, porque tanto perros como vacas tienen cuatro patas, pero las vacas tienen cuernos y los perros no. Buscan este tipo de características. En definitiva, a partir de cientos de miles de datos, puedes simplificar el problema analizando sólo esos pocos números que te importan para un problema concreto.

Elhuyar cuenta con investigadores de inteligencia artificial que trabajan en la traducción automática del euskera al inglés, al castellano, al francés y otras lenguas, y viceversa. El problema es que el euskera no tiene un gran corpus para comparar tantos datos como lenguas grandes. Por lo tanto, tienen que trabajar muy bien para entrenar muchas máquinas con esta información.

La gente a menudo piensa que es difícil tener muchos datos, pero lo más difícil es tener pocos datos. De hecho, la teoría de Vapnik nos ayudó mucho a entender que cuando tenemos pocos datos debemos utilizar modelos bastante simples. Curiosamente, las redes neuronales que manejan pocos datos son redes estrechas. Subyace la compleja teoría. Ahora se llama teoría de la regularización, es decir, para trabajar con pocos datos, la clave no es sólo el modelo que utilizas, sino también la forma de formarlo.

Me interesa especialmente lo que llamamos “breve aprendizaje de pocos datos”, es decir, sistemas que deben aprender a partir de pocos ejemplos. En estos casos organizamos concursos. Esa es mi forma de trabajar. En lugar de que los trabajos se realicen yo y los alumnos, abrimos el problema a un gran grupo de investigadores. Por tanto, planteamos problemas y abrimos la posibilidad de que cualquier persona pueda dar solución. Podemos realizar un nuevo trabajo con un sistema formado en otros trabajos.

Al hilo de lo que has comentado, en las redes neuronales hay muchas estrategias, como las estrategias de las redes GAN, sistemas que aprenden de la competencia con otro sistema. ¡Increíble! ¿Está abriendo un nuevo futuro?

Sí. Las redes GAN han revolucionado los últimos años en la formación de redes neuronales. La gente inventa nuevos métodos y nuevas ideas para explotarlos. Una de las cosas que hemos hecho es generar datos artificiales realistas. Uno de los objetivos es proteger la privacidad. Y es que estos datos, en muchas ocasiones, generan inquietudes de privacidad o tienen valor comercial, por lo que no se pueden difundir sin más. El gran problema ha sido que algunas grandes empresas han sido denunciadas por liberar datos privados. Por lo tanto, ahora son muy prudentes. Y eso es malo para la comunidad investigadora, ya que los investigadores no pueden estudiar más problemas interesantes y tratar de encontrar una solución.

Así que he trabajado con mis compañeros del RPI de Nueva York: Dividir mensajes basados en redes GAN para generar datos artificiales realistas sin información sobre individuos. Estos datos almacenan todas las propiedades estadísticas de los datos reales, por lo que son útiles para la investigación.

De esta forma, los alumnos pueden utilizarlos para formar los sistemas. El problema es que también nos gustaría utilizarlos para hacer descubrimientos reales, y para ello no sirven. Manteniendo las propiedades de los datos reales, podríamos utilizarlos en la investigación para realizar descubrimientos reales. Estamos tratando de extender progresivamente los límites de estos datos artificiales realistas.

¿Y funciona?

Sí, en biomedicina hemos creado muchos registros médicos falsos porque es una información muy sensible. En general, estábamos colaborando con empresas con datos sensibles pero no nos permitían exportar datos. Sin embargo, ahora exportamos modelos que pueden generar datos que podrían superar ciertos límites de seguridad o privacidad. Si tengo la esperanza de que sirva a la comunidad científica.

Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia