Isabelle Guyon: “Temos que pór a intelixencia artificial ao máximo número de persoas”

2021/12/01 Roa Zubia, Guillermo - Elhuyar Zientzia Iturria: Elhuyar aldizkaria

Paira moitos, Isabelle Guyon é una das pioneiras da intelixencia artificial. Insignia ao computador a facer una cousa e seguramente estarás a usar o traballo de Guyon, que inventou as metodoloxías básicas paira a aprendizaxe automática. As máquinas manexan os números con facilidade, pero paira aproximarse realmente á intelixencia humana, deben aprender a distinguir con precisión obxectos como homes e mulleres, a diferenciar un diagnóstico médico ou a identificar patróns en calquera grupo de datos. Niso contribuíu de maneira fundamental Guyon. Chegou a Bilbao a recoller o Premio Fronteiras do Coñecemento da Fundación BBVA e entrevistou a Guillermo Roia no programa Norteko Ferrokarrilla de Euskadi Irratia. Tamén o trouxemos á revista Elhuyar.
Ed. Universidade de California/Fundación BBVA
Es experto en intelixencia artificial e big data. Fai 20 anos creou os algoritmos que sustentan a aprendizaxe automática: os vectores de axuda. É dicir, os algoritmos que se utilizan cando hai que analizar moitos datos. É correcto?

Iso é. Algúns traballos sinxelos paira ser humanos son moi difíciles paira as máquinas. Por exemplo, si a máquina ten que aprender a distinguir peras e mazás, ás veces resúltalle difícil, xa que algunhas mazás parécense a peras e algunhas peras a mazá. É difícil saber onde está o límite. E desenvolvemos uns complexos algoritmos matemáticos que nos axudaron a detectar estas limitacións: os vectores de axuda.

De feito, na aprendizaxe automática utilízanse moitos métodos. Ao principio me doctoré en redes neuronais, comparei varios métodos, entre eles os chamados métodos nucleares. Pero logo, cando coñecín ao profesor Vladimir Vapnik no laboratorio Bell, utilizamos e desenvolvemos vectores de axuda baseados nun método inventado na década dos 60, exemplos de discriminación de datos.

Deime conta de que eses algoritmos e o método nuclear poderían combinarse. O meu marido, Bernard Bozer, implementó esa combinación e funcionou bastante ben. Empezamos a aplicar en varias cousas. Con Bernard Schölkopf desenvolvemos un campo completo ao redor dos métodos nucleares, multiplicando as súas aplicacións.

Durante moitos anos traballei neste campo. Substituíu o meu primeiro amor, as redes neuronais. Non intencionadamente, pero no meu traballo había dous ámbitos que competían. Con todo, na práctica non son competidores. Ao contrario, creo que son moi complementarios. Na aprendizaxe básica pódense combinar redes neuronais e vectores de apoio. Agora son moitas as persoas que as combinan e crean técnicas máis potentes.

As redes neuronais son moi útiles, pero é una técnica recentemente resucitado pola capacidade de computación dos computadores. Fai uns 25 anos, cando ti investigabas iso, os computadores non eran tan poderosos en absoluto, e a idea das redes neuronais era moi boa, pero non moi realista nese momento. Hoxe en día, con todo, o seu uso é enorme.

Iso é, houbo un punto de inflexión. Desde que se dispón de datos suficientes paira formar redes neuronais e outras máquinas de estudo, as máquinas igualaron a capacidade humana. Ás veces mesmo o superaron, xa que a capacidade de procesamiento de grandes cantidades de datos é moi limitada en humanos. Por exemplo, formaron a unha chea de persoas paira xogar a Go, con centos de partidos exhibidos, superando a capacidade humana. Foi una sorpresa que una máquina superase ao campión do xogo Go, porque pensabamos que aínda estaba lonxe. E, por suposto, isto provoca tantos medos na xente como o soño.

Temen que as máquinas se convertan en “superseres”. Pero eu creo que é una gran oportunidade e que non debemos asustarnos, senón que temos que explotala e pola a disposición do maior segmento de poboación posible.

Estamos nunha revolución. Una gran revolución con redes neuronais e máquinas de aprender. Así o ves?

Si, e creo que estamos ao principio da revolución, xa que se están estendendo moito, sobre todo os algoritmos que atopan patróns nos datos. Agora, nos nosos teléfonos e nos nosos computadores hai moitos produtos de aprendizaxe automática que coñecen as caras ou que fan traducións automáticas, por exemplo. Existen numerosas aplicacións de visión artificial grazas ás redes neuronais convolucionales. De feito, desenvolvéronos no laboratorio Bell cando traballaba alí. E á vez traballamos con máquinas vectoriales, porque son complementarias.

Por exemplo, supoñamos que formas una rede neuronal paira dividir una imaxe en pequenos segmentos que logo se combinan en anacos de raias e cruces. Necesitas grandes bases de datos paira formarche ben. Pero si non tes moitos datos e os que tes non son adecuados? Por exemplo, imaxina que queres adestrar ao teu sistema para que coñeza as caras, pero a maioría das imaxes que tes son imaxes de obxectos, outro tipo de datos. Pero supoñamos que tamén ten unhas poucas imaxes das caras dos nenos. Paira poder adestrar o sistema necesitas un método baseado en exemplos, como as máquinas vectoriales, e non un método baseado nas características que ve.

As máquinas formámolas paira facer una cousa, pero nós, os humanos, somos capaces de facer cousas moi diferentes e de relacionalas unhas con outras.

Iso é, e ademais temos diferentes formas de aprender. Por exemplo, temos una memoria a longo prazo. Esta memoria necesita moitos datos e permítenos aprender estratexias de diferenciación de patróns. E temos una memoria a curto prazo, con exemplos que só aprendemos de memoria e logo tomamos decisións comparadas.

Tamén traballou en bioinformática. Isto supuxo una gran revolución na química, por exemplo. Por exemplo, se buscas una molécula que se asocie a unha determinada proteína, o sistema automático pode estudar moitas opcións e decidir cales son as moléculas máis apropiadas. Cada vez utilízase máis na investigación bioquímica.
Ed. Universidade de California/Fundación BBVA

Si, iso foi moi importante. E segue sendo importante. Falamos do Big Data, que é ter moitos datos. Pero que datos necesitamos? Basicamente existen dúas formas de abordar o tema: o elevado número de exemplos e o elevado número de características de cada un deles. Se falamos de química, podemos estudar una molécula de moitas características, con miles de características. Ademais, na investigación biomédica pódese estudar tamén ao paciente, que ten miles de características.

Por exemplo, se medimos todas as actividades dos xenes, estudamos miles de características. Big data é un tipo diferente. Non temos moitos xenes, pero temos moitas das súas características. Aquí pódense utilizar as máquinas de vectores de axuda. Por iso utilizáronse moito en biomedicina e agora tamén en química.

Lembro un exemplo británico: querían combinar os datos de doantes e pacientes paira obter doantes adecuados paira transplantes renais, tendo en conta a compatibilidade do tipo de sangue e outras características. Dispuñan de datos de todo o país e grazas aos sistemas de intelixencia artificial foron capaces de decidir: Esta persoa londiniense doa un ril a Manchester e a outra de York… Formaron una complexa rede de doantes e pacientes. Iso é un exemplo simple paira vós, non? É, dalgunha maneira, o pasado da aprendizaxe automática.

Si. E o máis interesante é que combinamos diferentes disciplinas: estatística, optimización e outros métodos tradicionais. Moitas persoas uniron forzas nos últimos 20 anos. En ocasións, os métodos estatísticos convencionais non se coñecían en informática. E é emocionante paira as persoas que traballaron noutros tipos de intelixencia artificial, que só podemos facer cousas potentes a partir dos números, sobre todo manipulando os números e recompilando moitos datos.

Pero non é maxia negra. Se temos centos de miles de características, como podemos distinguir os patróns? Tratamos de atopar as características máis características dunha cousa ou outra? Supoñamos que queremos separar os cans das vacas. Non importa ter catro patas, porque tantos cans como vacas teñen catro patas, pero as vacas teñen cornos e os cans non. Buscan este tipo de características. En definitiva, a partir de centos de miles de datos, podes simplificar o problema analizando só eses poucos números que che importan paira un problema concreto.

Elhuyar conta con investigadores de intelixencia artificial que traballan na tradución automática do eúscaro ao inglés, ao castelán, ao francés e outras linguas, e viceversa. O problema é que o eúscaro non ten un gran corpus paira comparar tantos datos como linguas grandes. Por tanto, teñen que traballar moi ben paira adestrar moitas máquinas con esta información.

A xente a miúdo pensa que é difícil ter moitos datos, pero o máis difícil é ter poucos datos. De feito, a teoría de Vapnik axudounos moito a entender que cando temos poucos datos debemos utilizar modelos bastante simples. Curiosamente, as redes neuronais que manexan poucos datos son redes estreitas. Subxace a complexa teoría. Agora chámase teoría da regularización, é dicir, paira traballar con poucos datos, a clave non é só o modelo que utilizas, senón tamén a forma de formalo.

Interésame especialmente o que chamamos “breve aprendizaxe de poucos datos”, é dicir, sistemas que deben aprender a partir de poucos exemplos. Nestes casos organizamos concursos. Esa é a miña forma de traballar. En lugar de que os traballos se realicen eu e os alumnos, abrimos o problema a un gran grupo de investigadores. Por tanto, expomos problemas e abrimos a posibilidade de que calquera persoa poida dar solución. Podemos realizar un novo traballo cun sistema formado noutros traballos.

Ao fío do que comentaches, nas redes neuronais hai moitas estratexias, como as estratexias das redes GAN, sistemas que aprenden da competencia con outro sistema. Incrible! Está a abrir un novo futuro?

Si. As redes GAN revolucionaron os últimos anos na formación de redes neuronais. A xente inventa novos métodos e novas ideas paira explotalos. Una das cousas que fixemos é xerar datos artificiais realistas. Uno dos obxectivos é protexer a privacidade. E é que estes datos, en moitas ocasións, xeran inquietudes de privacidade ou teñen valor comercial, polo que non se poden difundir sen máis. O gran problema foi que algunhas grandes empresas foron denunciadas por liberar datos privados. Por tanto, agora son moi prudentes. E iso é malo paira a comunidade investigadora, xa que os investigadores non poden estudar máis problemas interesantes e tratar de atopar una solución.

Así que traballei cos meus compañeiros do RPI de Nova York: Dividir mensaxes baseadas en redes GAN paira xerar datos artificiais realistas sen información sobre individuos. Estes datos almacenan todas as propiedades estatísticas dos datos reais, polo que son útiles paira a investigación.

Desta forma, os alumnos poden utilizalos paira formar os sistemas. O problema é que tamén nos gustaría utilizalos paira facer descubrimentos reais, e paira iso non serven. Mantendo as propiedades dos datos reais, poderiamos utilizalos na investigación paira realizar descubrimentos reais. Estamos a tratar de estender progresivamente os límites destes datos artificiais realistas.

E funciona?

Si, en biomedicina creamos moitos rexistros médicos falsos porque é una información moi sensible. En xeral, estabamos a colaborar con empresas con datos sensibles pero non nos permitían exportar datos. Con todo, agora exportamos modelos que poden xerar datos que poderían superar certos límites de seguridade ou privacidade. Se teño a esperanza de que sirva á comunidade científica.

Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia