Isabelle Guyon : “Nous devons mettre l’intelligence artificielle au plus grand nombre”

2021/12/01 Roa Zubia, Guillermo - Elhuyar Zientzia Iturria: Elhuyar aldizkaria

Pour beaucoup, Isabelle Guyon est l'une des pionnières de l'intelligence artificielle. Apprenez à votre ordinateur à faire une chose et vous utiliserez sûrement le travail de Guyon, qui a inventé les méthodologies de base pour l'apprentissage automatique. Les machines manipulent facilement les nombres, mais pour vraiment approcher l'intelligence humaine, elles doivent apprendre à distinguer avec précision des objets comme des hommes et des femmes, à différencier un diagnostic médical ou à identifier des modèles dans n'importe quel groupe de données. Guyon y a contribué de manière fondamentale. Il est arrivé à Bilbao pour recueillir le Prix des Frontières de la Connaissance de la Fondation BBVA et a interviewé Guillermo Roa dans le programme Norko Ferrokarrilla d'Euskadi Irratia. Nous l'avons également apporté à la revue Elhuyar.
Ed. Université de Californie/Fondation BBVA
Vous êtes expert en intelligence artificielle et big data. Il y a 20 ans, il a créé les algorithmes qui soutiennent l'apprentissage automatique : les vecteurs d'aide. C'est, les algorithmes qui sont utilisés lorsque vous devez analyser de nombreuses données. Est-ce correct?

C'est ça. Certains travaux simples pour être humain sont très difficiles pour les machines. Par exemple, si la machine doit apprendre à distinguer les poires et les pommes, il est parfois difficile, car certaines pommes ressemblent à des poires et quelques poires à pomme. Il est difficile de savoir où se trouve la limite. Et nous avons développé des algorithmes mathématiques complexes qui nous ont aidés à détecter ces limitations : les vecteurs d'aide.

En fait, l'apprentissage automatique utilise de nombreuses méthodes. Au début, j'ai obtenu mon doctorat en réseaux neuronaux, j'ai comparé plusieurs méthodes, dont des méthodes nucléaires. Mais quand j'ai rencontré le professeur Vladimir Vapnik au laboratoire Bell, nous avons utilisé et développé des vecteurs d'aide basés sur une méthode inventée dans les années 60, des exemples de discrimination de données.

J'ai réalisé que ces algorithmes et la méthode nucléaire pourraient être combinés. Mon mari, Bernard Bozer, a mis en œuvre cette combinaison et a très bien fonctionné. Nous avons commencé à appliquer sur plusieurs choses. Avec Bernard Schölkopf, nous développons un champ complet autour des méthodes nucléaires en multipliant leurs applications.

Pendant de nombreuses années, j'ai travaillé dans ce domaine. Il a remplacé mon premier amour, les réseaux neuronaux. Pas intentionnellement, mais dans mon travail il y avait deux domaines concurrentiels. Cependant, dans la pratique, ils ne sont pas concurrents. Au contraire, je pense qu'ils sont très complémentaires. L'apprentissage de base permet de combiner des réseaux neuronaux et des vecteurs de soutien. Maintenant, beaucoup de gens les combinent et créent des techniques plus puissantes.

Les réseaux neuronaux sont très utiles, mais c'est une technique récemment ressuscitée par la capacité informatique des ordinateurs. Il y a environ 25 ans, quand vous avez étudié cela, les ordinateurs n'étaient pas si puissants du tout, et l'idée des réseaux neuronaux était très bonne, mais pas très réaliste à ce moment-là. Aujourd'hui, cependant, son utilisation est énorme.

C'est, il y avait un tournant. Depuis que des données suffisantes sont disponibles pour former des réseaux neuronaux et autres machines d'étude, les machines ont égalé la capacité humaine. Parfois, ils ont même dépassé, car la capacité de traitement de grandes quantités de données est très limitée chez l'homme. Par exemple, beaucoup de gens ont été formés pour jouer à Go, avec des centaines de matchs exposés, dépassant la capacité humaine. C'était une surprise qu'une machine dépasserait le champion du jeu Go, parce que nous pensions qu'elle était encore loin. Et, bien sûr, cela provoque autant de peurs dans les gens que le rêve.

Ils craignent que les machines deviennent des « super-êtres ». Mais je pense que c'est une grande opportunité et que nous ne devons pas nous effrayer, mais nous devons l'exploiter et la mettre à la disposition du plus grand segment de population possible.

Nous sommes dans une révolution. Une grande révolution avec des réseaux neuronaux et des machines à apprendre. Vous voyez cela ?

Oui, et je pense que nous sommes au début de la révolution, car ils se propagent beaucoup, surtout les algorithmes qui trouvent des modèles dans les données. Maintenant, sur nos téléphones et sur nos ordinateurs il y a beaucoup de produits d'apprentissage automatique qui connaissent les visages ou qui font des traductions automatiques, par exemple. Il existe de nombreuses applications de vision artificielle grâce aux réseaux neuronaux convolutionnels. En fait, ils les ont développés au laboratoire Bell quand ils y travaillaient. Et en même temps nous travaillons avec des machines vectorielles, parce qu'elles sont complémentaires.

Par exemple, supposons que vous formez un réseau neuronal pour diviser une image en petits segments qui sont ensuite combinés en morceaux de rayures et de croix. Vous avez besoin de grandes bases de données pour bien vous former. Mais si vous n'avez pas beaucoup de données et celles que vous avez ne conviennent pas? Par exemple, imaginez que vous souhaitez former votre système pour qu'il connaisse les visages, mais la plupart des images que vous avez sont des images d'objets, d'autres types de données. Mais supposons que vous avez aussi quelques images des visages des enfants. Pour pouvoir former le système, vous avez besoin d'une méthode basée sur des exemples, comme les machines vectorielles, et non une méthode basée sur les caractéristiques que vous voyez.

Nous formons les machines pour faire une chose, mais nous, les humains, sommes capables de faire des choses très différentes et de les relier entre elles.

C'est, et nous avons aussi différentes façons d'apprendre. Par exemple, nous avons une mémoire à long terme. Cette mémoire a besoin de nombreuses données et nous permet d'apprendre des stratégies de différenciation des modèles. Et nous avons une mémoire à court terme, avec des exemples que nous apprenons seulement en mémoire, puis nous prenons des décisions comparées.

Il a également travaillé en bioinformatique. Cela a provoqué une grande révolution dans la chimie, par exemple. Par exemple, si vous recherchez une molécule qui est associée à une certaine protéine, le système automatique peut étudier beaucoup d'options et décider quelles sont les molécules les les plus appropriées. Il est de plus en plus utilisé dans la recherche biochimique.
Ed. Université de Californie/Fondation BBVA

Oui, cela a été très important. Et cela reste important. Nous parlons du Big Data, qui est d'avoir beaucoup de données. Mais quelles données avons-nous besoin ? Fondamentalement, il existe deux façons d'aborder le sujet: le nombre élevé d'exemples et le nombre élevé de caractéristiques de chacun d'eux. Si nous parlons de chimie, nous pouvons étudier une molécule de nombreuses caractéristiques, avec des milliers de caractéristiques. En outre, dans la recherche biomédicale, on peut aussi étudier le patient, qui a des milliers de caractéristiques.

Par exemple, si nous mesurons toutes les activités des gènes, nous étudions des milliers de caractéristiques. Big data est un type différent. Nous n'avons pas beaucoup de gènes, mais nous avons beaucoup de leurs caractéristiques. Ici, vous pouvez utiliser les machines à vecteurs d'aide. C'est pourquoi beaucoup ont été utilisés en biomédecine et maintenant aussi en chimie.

Je me souviens d'un exemple britannique: ils voulaient combiner les données des donateurs et des patients pour obtenir des donateurs appropriés pour les transplantations rénales, en tenant compte de la compatibilité du type de sang et d'autres caractéristiques. Ils disposaient de données provenant de tout le pays et grâce aux systèmes d'intelligence artificielle ont pu décider: Cette personne londonienne donne un rein à Manchester et l'autre à York… Ils ont formé un réseau complexe de donateurs et de patients. C'est un exemple simple pour vous, non ? C'est, en quelque sorte, le passé de l'apprentissage automatique.

Oui. Et le plus intéressant est que nous combinons différentes disciplines: statistique, optimisation et autres méthodes traditionnelles. Beaucoup de gens ont uni leurs forces au cours des 20 dernières années. Parfois, les méthodes statistiques conventionnelles ne sont pas connues en informatique. Et c'est excitant pour les personnes qui ont travaillé sur d'autres types d'intelligence artificielle, que nous ne pouvons faire des choses puissantes à partir des nombres, surtout en manipulant les nombres et en recueillant de nombreuses données.

Mais ce n'est pas de la magie noire. Si nous avons des centaines de milliers de fonctionnalités, comment pouvons-nous distinguer les modèles? Essayons-nous de trouver les caractéristiques les plus caractéristiques d'une chose ou d'une autre ? Supposons que nous voulons séparer les chiens des vaches. Peu importe d'avoir quatre pattes, parce que les chiens et les vaches ont quatre pattes, mais les vaches ont des cornes et les chiens ne. Ils recherchent ce type de fonctionnalités. En définitive, à partir de centaines de milliers de données, vous pouvez simplifier le problème en analysant seulement les quelques chiffres qui vous importent pour un problème particulier.

Elhuyar a des chercheurs d'intelligence artificielle qui travaillent à la traduction automatique de l'euskera en anglais, en espagnol, en français et en d'autres langues, et vice versa. Le problème est que le basque n'a pas un grand corpus pour comparer autant de données que de grandes langues. Par conséquent, ils doivent travailler très bien pour former de nombreuses machines avec cette information.

Les gens pensent souvent qu'il est difficile d'avoir beaucoup de données, mais la chose la plus difficile est d'avoir peu de données. En fait, la théorie de Vapnik nous a beaucoup aidé à comprendre que lorsque nous avons peu de données, nous devons utiliser des modèles assez simples. Curieusement, les réseaux neuronaux qui contrôlent peu de données sont des réseaux étroits. Il sous-tend la théorie complexe. Maintenant, on appelle la théorie de la régularisation, c'est-à-dire pour travailler avec peu de données, la clé n'est pas seulement le modèle que vous utilisez, mais aussi la façon de le former.

Je suis particulièrement intéressé par ce que nous appelons “bref apprentissage de quelques données”, à savoir les systèmes qui doivent apprendre à partir de quelques exemples. Dans ces cas, nous organisons des concours. C'est ma façon de travailler. Au lieu de faire les travaux moi et les élèves, nous avons ouvert le problème à un grand groupe de chercheurs. Nous posons donc des problèmes et nous ouvrons la possibilité que n'importe qui puisse donner une solution. Nous pouvons réaliser un nouveau travail avec un système formé dans d'autres travaux.

Au fil de ce que vous avez commenté, dans les réseaux neuronaux il y a beaucoup de stratégies, comme les stratégies des réseaux GAN, systèmes apprenant de la concurrence avec un autre système. Incroyable ! Ouvrez-vous un nouvel avenir ?

Oui. Les réseaux GAN ont révolutionné ces dernières années la formation de réseaux neuronaux. Les gens inventent de nouvelles méthodes et de nouvelles idées pour les exploiter. Une des choses que nous avons fait est de générer des données artificielles réalistes. L'un des objectifs est de protéger la vie privée. Et c'est que ces données, à plusieurs reprises, génèrent des préoccupations de confidentialité ou ont une valeur commerciale, de sorte qu'ils ne peuvent pas être diffusés sans plus. Le grand problème a été que certaines grandes entreprises ont été dénoncées pour la libération de données privées. Par conséquent, ils sont maintenant très prudents. Et c'est mauvais pour la communauté de recherche, car les chercheurs ne peuvent pas étudier plus de problèmes intéressants et essayer de trouver une solution.

Donc, j'ai travaillé avec mes collègues du RPI de New York: Diviser les messages basés sur les réseaux GAN pour générer des données artificielles réalistes sans information sur les individus. Ces données stockent toutes les propriétés statistiques des données réelles, de sorte qu'elles sont utiles pour la recherche.

De cette façon, les élèves peuvent les utiliser pour former les systèmes. Le problème est que nous aimerions également les utiliser pour faire des découvertes réelles, et pour cela ils ne servent pas. En gardant les propriétés des données réelles, nous pourrions les utiliser dans la recherche pour réaliser des découvertes réelles. Nous essayons d'étendre progressivement les limites de ces données artificielles réalistes.

Et ça marche ?

Oui, en biomédicine, nous avons créé de nombreux registres médicaux faux parce que c'est une information très sensible. En général, nous collaborons avec des entreprises avec des données sensibles, mais nous n'avons pas été autorisés à exporter des données. Cependant, nous exportons maintenant des modèles qui peuvent générer des données qui pourraient dépasser certaines limites de sécurité ou de confidentialité. Si j'espère que cela servira la communauté scientifique.

Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia