Isabelle Guyon : “Nous devons mettre l’intelligence artificielle au plus grand nombre”

Isabelle Guyon : “Nous devons mettre l’intelligence artificielle au plus grand nombre”
C'est ça. Certains travaux simples pour être humain sont très difficiles pour les machines. Par exemple, si la machine doit apprendre à distinguer les poires et les pommes, il est parfois difficile, car certaines pommes ressemblent à des poires et quelques poires à pomme. Il est difficile de savoir où se trouve la limite. Et nous avons développé des algorithmes mathématiques complexes qui nous ont aidés à détecter ces limitations : les vecteurs d'aide.
En fait, l'apprentissage automatique utilise de nombreuses méthodes. Au début, j'ai obtenu mon doctorat en réseaux neuronaux, j'ai comparé plusieurs méthodes, dont des méthodes nucléaires. Mais quand j'ai rencontré le professeur Vladimir Vapnik au laboratoire Bell, nous avons utilisé et développé des vecteurs d'aide basés sur une méthode inventée dans les années 60, des exemples de discrimination de données.
J'ai réalisé que ces algorithmes et la méthode nucléaire pourraient être combinés. Mon mari, Bernard Bozer, a mis en œuvre cette combinaison et a très bien fonctionné. Nous avons commencé à appliquer sur plusieurs choses. Avec Bernard Schölkopf, nous développons un champ complet autour des méthodes nucléaires en multipliant leurs applications.
Pendant de nombreuses années, j'ai travaillé dans ce domaine. Il a remplacé mon premier amour, les réseaux neuronaux. Pas intentionnellement, mais dans mon travail il y avait deux domaines concurrentiels. Cependant, dans la pratique, ils ne sont pas concurrents. Au contraire, je pense qu'ils sont très complémentaires. L'apprentissage de base permet de combiner des réseaux neuronaux et des vecteurs de soutien. Maintenant, beaucoup de gens les combinent et créent des techniques plus puissantes.
C'est, il y avait un tournant. Depuis que des données suffisantes sont disponibles pour former des réseaux neuronaux et autres machines d'étude, les machines ont égalé la capacité humaine. Parfois, ils ont même dépassé, car la capacité de traitement de grandes quantités de données est très limitée chez l'homme. Par exemple, beaucoup de gens ont été formés pour jouer à Go, avec des centaines de matchs exposés, dépassant la capacité humaine. C'était une surprise qu'une machine dépasserait le champion du jeu Go, parce que nous pensions qu'elle était encore loin. Et, bien sûr, cela provoque autant de peurs dans les gens que le rêve.
Ils craignent que les machines deviennent des « super-êtres ». Mais je pense que c'est une grande opportunité et que nous ne devons pas nous effrayer, mais nous devons l'exploiter et la mettre à la disposition du plus grand segment de population possible.
Oui, et je pense que nous sommes au début de la révolution, car ils se propagent beaucoup, surtout les algorithmes qui trouvent des modèles dans les données. Maintenant, sur nos téléphones et sur nos ordinateurs il y a beaucoup de produits d'apprentissage automatique qui connaissent les visages ou qui font des traductions automatiques, par exemple. Il existe de nombreuses applications de vision artificielle grâce aux réseaux neuronaux convolutionnels. En fait, ils les ont développés au laboratoire Bell quand ils y travaillaient. Et en même temps nous travaillons avec des machines vectorielles, parce qu'elles sont complémentaires.
Par exemple, supposons que vous formez un réseau neuronal pour diviser une image en petits segments qui sont ensuite combinés en morceaux de rayures et de croix. Vous avez besoin de grandes bases de données pour bien vous former. Mais si vous n'avez pas beaucoup de données et celles que vous avez ne conviennent pas? Par exemple, imaginez que vous souhaitez former votre système pour qu'il connaisse les visages, mais la plupart des images que vous avez sont des images d'objets, d'autres types de données. Mais supposons que vous avez aussi quelques images des visages des enfants. Pour pouvoir former le système, vous avez besoin d'une méthode basée sur des exemples, comme les machines vectorielles, et non une méthode basée sur les caractéristiques que vous voyez.
C'est, et nous avons aussi différentes façons d'apprendre. Par exemple, nous avons une mémoire à long terme. Cette mémoire a besoin de nombreuses données et nous permet d'apprendre des stratégies de différenciation des modèles. Et nous avons une mémoire à court terme, avec des exemples que nous apprenons seulement en mémoire, puis nous prenons des décisions comparées.
Oui, cela a été très important. Et cela reste important. Nous parlons du Big Data, qui est d'avoir beaucoup de données. Mais quelles données avons-nous besoin ? Fondamentalement, il existe deux façons d'aborder le sujet: le nombre élevé d'exemples et le nombre élevé de caractéristiques de chacun d'eux. Si nous parlons de chimie, nous pouvons étudier une molécule de nombreuses caractéristiques, avec des milliers de caractéristiques. En outre, dans la recherche biomédicale, on peut aussi étudier le patient, qui a des milliers de caractéristiques.
Par exemple, si nous mesurons toutes les activités des gènes, nous étudions des milliers de caractéristiques. Big data est un type différent. Nous n'avons pas beaucoup de gènes, mais nous avons beaucoup de leurs caractéristiques. Ici, vous pouvez utiliser les machines à vecteurs d'aide. C'est pourquoi beaucoup ont été utilisés en biomédecine et maintenant aussi en chimie.
Oui. Et le plus intéressant est que nous combinons différentes disciplines: statistique, optimisation et autres méthodes traditionnelles. Beaucoup de gens ont uni leurs forces au cours des 20 dernières années. Parfois, les méthodes statistiques conventionnelles ne sont pas connues en informatique. Et c'est excitant pour les personnes qui ont travaillé sur d'autres types d'intelligence artificielle, que nous ne pouvons faire des choses puissantes à partir des nombres, surtout en manipulant les nombres et en recueillant de nombreuses données.
Mais ce n'est pas de la magie noire. Si nous avons des centaines de milliers de fonctionnalités, comment pouvons-nous distinguer les modèles? Essayons-nous de trouver les caractéristiques les plus caractéristiques d'une chose ou d'une autre ? Supposons que nous voulons séparer les chiens des vaches. Peu importe d'avoir quatre pattes, parce que les chiens et les vaches ont quatre pattes, mais les vaches ont des cornes et les chiens ne. Ils recherchent ce type de fonctionnalités. En définitive, à partir de centaines de milliers de données, vous pouvez simplifier le problème en analysant seulement les quelques chiffres qui vous importent pour un problème particulier.
Les gens pensent souvent qu'il est difficile d'avoir beaucoup de données, mais la chose la plus difficile est d'avoir peu de données. En fait, la théorie de Vapnik nous a beaucoup aidé à comprendre que lorsque nous avons peu de données, nous devons utiliser des modèles assez simples. Curieusement, les réseaux neuronaux qui contrôlent peu de données sont des réseaux étroits. Il sous-tend la théorie complexe. Maintenant, on appelle la théorie de la régularisation, c'est-à-dire pour travailler avec peu de données, la clé n'est pas seulement le modèle que vous utilisez, mais aussi la façon de le former.
Je suis particulièrement intéressé par ce que nous appelons “bref apprentissage de quelques données”, à savoir les systèmes qui doivent apprendre à partir de quelques exemples. Dans ces cas, nous organisons des concours. C'est ma façon de travailler. Au lieu de faire les travaux moi et les élèves, nous avons ouvert le problème à un grand groupe de chercheurs. Nous posons donc des problèmes et nous ouvrons la possibilité que n'importe qui puisse donner une solution. Nous pouvons réaliser un nouveau travail avec un système formé dans d'autres travaux.
Oui. Les réseaux GAN ont révolutionné ces dernières années la formation de réseaux neuronaux. Les gens inventent de nouvelles méthodes et de nouvelles idées pour les exploiter. Une des choses que nous avons fait est de générer des données artificielles réalistes. L'un des objectifs est de protéger la vie privée. Et c'est que ces données, à plusieurs reprises, génèrent des préoccupations de confidentialité ou ont une valeur commerciale, de sorte qu'ils ne peuvent pas être diffusés sans plus. Le grand problème a été que certaines grandes entreprises ont été dénoncées pour la libération de données privées. Par conséquent, ils sont maintenant très prudents. Et c'est mauvais pour la communauté de recherche, car les chercheurs ne peuvent pas étudier plus de problèmes intéressants et essayer de trouver une solution.
Donc, j'ai travaillé avec mes collègues du RPI de New York: Diviser les messages basés sur les réseaux GAN pour générer des données artificielles réalistes sans information sur les individus. Ces données stockent toutes les propriétés statistiques des données réelles, de sorte qu'elles sont utiles pour la recherche.
De cette façon, les élèves peuvent les utiliser pour former les systèmes. Le problème est que nous aimerions également les utiliser pour faire des découvertes réelles, et pour cela ils ne servent pas. En gardant les propriétés des données réelles, nous pourrions les utiliser dans la recherche pour réaliser des découvertes réelles. Nous essayons d'étendre progressivement les limites de ces données artificielles réalistes.
Oui, en biomédicine, nous avons créé de nombreux registres médicaux faux parce que c'est une information très sensible. En général, nous collaborons avec des entreprises avec des données sensibles, mais nous n'avons pas été autorisés à exporter des données. Cependant, nous exportons maintenant des modèles qui peuvent générer des données qui pourraient dépasser certaines limites de sécurité ou de confidentialité. Si j'espère que cela servira la communauté scientifique.
Buletina
Bidali zure helbide elektronikoa eta jaso asteroko buletina zure sarrera-ontzian