¿Una lección, amarga?
en 2019 Rich Sutton publicó el ensayo The Bitter Lesson. Había publicado algunas de sus opiniones sobre los que ejercían su inteligencia artificial y las había agitado. Se daban cuenta de lo que había dicho cuando los escribió. La práctica ya había demostrado que estábamos en la era del cambio profundo. La agitación no se debía tanto a la originalidad de las ideas emitidas, sino a la formulación tan general y categórica de las mismas.
¿Y qué argüía Sutton sobre ese tal The Bitter Lesson?
Dijo que los avances más significativos en la inteligencia artificial no se debieron a la imitación del entendimiento humano, sino a la explotación de métodos generales mediante la escala de la capacidad de computación. Es decir, más que recurrir al conocimiento humano especializado, era preferible utilizar algoritmos generales de búsqueda y aprendizaje en máquinas de alto poder computacional. Sutton sabía que para cuando escribió esta afirmación provocaba frustración en los que trabajaron durante mucho tiempo en un trabajo de investigación minucioso. Por eso le llamó “una lección amarga”.
Tenía ya algunos ejemplos. El método de la computadora que ganó a Kaspárov en 1997 se basaba en la búsqueda masiva y profunda, y no en el conocimiento específico del ajedrez que los investigadores de ajedrez computacional habían desarrollado hasta entonces.
Esta lección ha venido a reforzar el aprendizaje profundo, en el que la dependencia del conocimiento humano es aún menor. Si se dispone de grandes conjuntos de datos y capacidad de computación para procesarlos, los procesos generales de aprendizaje sirven para diferentes tareas. Es un patrón general y así se aplica en muchas áreas.
También en el procesamiento del lenguaje se ha impuesto este paradigma, lo que ha provocado una crisis en la lingüística computacional clásica. ¿Para qué enseñar a los sistemas morfologías, sintaxis, etc.? ¿Para qué, si de las grandes colecciones de textos aprenden bastante bien sin conocimientos lingüísticos adicionales? ¿Dónde han quedado esos trabajos de hormiga para describir la descripción computacional del lenguaje? Qué es la nostalgia.
Sin embargo, es cierto que hay autores que no están completamente de acuerdo con la lección de Sutton y, aunque muchos la admiten como principios orientadores, no la consideran como dogma universal. Entre las críticas destacan tres. Primera: el principio de "computación cada vez más" no es viable porque la computación no es un recurso infinito.
Segundo: la eficacia es importante, por lo que hay que buscar el modo óptimo de escalar, equilibrando los datos y la capacidad del modelo. Tercero: A pesar de que los métodos generales son potentes, el aumento del conocimiento experto sigue siendo beneficioso en muchos contextos, especialmente cuando hay datos limitados.
Precisamente, y en relación a esa tercera crítica, ¿qué pasa con los modelos lingüísticos que hablan en euskera? Algunos de ellos están trabajando con pulcritud (incluso sin tener euskaldunes en los grupos de trabajo), pero también se detectan carencias, tanto en la calidad del euskera como en la islan que tiene la cultura vasca.
Así pues, los vascos sabemos cómo hacer frente a la frustración provocada por la lección de Sutton: encontremos caminos para enriquecer nuestro conocimiento con esos sistemas negros que son tragadores de datos.
Buletina
Bidali zure helbide elektronikoa eta jaso asteroko buletina zure sarrera-ontzian