“Es difícil crear un modelo ético universal para las máquinas”
Sí, tienen. En el campo de la Inteligencia Artificial existen dos disciplinas muy complejas pero que han cobrado mucha fuerza: por un lado, la vista –reconocimiento y procesamiento de imágenes– y, por otro, el procesamiento del lenguaje natural. Se necesitan algoritmos muy complejos para automatizar en máquinas ese proceso que el cerebro humano realiza de forma natural. Por ejemplo: traducción automática, sistemas de preguntas y respuestas, sistemas de recapitulación de textos, correctores gramaticales… Pero cada vez estamos consiguiendo mejores resultados.
Sí, pero no es solo eso. En definitiva, la mayor parte de la información que se genera en el mundo está codificada en nuestro idioma. El big data está en el lenguaje humano y de forma digital. Por lo tanto, esta fuente es la más productiva para acceder a cualquier información. El procesamiento del lenguaje natural es necesario para exprimir la información digitalizada y realizar diversos análisis. De esta manera se obtendrán los beneficios de dicha información.
Sí, así es. Para que las máquinas aprendan el lenguaje humano, se entrenan con textos creados por el hombre: noticias, novelas... En estos textos se ven nuestros comportamientos, reflejo de nuestra sociedad racista y excluyente. Por lo tanto, las máquinas aprenden comportamientos discriminatorios.
En la traducción automática, por ejemplo, se ve muy claro en las profesiones: en muchas ocasiones, el ingeniero las considera directamente masculinas y la enfermera como mujeres. Lo mismo ocurre con las minorías religiosas: un sistema que sacaba sinónimos o relaciones semánticas, por ejemplo, a veces vinculaba al Islam con el terrorismo. Google también desarrolló un servicio de detección de objetos fotográficos que, en algunos casos, clasificaba a las personas negras como gorila.
De hecho, el sesgo o las actitudes excluyentes provienen de los textos de entrenamiento, los cuales tenemos que “limpiarlos”. La cuestión es que hay muchas minorías y muchos conflictos éticos que a veces se cruzan entre sí. No es viable depurar millones de textos y crear un corpus ético universal, sin sesgos en ningún problema social. Es éticamente difícil, no solo tecnológicamente.
Se pueden generar modelos éticos con atención en un problema concreto y en eso estamos. Pero los algoritmos que creamos para aprender las máquinas también pueden amplificar el sesgo inherente a los textos. Hay que tener en cuenta ambos factores.
Ahora, sobre todo, se utilizan modelos lingüísticos neuronales para que las máquinas aprendan el lenguaje natural, y en estos modelos neuronales de lenguaje se tratan de distinguir diferentes niveles de abstracción del lenguaje: morfológico, sintáctico, semántico y pragmático. Y en esto último entran las emociones. Se ha propuesto una escala de seis categorías para detectar emociones: enfado, contento, triste... Lo que pasa es que en el lenguaje oral también hay que tener en cuenta los gestos y la entonación para detectar las emociones. Por lo tanto, también se necesita un procesamiento de imágenes. Hace falta una arquitectura neuronal que aúne tres disciplinas: el reconocimiento de las imágenes, la tecnología del habla y la comprensión del lenguaje. En eso ya se está investigando.
Es más difícil detectar la ironía. Para ello, el sistema debería centrarse en lo global y en el contexto global, lo que llamamos “conocimiento del mundo”. Para entender los chistes, la máquina debe aprender previamente algunas referencias culturales. Integrar todo ese conocimiento del mundo en redes neuronales es muy complejo. No existe una red neuronal que genere buenos chistes, por ejemplo. Pero eso llegará también.
Por ejemplo, el traductor automático Elia que hemos desarrollado, cuando queremos traducir una frase, debe tomar una frase y anunciar cómo se dice en otro idioma. Tiene, por tanto, dos variables: entrada y salida. Una palabra puede ser introductoria y algunas neuronas deben predecir cómo traducirla. Estas neuronas funcionan con bits: reciben un número en la entrada y dan un número en la salida. En el lenguaje binario, 0 ó 1.
Sí, una fórmula. Tiene una serie de valores en la entrada y se combinan los valores de entrada para que el valor salga. Pero para cada palabra de entrada, se necesitan un montón de neuronas conectadas entre sí. Y, como el lenguaje es complejo, se necesitan millones de neuronas, millones de fórmulas matemáticas conectadas entre sí. Como las neuronas biológicas. De ahí el nombre de las redes neuronales. Estas arquitecturas neuronales pueden organizarse por capas. De alguna manera, la morfología se aprende en la primera capa; en la segunda, la sintaxis; en la tercera, la semántica…
Y para dar mejores resultados, debemos ir ajustando esas fórmulas. Pero, ¿cómo ajusta un millón de fórmulas? No se puede hacer manualmente. Utilizamos algoritmos de optimización hasta que se explore automáticamente y se encuentran los parámetros que dan los mejores resultados en el entrenamiento.
Ha tenido una larga evolución. Al principio se utilizaban metodologías basadas en las reglas del lenguaje: “Si en una frase aparece esta palabra en esta posición y al lado tiene un título…”. Pero es un lenguaje complejo y hay demasiadas reglas, por lo que los resultados no fueron buenos. Entonces pensaron que lo más adecuado serían los modelos estadísticos. Los resultados mejoraron un poco. en 2010, Mikolov, un investigador de Google, propuso una técnica para representar mejor las características lingüísticas de las palabras. Y empezaron a utilizar redes neuronales profundas.
Sin embargo, en 2017 y 2018, otros investigadores de Google propusieron sendas innovaciones para mejorar el aprendizaje de la complejidad del lenguaje. Estas innovaciones han consolidado el paradigma actual: el conocimiento de una lengua se concentra en un modelo lingüístico neuronal gigante que se puede adaptar para realizar tareas concretas de procesamiento de la lengua. Esto ha supuesto un boom en las tecnologías lingüísticas.
Sí, es un gran límite. Estamos trabajando en un proyecto con el centro HiTZ y Vicomtech para conseguir la mayor base de datos que el euskera ha tenido nunca. hemos conseguido un corpus de 400 millones de palabras. En inglés, manejan miles de millones.
Está claro que lo importante para fortalecer la vitalidad digital de una lengua es crear contenidos. Pero luego necesitamos herramientas digitales para interactuar en ese idioma: traductores automáticos, subtitulado automático, recomendaciones de noticias… Para consumir contenidos, son necesarias las tecnologías de la lengua.
La digitalización ha transformado completamente la comunicación. En este momento, puede leer el tuit escrito por un periodista ruso en su idioma. Pero para ello, las lenguas necesitan un soporte tecnológico. En caso contrario, quedarán fuera de juego a corto plazo. Por lo tanto, sí es importante que las políticas lingüísticas tengan una estrategia digital clara. Sin embargo, el euskera no tiene una estrategia muy clara.
En mi opinión, es imprescindible ser soberano de las tecnologías críticas para la supervivencia de nuestra lengua. Sobre todo, para poder marcar líneas estratégicas y no depender de nadie. Google ofrece algunos servicios –traductores, buscadores, sistemas de transcripción…– y a menudo oigo a la gente con miedo: “Si Google no saca versiones en euskera, ¡nos quedaremos fuera!”. Pero quizá lo importante no sea que lo haga Google, sino que nosotros mismos seamos capaces de hacerlo. La posesión de este conocimiento es, precisamente, la independencia. Esto nos dará capacidad para afrontar cualquier situación sin depender de grandes corporaciones.
La mayoría de las novedades han sido realizadas por investigadores de Google, pero todos han puesto a disposición de los usuarios algoritmos y otros recursos. En Euskal Herria hemos sacado un gran provecho de estos recursos. Estamos trabajando en tres grupos: Centro HiTZ, Vicomtech y Tecnologías Orai NLP. Por lo tanto, tenemos elementos para alcanzar la soberanía tecnológica. Pero hace falta una financiación pública sólida, porque el mercado nunca salvará a la débil.
Buletina
Bidali zure helbide elektronikoa eta jaso asteroko buletina zure sarrera-ontzian

