“É difícil crear un modelo ético universal para as máquinas”
Si, teñen. No campo da Intelixencia Artificial existen dúas disciplinas moi complexas pero que cobraron moita forza: por unha banda, o vista –recoñecemento e procesamiento de imaxes– e, por outro, o procesamiento da linguaxe natural. Necesítanse algoritmos moi complexos para automatizar en máquinas ese proceso que o cerebro humano realiza de forma natural. Por exemplo: tradución automática, sistemas de preguntas e respostas, sistemas de recapitulación de textos, correctores gramaticais… Pero cada vez estamos a conseguir mellores resultados.
Si, pero non é só iso. En definitiva, a maior parte da información que se xera no mundo está codificada no noso idioma. O big data está na linguaxe humana e de forma dixital. Por tanto, esta fonte é a máis produtiva para acceder a calquera información. O procesamiento da linguaxe natural é necesaria para espremer a información dixitalizada e realizar diversas análises. Desta maneira obteranse os beneficios de devandita información.
Si, así é. Para que as máquinas aprendan a linguaxe humana, adéstranse con textos creados polo home: noticias, novelas... Nestes textos ven os nosos comportamentos, reflexo da nosa sociedade racista e excluínte. Por tanto, as máquinas aprenden comportamentos discriminatorios.
Na tradución automática, por exemplo, vese moi claro nas profesións: en moitas ocasións, o enxeñeiro considéraas directamente masculinas e a enfermeira como mulleres. O mesmo ocorre coas minorías relixiosas: un sistema que sacaba sinónimos ou relacións semánticas, por exemplo, ás veces vinculaba ao Islam co terrorismo. Google tamén desenvolveu un servizo de detección de obxectos fotográficos que, nalgúns casos, clasificaba ás persoas negras como gorila.
De feito, o rumbo ou as actitudes excluíntes proveñen dos textos de adestramento, os cales temos que “limpalos”. A cuestión é que hai moitas minorías e moitos conflitos éticos que ás veces se cruzan entre si. Non é viable depurar millóns de textos e crear un corpus ético universal, sen rumbos en ningún problema social. É eticamente difícil, non só tecnoloxicamente.
Pódense xerar modelos éticos con atención nun problema concreto e niso estamos. Pero os algoritmos que creamos para aprender as máquinas tamén poden amplificar o rumbo inherente aos textos. Hai que ter en conta ambos os factores.
Agora, sobre todo, utilízanse modelos lingüísticos neuronais para que as máquinas aprendan a linguaxe natural, e nestes modelos neuronais de linguaxe trátanse de distinguir diferentes niveis de abstracción da linguaxe: morfolóxico, sintáctico, semántico e pragmático. E nisto último entran as emocións. Propúxose unha escala de seis categorías para detectar emocións: enfado, contento, triste... O que pasa é que na linguaxe oral tamén hai que ter en conta os xestos e a entonación para detectar as emocións. Por tanto, tamén se necesita un procesamiento de imaxes. Fai falta unha arquitectura neuronal que aúne tres disciplinas: o recoñecemento das imaxes, a tecnoloxía da fala e a comprensión da linguaxe. Niso xa se está investigando.
É máis difícil detectar a ironía. Para iso, o sistema debería centrarse no global e no contexto global, o que chamamos “coñecemento do mundo”. Para entender os chistes, a máquina debe aprender previamente algunhas referencias culturais. Integrar todo ese coñecemento do mundo en redes neuronais é moi complexo. Non existe unha rede neuronal que xere bos chistes, por exemplo. Pero iso chegará tamén.
Por exemplo, o tradutor automático Elia que desenvolvemos, cando queremos traducir unha frase, debe tomar unha frase e anunciar como se di noutro idioma. Ten, por tanto, dúas variables: entrada e saída. Unha palabra pode ser introdutoria e algunhas neuronas deben predicir como traducila. Estas neuronas funcionan con bits: reciben un número na entrada e dan un número na saída. Na linguaxe binaria, 0 ó 1.
Si, unha fórmula. Ten unha serie de valores na entrada e combínanse os valores de entrada para que o valor saia. Pero para cada palabra de entrada, necesítanse unha chea de neuronas conectadas entre si. E, como a linguaxe é complexo, necesítanse millóns de neuronas, millóns de fórmulas matemáticas conectadas entre si. Como as neuronas biolóxicas. De aí o nome das redes neuronais. Estas arquitecturas neuronais poden organizarse por capas. Dalgunha maneira, a morfología apréndese na primeira capa; na segunda, a sintaxe; na terceira, a semántica…
E para dar mellores resultados, debemos ir axustando esas fórmulas. Pero, como axusta un millón de fórmulas? Non se pode facer manualmente. Utilizamos algoritmos de optimización ata que se explore automaticamente e atópanse os parámetros que dan os mellores resultados no adestramento.
Tivo unha longa evolución. Ao principio utilizábanse metodoloxías baseadas nas regras da linguaxe: “Si nunha frase aparece esta palabra nesta posición e á beira ten un título…”. Pero é unha linguaxe complexa e hai demasiadas regras, polo que os resultados non foron bos. Entón pensaron que o máis axeitado serían os modelos estadísticos. Os resultados melloraron un pouco. en 2010, Mikolov, un investigador de Google, propuxo unha técnica para representar mellor as características lingüísticas das palabras. E empezaron a utilizar redes neuronais profundas.
Con todo, en 2017 e 2018, outros investigadores de Google propuxeron senllas innovacións para mellorar a aprendizaxe da complexidade da linguaxe. Estas innovacións consolidaron a paradigma actual: o coñecemento dunha lingua concéntrase nun modelo lingüístico neuronal xigante que se pode adaptar para realizar tarefas concretas de procesamiento da lingua. Isto supuxo un boom nas tecnoloxías lingüísticas.
Si, é un gran límite. Estamos a traballar nun proxecto co centro HiTZ e Vicomtech para conseguir a maior base de datos que o eúscaro tivo nunca. conseguimos un corpus de 400 millóns de palabras. En inglés, manexan miles de millóns.
Está claro que o importante para fortalecer a vitalidade dixital dunha lingua é crear contidos. Pero logo necesitamos ferramentas dixitais para interactuar nese idioma: tradutores automáticos, subtitulado automático, recomendacións de noticias… Para consumir contidos, son necesarias as tecnoloxías da lingua.
A dixitalización transformou completamente a comunicación. Neste momento, pode ler o tuit escrito por un xornalista ruso no seu idioma. Pero para iso, as linguas necesitan un soporte tecnolóxico. En caso contrario, quedarán fóra de xogo a curto prazo. Por tanto, si é importante que as políticas lingüísticas teñan unha estratexia dixital clara. Con todo, o eúscaro non ten unha estratexia moi clara.
Na miña opinión, é imprescindible ser soberano das tecnoloxías críticas para a supervivencia da nosa lingua. Sobre todo, para poder marcar liñas estratéxicas e non depender de ninguén. Google ofrece algúns servizos –tradutores, buscadores, sistemas de transcrición…– e a miúdo ouzo á xente con medo: “Si Google non saca versións en eúscaro, quedaremos fóra!”. Pero quizá o importante non sexa que o faga Google, senón que nós mesmos sexamos capaces de facelo. A posesión deste coñecemento é, precisamente, a independencia. Isto daranos capacidade para afrontar calquera situación sen depender de grandes corporacións.
A maioría das novidades foron realizadas por investigadores de Google, pero todos puxeron a disposición dos usuarios algoritmos e outros recursos. En Euskal Herria sacamos un gran proveito destes recursos. Estamos a traballar en tres grupos: Centro HiTZ, Vicomtech e Tecnoloxías Orai NLP. Por tanto, temos elementos para alcanzar a soberanía tecnolóxica. Pero fai falta un financiamento público sólida, porque o mercado nunca salvará á débil.
Buletina
Bidali zure helbide elektronikoa eta jaso asteroko buletina zure sarrera-ontzian

