}

Intelixencia artificial en xogo

2019/12/01 Azkune Galparsoro, Gorka - Ikertzailea eta irakasleaEuskal Herriko Unibertsitateko Informatika Fakultatea | Helena Matute Greño - Psikologia Esperimentaleko katedradunaDeustuko Unibertsitatea Iturria: Elhuyar aldizkaria

A intelixencia artificial é un gran reto tecnolóxico paira o ser humano: crear máquinas coas nosas capacidades. Máquinas que poden comunicarse connosco e, procesando inxentes cantidades de datos, aprender e tomar decisións por si mesmas. Aínda que aínda alguén pode sentirse lonxe, a intelixencia artificial xa está integrada na nosa vida e farao todo nas próximas décadas: transporte, educación, cultura, finanzas, agricultura…

Dentro duns poucos anos realizaremos as compras a través dos asistentes informáticos persoais, que nos suxerirán como mellorar o noso proceso de aprendizaxe ou nos farán un diagnóstico médico preguntando polos nosos síntomas. Imos ser moito máis eficientes grazas á intelixencia artificial, pero, doutra banda, hai quen ten a preocupación de que a robotización quítenos traballo e espazo aos seres humanos.

Hai quen di que esta tecnoloxía se está desenvolvendo demasiado rápido, que ve moitas preguntas que hai que responder antes. De feito, a intelixencia artificial é una expresión da visión mundial da nosa sociedade. É importante, por tanto, que a sociedade conte con esa tecnoloxía, cunha opinión elaborada e clara antes de que se fixen as leis, para que non se converta nunha tecnoloxía que nos controle nós mesmos.

Abordamos tres preguntas básicas paira comprender a situación actual e a que nos vén: Cal é o potencial real e os principais retos da intelixencia artificial? Que carencias ten neste momento? Que riscos?

A estas preguntas pedimos a dous expertos que traballan ao redor da intelixencia artificial: Gorka Azkune Galparsoro, informático e investigador de intelixencia artificial, e Helena Matute Greño, psicóloga experimental que investiga a psicoloxía da intelixencia artificial.

Ed. Sdecoret/Shutterstock.com

“Pode o home crear una máquina intelixente que evite os seus erros?”

Gorka Azkune Galparsoro

Investigador en intelixencia artificial. UPV/EHU

Cal é o potencial real e os principais retos da intelixencia artificial?

O potencial da intelixencia artificial é enorme. É fundamental no desenvolvemento da ciencia, pero xa o usamos paira miles de traballos correntes: desde a detección automática de correos electrónicos perigosos até a creación automática de álbums coas nosas fotografías. De face ao futuro, a intelixencia artificial pode superar a intelixencia humana en todos os ámbitos, o que pode ampliar as posibilidades de alto potencial. Non sei si imos conseguilo nunca, pero teoricamente non habería razón para que iso non ocorra.

Pero os retos científicos son grandes. Mesmo cos avances conseguidos nos últimos anos, diría que a intelixencia artificial aínda está nos seus inicios. Os sistemas actuais aprenden duns datos e despois, si achéganse datos similares, funcionan correctamente. Pero aínda teñen pouca capacidade de generalización. Si danse novos datos non funcionan ben, a diferenza dos humanos. É previsible que paira lograr esta competencia sexa necesario desenvolver outros retos como son os algoritmos de aprendizaxe, a xestión da memoria e o razoamento simbólico, entre outros.

Que carencias ten neste momento?

Os nosos sistemas actuais teñen unha chea de ocos. Ademais da falta de capacidade generalizadora, existen outros problemas. Por exemplo, un sistema que sabe xogar ao xadrez ten a capacidade de imporse aos mellores xogadores de xadrez, pero só o sabe, non pode conducir un coche ou resolver un sudoku. Os seres humanos somos capaces de facer moitas cousas e moi ben (recoñezo que esta afirmación é moi discutible). Pero os nosos sistemas son aínda moi especializados. Como obter sistemas multi-tarefas?

Outro baleiro claro é o uso dos datos. Os mellores sistemas actuais utilizan xigantescos conxuntos de datos etiquetaxes. A pesar dos avances logrados nos dous últimos anos, aínda non sabemos como utilizar correctamente datos non etiquetaxes (aprendizaxe non supervisada). Non é o mesmo ver algunhas fotos que alguén diga o que hai en cada foto, que ver a foto sen ningunha explicación. No segundo caso, os seres humanos somos capaces de aprender unha chea de informacións útiles. Máquinas aínda non.

Que riscos ves?

Como toda tecnoloxía, a intelixencia artificial pode utilizarse ben ou mal. Isto non é un problema tecnolóxico, senón un problema humano: paira que queremos utilizar tecnoloxías baseadas na intelixencia artificial? Podemos utilizalos paira loitar contra o cambio climático, pero tamén paira manipular as opinións políticas da xente. Creo que a lei debería regular o obxectivo do uso da tecnoloxía e non a propia tecnoloxía. A min non me importa a tecnoloxía que una persoa utiliza paira manipular as miñas opinións políticas, o que me importa é que quere manipular as miñas opinións políticas, e por iso deberiamos penalizalas. Por tanto, non creo que a intelixencia artificial sexa diferente a outras tecnoloxías.

Alguén pode dicir: pero se ese sistema decide en por si levar a cabo acciones prexudiciais? Esta opción está moi afastada tecnoloxicamente, pero si pénsase que pode ocorrer, se a máquina é propietaria das súas accións, debería ser responsable, como os humanos, das consecuencias das súas accións.

Desde un punto de vista científico, preocúpanme máis outras cousas. Por exemplo, como os sistemas aprenden dos datos e da experiencia, e tanto os datos como as experiencias obtéñenas das nosas mans, non imos reproducir e difundir as nosas tendencias? Xa habemos visto que os sistemas que se adestraron con textos escritos polo ser humano teñen tendencias machistas. Non é un erro do sistema, senón de datos. Dito de forma máis filosófica, pode o home crear una máquina intelixente que evite os seus erros?

 

“Temos que asignar responsabilidades en intelixencia artificial”

Helena Matute Greño

Director do Laboratorio de Psicoloxía Experimental. Universidade de Deusto

Cal é o potencial real e os principais retos da intelixencia artificial?

As intelixencias artificiais teñen na actualidade moitas capacidades que até hai pouco só se consideraban humanas. Nos xogos moi intuitivos e creativos son capaces de gañar aos seres humanos (por exemplo, no xogo Go), conducen coches e pilotan avións, realizan diagnósticos médicos (nalgúns aspectos mellor que os humanos), composicións sinfónicas, debuxan cadros e ás veces son capaces de gañar concursos, detectan quen será o bo traballador, quen será delincuente, que comprar e que noticias hai que ler no vídeo falso. É una tecnoloxía moi poderosa e, como todas as tecnoloxías potentes, hai que usala con moito coidado. Pode reforzar o progreso da humanidade, pero tamén pode provocar grandes riscos.

Que carencias ten neste momento?

Hoxe en día, as intelixencias artificiais seguen cometendo numerosos erros, o que constitúe un importante risco a ter en conta. Afacemos confiar demasiado nas súas recomendacións, por exemplo, cando nos din quen non temos que contratar ou a quen non debemos permitirnos saír do cárcere. Pero ás veces fallan. Non debemos confiar cegamente neles.

Outro problema é que ás veces non teñen obxectivos transparentes e moitas veces non coinciden cos nosos. Isto pode ser perigoso. É certo que aínda falta moito por conseguir as máquinas conscientes que aparecen en ciencia ficción. Pero isto adoita utilizarse como escusa paira dicir que non hai por que preocuparse. Pero até que punto é importante darse conta de que a propia intelixencia artificial está a facernos dano? Imaxínache se una máquina tivese a capacidade de facer dano dalgunha maneira, por exemplo, aumentando as diferenzas; negando hipotecas aos máis débiles, sen avisar das súas causas; negando un seguro médico; facendo un uso desmesurado das tendencias cognitivas dos adultos e dos nenos, facendo clic nunha publicidade concreta e vendo todos eses vídeos cada vez máis extremas que nos mostran… Si tivese a capacidade de prexudicar, deberíanos importar ou non ser consciente do que esa máquina realmente está a facer? Obviamente, non é consciente diso.

Na actualidade, as máquinas xa nos poden facer dano, xa que teñen que maximizar o obxectivo marcado (por exemplo, maximizar os beneficios dunha empresa), obxectivo que non se corresponde co noso. Neste momento, a conciencia é o que menos nos debería importar. O que nos importa á hora de crear as leis é o dano que poden causar.

Que riscos ves?

Son moitas as cuestións que hai que atender con urxencia. Debemos garantir que as intelixencias artificiais fan o que queremos e respectan tanto os valores que queremos impulsar como sociedade como as persoas (por exemplo, a democracia). A protección dos nenos é tamén fundamental. E antes de avanzar nalgunhas áreas que poden xerar maior risco, debemos garantir que desenvolvemos sistemas adecuados paira o control da intelixencia artificial, a ciberseguridad, os mecanismos de extinción adecuados, etc. Tamén temos que avanzar na asignación de responsabilidades. A quen debemos imputar as responsabilidades polos danos causados polas intelixencias artificiais? Por último, determinados usos da intelixencia artificial, como a vixilancia constante, o coñecemento facial na rúa e nas escolas, o uso de armas autónomas, a explotación das tendencias e debilidades humanas, etc. Podemos aceptar como sociedade os usos maliciosos que se realizan con intelixencia artificial? Temos que pensar enseguida que futuro queremos construír e empezar a actuar en consecuencia.

Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia