GPT-3 transformerraren alde iluna

2021/03/11 Roa Zubia, Guillermo - Elhuyar Zientzia

Adimen artifizialaren esparruan, azkenaldian, aspaldiko ideia bat betetzen ari da. XX mendeko zientzia fikzioak sarritan proposatu izan du makinak lan kreatiboak egitera iritsiko zirela. Deitu robot, deitu ordenagailu…  nahi duzuna. Makina bat gaur egun bada gai literatura idazteko edo musika konposatzeko, esate baterako.
Arg. Flicr

Adimen artifizialaren iraultza batean bizi gara, konturatu ala ez. Eta horregatik, ezinbestekoa da adimen artifizialaren funtzionamenduaz eta onuraz hitz egitea (adibide garbia da neurona-sareen bitarteko itzulpen automatikoa). Baina onurak aipatzen diren bezala, arriskuak ere aipatu behar dira. 


Adimen artifizialaren esparruan, azkenaldian, aspaldiko ideia bat betetzen ari da. XX mendeko zientzia fikzioak sarritan proposatu izan du makinak lan kreatiboak egitera iritsiko zirela. Deitu robot, deitu ordenagailu…  nahi duzuna. Makina bat gaur egun bada gai literatura idazteko edo musika konposatzeko, esate baterako. Hobeto edo okerrago. Baina gai da, nolabait esanda, kreatibo izateko. “Makina bat ez da adimenduna” esan zioten behin Isaac Asimov idazleari “ez baita gai sinfonia bat idazteko”. Eta Asimovek galdetu zuen bueltan “Zu zeu ba al zara gai sinfonia bat idazteko?”. 


Kontua da, gaur egun, adimen artifizialak gero eta hobeto egiten dituela gauza horiek. Adibide deigarri bat GPT-3 programa da. Idatzi egiten du. Eta ondo; oso ondo. Literatura egiten du, eta seguru asko ez zu ez ni, ez gara gai gizaki batek eta GPT-3k egindako literatura bereizteko. 


Hala ere, ez da perfektua. Ahulguneak ditu idazkeran. GPT-3 egin duen OpenAI konpainiako buruak berak esaten du hori. Noizean behin akats txoroak egiten ditu (eta zeinek ez!). Nolanahi ere, harrigarria da nola idazten duen GPT-3k. 

Ideia da programa trebatu egin dutela (egia esan, GPT-3ren algoritmoa sekretua da, baina oinarrizko funtzionamendu ohikoa du). Trebatuta dago, testu bat osatu ahala, nolabait esateko, topatuko duen hurrengo hitza zein den asmatzeko. Horrela estiloak imitatzen ikasten du. 2017an, Trasformer izeneko teknika bat asmatu zuten informatikariek ikasketa horretan eraginkortasuna handitzeko. Prozesadore bat baino gehiago erabiltzen dute paraleloan azkartasuna handitzeko (egia esan, hori baino konplikatuagoa da). GPT izenak, gutxi gorabehera, “Aldez aurretik trebatutako Transformer generatzailea-3” esan nahi du (ingelesetik, Generative Pretrained Transformer) eta GTP-3 hirugarren bertsioa da. 


Non dago arriskua? Bada, haren arriskua adimen artifizialak ia edozein esparrutan duen arrisku bera da. Trebatuta baldin badago jatorrian oso egokiak ez diren testuekin (adibidez, testu arrazistekin), GPT-3k ere horrelako testuak sortzeko joera izango du. Orduan, argi dago begiratu behar dela zer testurekin trebatzen den; bai, baina programa ona izateko milaka milioi testu erabili behar ditu trebakuntzan, eta ezin dira denak gainbegiratu aldez aurretik. Beraz, “irensten” duen guztiaren onurak eta kalteak hartuko eta barneratuko ditu. Beraz, programatzaileek moduak bilatu behar dituzte ikasketa hori neurri batean etikoki bideratzeko. Eta hori ez da erraza. Erronka handi bat da informatikarientzat. 




Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia