Ciència

Helena Matute

Catedràtica de Psicologia Experimental de la Universitat de Deusto

“Encara desconeixem quin és l’algoritme d’aprenentatge humà”

“Fèiem aprenentatge artificial jugant al mus. Som de Bilbao. I quan arribàvem als órdagos era impossible per a la màquina”

“La intel·ligència artificial general no la concebo necessàriament com una cosa que ve a arrasar la humanitat”

Veig més a prop l’AGI, capaç de solucionar problemes en àmbits molt variats i amb una potència enorme
Les IA ja ens estan influint en la presa de decisions. Els joves són massa confiats. Els grans desconfiem
La meva reacció fa deu anys, sense ChatGPT, va ser de por. Mai vaig pensar que arribaríem tan lluny
Hi ha gent que vol flexibilitzar la regulació europea de la IA i jo la faria encara més forta
És clar que les màquines imiten. Precisament és un risc gran que sembli que raonen
Quina IA volem? La pregunta fonamental és què volem? Fem que sigui beneficiosa per a les persones

Helena Matute Greño (Bilbao, 1960) és psicòloga, catedràtica de psicologia experimental de la Universitat de Deusto, on dirigeix el Laboratori de Psicologia Experimental; membre de Jakiunde, l’acadèmia de Ciències, Arts i Lletres del País Basc, i també de l’Acadèmia de Psicologia d’Espanya. Va estudiar i investigar a Bèlgica, Austràlia i els Estats Units. Recentment ha participat en la presentació a la Universitat de Barcelona del llibre del doctor Juli Ponce El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, el derecho a una buena administración digital y su control judicial en España, que ha prologat ella mateixa.

És de les primeres psicòlogues que treballa la psicologia vinculada a les noves tecnologies?
A la meva àrea hi ha molt poca gent. En altres àrees hi ha més psicòlegs pel tema del bullying a les xarxes socials, com afecta els adolescents o problemes psicològics en relació amb internet. En la meva especialitat hi ha pocs psicòlegs, sí.
La seva especialitat és la psicologia i la intel·ligència artificial?
Més aviat diria que la meva especialitat és la funcionalitat cognitiva, el funcionament de la ment humana, els biaixos cognitius, la presa de decisions, tot aquest tipus de coses. M’he centrat al llarg dels anys en el biaix que anomenem la il·lusió de causa-efecte, que és molt comú i genera molts problemes. I l’altre gran tema, que la veritat és que hi està molt relacionat, és com afecta la intel·ligència artificial i les noves tecnologies en general en processos cognitius com per exemple la presa de decisions.
Anteriorment havia estudiat altres aspectes?
Sí, anteriorment havia estudiat teories de l’aprenentatge. Bona part del meu treball en psicologia va vinculat a l’aprenentatge, com aprenem les persones i els animals. Als anys noranta vam començar a estudiar també l’aprenentatge de les màquines, amb simulacions de processos d’aprenentatge natural a les màquines.
La humanitat i l’avanç de la tecnologia l’han posat davant de la millor situació. Amb l’impacte de la IA, està davant del gran moment?
La veritat és que sí, i és al·lucinant. Per una banda és apassionant tot el que està passant, i per una altra em fa força por. És veritat que, quan vaig començar amb l’aprenentatge humà i la intel·ligència artificial, el que em va resultar més interessant aleshores, l’any 1990 o 1991, era aconseguir desenvolupar una teoria de l’aprenentatge natural suficientment bona que pogués ser escrita en llenguatge d’ordinador i que una màquina pogués aprendre. Estàvem en tot el tema de les xarxes neuronals d’aquella època. Estaven de moda els sistemes experts, però nosaltres dèiem que no tenia res a veure amb el sistema d’aprenentatge natural. El nostre interès era, sobretot, que el que aconseguíssim fer en aprenentatge artificial tingués una base en el natural. Érem conscients que si ho fèiem així hi hauria biaixos i errors en les màquines. Per tant, la gent ens deia: “Això no val per a res perquè l’empresa vol un sistema que funcioni bé. I el que voleu fer vosaltres tindrà errors i biaixos.” Vam estar uns anys i, efectivament, ens vam adonar que no aniríem gaire lluny. A finals dels noranta jo me’n vaig despenjar perquè em vaig adonar que no sabia prou de la psicologia humana i animal per estar intentant aplicar-ho a la màquina. Vaig pensar que en el futur em tornaria a posar en la intel·ligència artificial, i de sobte ara som aquí, novament.
Però per què diu que havia d’aprendre més de l’humà?
Perquè les teories que hi havia de l’aprenentatge humà eren encara molt limitades. Encara ho segueixen sent. No sabem prou bé com aprenem els humans, quin és l’algoritme d’aprenentatge humà. Seguim sense conèixer-lo bé. Aleshores vam aconseguir fer coses d’aprenentatge artificial, com una màquina que jugava al mus. La gent estava amb els escacs i nosaltres, que som de Bilbao, amb el mus. Quan arribàvem als órdagos, era impossible. Deixàvem la màquina tota la nit jugant i quan l’endemà arribàvem al laboratori la guanyàvem un altre cop. Per tant, amb el mus i l’intent d’imitar l’aprenentatge humà, estàvem molt lluny, i vam començar a centrar-nos en l’aprenentatge animal. Aquí sí que vam fer uns experiments interessants d’un sistema artificial que simulava prou bé l’aprenentatge en coloms i vam aconseguir avançar força. Però les teories de l’aprenentatge animal també tenien les seves limitacions. I vam dir: “Per què no fem primer els experiments propis de la psicologia i ja tornarem a això quan tinguem més clares les teories connexionistes o les simbòliques?” Va arribar un moment que estàvem intentant fer un mix, híbrid, entre simbòlico-connexionistes. Ens vam adonar que encara hi havia molta feina per fer en psicologia abans d’aplicar-ho. Per això me’n vaig desvincular, perquè no ho atrapava tot.
Està parlant de finals dels noranta?
Sí, són publicacions d’entre el 1990 i el 1998.
Aquests darrers 25 anys com ha vist l’evolució tan bestial de la tecnologia, sobretot la intel·ligència artificial?
Fa deu anys m’hi vaig tornar a posar i et diria que la meva principal reacció aleshores, que és molt abans de ChatGPT, va ser de por. Havent-ho vist des del principi, mai havia pensat que fos possible arribar tan lluny. Em vaig adonar de les enormes possibilitats que hi ha en aquest moment. Aleshores, és clar, fa deu anys vaig tornar a fer conferències i la gent em deia: “Tu és que tens por, tu és que no coneixes...” I m’ho deien els enginyers. Però altres enginyers em deien: “Escolta, que tens molta raó, però el que passa és que nosaltres no ens atrevim a dir-ho.” Hi havia les dues coses.
Ara segueix tenint por?
Sí, sí. Potser més, encara. El que es pot fer és apassionant. També m’adono que quan jo estava en aquell món –perquè jo ara no estic fent IA sinó investigant com afecta els humans–, als anys noranta, fent un sistema capaç d’aprendre d’un joc de mus, en cap moment em vaig plantejar cap tipus de risc. Per tant, des d’aquest punt de vista, entenc també els enginyers que, fins i tot avui, no es plantegen el possible risc. Em semblava impensable, no ens ho pensàvem. Ara ja els possibles riscos es veuen a pertot, no? Els últims 10 o 13 anys, fent xerrades sobre això, la gent em deia: “Això està molt lluny de l’aprenentatge humà, això queda molt lluny de la consciència”, i jo pensava que a mi això tant me feia, que a mi el que m’importa és com pot afectar els humans. Que no hi ha consciència? I quin és el problema? La consciència m’interessa molt com a problema teòric, però no si parlem dels riscos, que aleshores és un factor molt menor. El mal te’l pot fer simplement perquè és molt més potent que tu.
Li fa més por l’arribada d’una intel·ligència artificial general o com les aplicacions d’IA poden afectar l’aprenentatge de les persones, l’ensenyament o les relacions humanes?
En la presa de decisions...
Fins i tot que la gent consulti als bots de conversa temes íntims, de psicologia.
Em fan molta por les dues coses, però la intel·ligència artificial general, l’AGI, no la concebo necessàriament com una cosa que ve a arrasar la humanitat. Entenc que no forma part dels plans de ningú, oi? Ni tan sols de la mateixa AGI. El que penso és que l’AGI se’ns pot escapar de les mans, i no considero que calgui que tingui consciència, perquè hi ha gent que parla de l’AGI associant-ho a consciència. Jo la veig més a prop, com una cosa que és capaç de solucionar problemes en àmbits molt variats i amb una potència enorme. La veritat és que no necessitem per a res crear això. En aquest moment hi ha una cursa boja de grans corporacions per aconseguir una intel·ligència artificial general, però per a què necessita això la humanitat si l’únic que pot portar són problemes? Estàs donant capacitat de decisió, no amb intencionalitat ni consciència, sinó a l’hora de prendre un camí o un altre per arribar a un fita, a una màquina que encara no està alineada amb els valors ni amb els interessos humans. No té encara prou mesures de seguretat. Llavors, des d’aquest punt de vista, em fa molta por aquesta AGI, sense necessitat que arribem a un Terminator.
I sobre les eines d’IA?
Òbviament això té molt més sentit perseguir-ho des del punt de vista humà, perquè podem crear coses francament útils per a la indústria, la medicina..., per a tot! Ho veig molt útil i molt interessant, però ha d’estar tremendament regulat perquè pot fer-nos molt mal. Sobretot quan parlem d’IA que es relacionen amb les persones. Perquè si parlem de posar IA per automatitzar tasques en una fàbrica, l’únic que diria és que vigilem la pèrdua de llocs de treball. Però ja si es relaciona amb les persones, sí que hem d’anar amb molt de compte, perquè hi ha moltes coses. Les IA ja ens influeixen en la presa de decisions. Si entres a Amazon a comprar un llibre, l’algoritme ja et fa una recomanació, de manera que està determinant les teves lectures i la teva forma de pensar. És un exemple, però afegeix-hi les notícies que llegim, els mitjans..., és tot, és una influència molt gran en les decisions humanes.
Quins segments de població tem que rebin més aquest impacte, els joves o els grans, que tenen un aprenentatge analògic i no han conegut la societat algorítmica?
No m’ho havia plantejat, la veritat. Els joves són més confiats amb la IA, els estudiants no saben i fan moltes preguntes. Ells saben usar les aplicacions sense plantejar-se res més enllà. De sobte és com si els trenques esquemes. Però, en principi, si no els trenques els esquemes, són massa confiats. Els més grans som més desconfiats perquè veiem molts cops el que estan fent les grans corporacions per darrere i som més conscients dels altres interessos que hi pugui haver. Totes les eines d’IA, la veritat, crec que les hem de regular superbé. Hi ha gent que vol flexibilitzar la regulació europea i jo la faria més forta encara.
Dels últims models de llenguatge i bots de conversa ja estem assumint el concepte potser de màrqueting que són “raonadores”. Ja no et donen una resposta sinó que t’expliquen com hi arriben i sembla que pensin. Algunes empreses diuen que els bots de conversa tenen “consciència” o “sentiment”. Quan s’associen aquests conceptes a les màquines, què pensa?
Crec que és pur màrqueting, què vols que et digui. Raonament i consciència... No sé què passarà d’aquí a cinc anys. Tot això va massa de pressa. Nosaltres estàvem fent aprenentatge artificial i ens vam adonar que l’aprenentatge humà estava molt lluny, doncs et diria que avui hi ha moltes teories d’aprenentatge humà. Sabem avui molt més que aleshores, però encara hi ha molta discussió en psicologia. És clar que les màquines imiten. Precisament és un risc que sembli que raona. Tots sabem que no raona, que està ajuntant paraules de la millor manera possible. El problema és que sembla molt convincent. És un risc enorme. Si tu li fas una pregunta d’un tema que domines, t’adones que fot una pila d’errades grosses. Si la pregunta l’hi fas d’un tema que no domines, et sembla molt convincent el que t’està dient. Hi ha molts riscos, des de com està canviant internet amb temes que es faciliten fets amb IA i que després llegirem les persones sense saber qui ho ha fet... També està influint en la ciència. Hi ha gent que ho està usant per fer articles científics que potser al revisor que ho ha vist li ha semblat convincent i ho ha deixat passar, i després arriba un altre científic i s’ho llegeix i no es pot mirar tot amb tanta lupa per detectar tots els errors. Tenim un problema molt gruixut: sembla que raonen.
Quina diferència hi ha entre parlar amb un bot de conversa que sembla que sap encara que sapiguem que no sap res i fer-ho a la barra del bar quan et prens el cafè amb gent que parla de tot i no sap de res?
[Riu.] Sí, és clar, però quan parlem amb els amics del bar ja sabem que cadascú expressa emocions i després et creus el que et vols creure. El problema amb la IA i els models de llenguatge és que fa la impressió que en saben. Les persones tendim a un biaix, que s’anomena biaix d’automatització, que atribuïm a la IA una sèrie de propietats que no té i objectivitat. Creiem que la IA no té biaixos i creiem que, en general, en sap més que les persones. Tendim a confondre-la amb els ordinadors d’abans. Les màquines, les calculadores, els ordinadors, eren: 2 i 2 igual a 4. No hi havia possibilitat d’error, i ens sembla que la IA és part d’aquesta màquina que no té possibilitat d’error. No som conscients encara que és una cosa absolutament diferent. Que hi haurà biaixos, al·lucinacions, errors, de tot. I la gent diu: “No, però millorarà.” Si el dia que de veritat millori no té errors serà perquè hem tornat a fer un ordinador que no té errors. És a dir, la intel·ligència artificial una de les seves principals característiques és que sigui flexible, adaptativa, que no necessiti disposar del 100% de les dades per poder-te donar una resposta. Per tant, la IA es pot inventar una resposta amb possibilitats d’encertar-la. Necessitem saber quin és aquest percentatge de risc.
Recomana que la gent no s’apropi a la IA? Que s’apropi amb prevenció? O que qui s’ho pot permetre hi vagi a cegues?
Crec que cal apropar-s’hi però amb molta prevenció. Caldria fer unes campanyes enormes de sensibilització, educació o culturització, diguem-ne com vulguem, mostrant a la gent els pros i contres. Aquestes grans empreses, aquestes corporacions, ens han ficat... A mi la manera com van llançar ChatGPT a la societat sense haver informat d’absolutament res... i ja al cap de poc temps vam veure a les notícies el suïcidi d’un nen que estava parlant amb la màquina i li deia que el millor que podia fer era suïcidar-se; un altre que es divorcia pel mateix... Al principi hi va haver unes barbaritats. No es podia haver deixat anar així a la societat. El que passa és que a ells els interessava perquè deien: “Aquí la teniu, aneu-la entrenant, que ens interessa que l’entreneu.” I l’hem entrenada nosaltres.
L’estem alimentant nosaltres mateixos.
És clar, l’estem entrenant nosaltres. Per a l’empresa aquesta [OpenAI] és molt còmode. Et dona la versió gratuïta: “Aneu-la entrenant i ja l’anirem polint.” És una barbaritat. No s’hauria hagut d’haver fet així.
Ha estat investigadora a Bèlgica, Austràlia i els Estats Units. Quan parla amb els seus col·legues d’altres països, com els veu? Els que no són de la Unió Europea tenen una altra visió?
Crec que hi ha de tot, també als Estats Units, que pot ser un país molt més visca la Pepa en relació amb tot això. També allà hi ha gent molt conscienciada sobre les barbaritats que s’estan cometent amb la intel·ligència artificial. Hi ha molta gent que no en vol saber res, del que està passant. Però han de passar per l’adreçador més que nosaltres. “Quina sort teniu a Europa que esteu intentant protegir les persones”, diuen. Ja veurem si s’aconsegueix. Deixar la barra lliure a les quatre grans corporacions és una bogeria. Molts americans estan descontents amb això.
Li sap greu que Europa pugui retrocedir respecte a la legislació que s’havia aprovat?
Home, amb el que ha costat aconseguir-ho, és una pena.
La dicotomia està entre competitivitat i avenç o garantisme i aïllament? Sembla impossible una tercera via en què es pugui avançar i competir a la via europea d’intel·ligència artificial.
Jo no entenc de lleis ni d’empreses, entenc d’investigació psicològica. S’està parlant molt de garantisme i retrocés, però la pregunta és: retrocés en què? Si quan van començar els cotxes algú hagués dit que limitar la velocitat, obligar a aturar-se als estops i no poder pujar a les voreres era un retrocés perquè no es podia competir amb el salvatge Oest, doncs d’acord. Quin tipus d’IA volem? La pregunta fonamental és què volem? Volem una IA que sigui beneficiosa per a les persones? Doncs anem a fer que ho sigui. Volem que quatre grans empreses segueixin fent molts diners i aconsegueixin una intel·ligència artificial general, que és la gran batalla en aquest moment? Aleshores les persones sobrem. Entenc que, com es fa, és dificilíssim. Com aconsegueixes, d’altra banda, que empreses europees, més petites, puguin avançar? En què? Jo potser soc molt ingènua, però crec que la nostra lliga és diferent. Anem a fer alguna cosa útil per a les persones. A part de tota la IA que s’està fent per a benefici de quatre empreses dels Estats Units i la Xina, hi ha molta intel·ligència artificial que s’hauria de fer per al desenvolupament democràtic, per a sanitat, tantes coses en què és superimportant que encara que no puguis arribar al nivell 100 de les grans companyies potser arribes a un 80 però canalitzat cap al bé de les persones. Espero no ser ingènua. Seria molt bonic aconseguir el renaixement de la societat. Europa estaria molt al davant en aquesta lliga.
No sé si és afegir ingenuïtat a la conversa: per a països com Euskadi i Catalunya, amb llengües i cultures pròpies, la IA és una oportunitat?
Crec que sí, que és una gran oportunitat, perquè el tema lingüístic és un dels que més ben resolts estan actualment amb la IA. I els riscos són mínims. Òbviament, no et limitaràs a això, però si al que fas en col·laboració amb altres esforços europeus ben regulats i canalitzats li afegeixes el plus de la cultura i l’idioma, doncs fantàstic.
Algoritmes

Escriure a l’estiu

El seu últim llibre, Nuestra mente nos engaña: Sesgos y errores cognitivos que todos cometemos, és del 2019 i aquest estiu intentarà avançar en un de nou que està preparant sobre com ens influeix la IA. “Prendré com a punt de partida l’anterior, en què incideixo molt sobre els errors del pensament humà, el raonament i la presa de decisions”, explica la catedràtica. Matute ha seguit la ruptura entre Donald Trump i Elon Musk amb pànic. “Quan parlo d’influència en les decisions humanes em refereixo que darrere de Musk hi ha tots els seus algoritmes i la forma en què han enganxant a tanta gent. De la mateixa manera que et posen un president, te’l treuen”, comenta. Per aquest motiu creu que Trump depèn més de Musk. “El màxim que li pot passar a Musk és que perdi molts diners, però a la humanitat ens afectarà molt més el que passi amb Trump.” La catedràtica sosté que la influència algorítmica afecta a tothom: “No hi veig diferència entre l’afectació sobre Pedro Sánchez o Imanol Pradales o Salvador Illa. Els tres estan protegits per la legislació europea, amb la qual cosa reben menys impacte que Trump.” També recorda que a l’Estat el Defensor del Poble va frustrar l’intent dels partits de permetre els perfils per personalitzar les campanyes de publicitat.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.
[X]

Aquest és el primer article gratuït d'aquest mes

Ja ets subscriptor?

Fes-te subscriptor per només 48€ per un any (4 €/mes)

Compra un passi per només 1€ al dia