Opinió

Tribuna

Instint de supervivència

“Mirant enrere, de vegades sembla que han encertat més en la prospectiva del futur novel·listes com ara Jules Verne que grans institucions acadèmiques
“Els experts no fan una descripció coincident sobre tot el que pot fer la intel·ligència artificial i encara menys sobre el seu potencial

Segueixo donant vol­tes a la neces­si­tat de reco­llir en algun lloc totes les pre­dic­ci­ons falli­des per aju­dar-nos a rela­ti­vit­zar l’apa­rent infal·libi­li­tat dels antics i els nous pro­fe­tes. Seria com una mena d’obser­va­tori –sí, un més; però aquest aju­da­ria a veure els que no fan falta– que ens recordés totes les cri­sis que no s’han esde­vin­gut, les andròmines que no han domi­nat el món o els pla­ne­tes que no hem habi­tat. Mirant enrere, de vega­des sem­bla que han encer­tat més en la pros­pec­tiva del futur novel·lis­tes com ara Jules Verne que grans ins­ti­tu­ci­ons acadèmiques. L’objec­tiu d’aquest cen­tre de memòria no seria l’escarni o la mofa, ni bus­ca­ria desa­cre­di­tar els que hon­ra­da­ment van com­par­tir els seus conei­xe­ments i es van aven­tu­rar a donar-los una pro­jecció en el temps. No. Tan sols mira­ria de posar en comú una màxima cons­truc­tiva que asse­gura que s’aprèn més dels erros que dels encerts.

Mirant enrere pot­ser des­co­briríem que no tots els augu­ris van estar sem­pre exempts d’intenció, ja sigui per pre­ju­di­cis o per interes­sos. I tenir-ne més consciència ens per­me­tria recu­pe­rar un cert con­trol sobre el nos­tre propi futur i no estar sot­me­sos a la tira­nia del qui té la capa­ci­tat d’uti­lit­zar les nos­tres il·lusi­ons i els nos­tres temors per res­ta­blir una mena de tira­nia emo­ci­o­nal. Els últims segles, i molt més els últims anys, els grans can­vis soci­als han vin­gut impul­sats per l’evo­lució de la tec­no­lo­gia. Una advertència: no tot el que s’ha inven­tat ha estat econòmica­ment i indus­tri­al­ment via­ble ni soci­al­ment accep­tat. I una cons­ta­tació: en molts casos les trans­for­ma­ci­ons que ha pro­vo­cat la tec­no­lo­gia no s’havien pre­vist. En un moment de des­con­cert com l’actual, l’última pre­o­cu­pació que ha sal­tat als titu­lars dels dia­ris afecta, i no és poca cosa, el fet de si el desen­vo­lu­pa­ment de l’ano­me­nada intel·ligència arti­fi­cial posa en risc el nos­tre futur com a espècie.

Els experts no fan una des­cripció coin­ci­dent sobre tot el que pot fer la IA i encara menys sobre el seu poten­cial. Els pri­mers tre­balls sobre intel·ligència arti­fi­cial són de la pri­mera mei­tat del segle pas­sat. Un salt sig­ni­fi­ca­tiu es pro­du­eix a finals del s. XX amb l’incre­ment de la capa­ci­tat de pro­ces­sar dades, i un altre més gran –en la mateixa línia–, a prin­ci­pis d’aquest segle vin­cu­lat amb la com­pu­ta­dora cog­ni­tiva Wat­son d’IBM. És fàcil tro­bar entre­vis­tes i decla­ra­ci­ons dels inves­ti­ga­dors que tre­ba­lla­ven en IA en aquells moments afir­mant que neces­sitàvem la nova tec­no­lo­gia per sobre­viure. Avui la veu que res­sona a tot el món és la d’un dels pio­ners de la IA, Geof­frey Hin­ton, després que ha dei­xat Goo­gle per poder par­lar amb més lli­ber­tat –ha dit ell mateix– sobre els ris­cos que genera la mala uti­lit­zació de la intel·ligència arti­fi­cial. Hin­ton asse­gura que ben aviat no podrem saber què és veri­tat i que no tri­ga­rem gaire a crear màqui­nes que seran més intel·ligents que les per­so­nes. Mesos abans, l’influ­ent Was­hing­ton Post va publi­car un arti­cle en el qual con­si­de­rava que no era necessària no tan sols la mala fe i que ens estàvem acos­tant a la pos­si­bi­li­tat que un acci­dent fes des­a­parèixer la huma­ni­tat.

Els temors apo­calíptics són tan antics com la mateixa huma­ni­tat. Tenen un com­po­nent antro­pològic. La por és un meca­nisme vital que activa l’ins­tint de super­vivència. L’un i l’altre s’expres­sen en dife­rents indi­vi­dus sense que hi hagi una relació directa amb el seu nivell d’intel·ligència. For­men una rea­li­tat ins­tin­tiva. I els ins­tints no tenen una dimensió tec­nològica. No és un plan­te­ja­ment teòric allu­nyat de l’experiència: quants pares, en mirar els seus fills, pen­sen que se’n sor­tirà millor el més espa­vi­lat que el més intel·ligent.

I la veri­tat? Resulta espe­rançador que en el punt més àlgid del rela­ti­visme algú es pre­o­cupi per la veri­tat. La publi­cació de foto­gra­fies que no reflec­tei­xen res que mai hagi pas­sat, que han estat cre­a­des amb intel·ligència arti­fi­cial, és el que ha permès a molta gent tenir una per­cepció directa dels ris­cos que genera la nova tec­no­lo­gia. Però si el dubte sobre la vera­ci­tat d’una imatge ens portés a estar més pen­dents de la cre­di­bi­li­tat del que l’ha cap­tat o del que la difon, hauríem fet un pas molt impor­tant cap a la cor­res­pon­sa­bi­li­tat de tots. El que ens posa en risc indi­vi­du­al­ment i col·lec­ti­va­ment és renun­ciar-hi. Sem­pre hi ha hagut qui no ha vol­gut escol­tar fets certs i men­ti­des amb massa públic dis­po­sat a creure-les. Cal espa­vi­lar-se, que és una reacció pròpia­ment humana.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.
[X]

Aquest és el primer article gratuït d'aquest mes

Ja ets subscriptor?

Fes-te subscriptor per només 48€ per un any (4 €/mes)

Compra un passi per només 1€ al dia