
La delegació territorial de Lleida del Col·legi de Psicologia de Catalunya (COPC) ha acollit el II Congrés professional intergrupal sota el títol “Reptes de la intel·ligència artificial: entre emocions i algoritmes”. En el marc d’aquest esdeveniment, que va celebrar fins al 29 de novembre a la sala de videoconferències de la Universitat de Lleida, s’ha posat el focus en l’impacte i els riscos de la intel·ligència artificial (IA) en camps com la neuropsicologia, la mediació, l’educació o la psicologia clínica.
Jordi Ascensi va ser l’encarregat d’oferir la conferència inaugural, on va fer èmfasi en el paper de la IA en temes emocionals i de salut. L’enginyer en telecomunicacions, que també forma part del grup d’ètica de la IA de la UNESCO, va ser categòric: ”No podem deixar en mans d’una màquina aspectes tan importants com la salut emocional”. Va recordar que l’IA, malgrat el seu abast, ”és una màquina que ha de ser supervisada i no es pot deixar a les seves mans tema tan important com la salut mental”.
Dades alarmants sobre l’ús de la IA en crisi
Durant la jornada es van fer públiques diverses dades que il·lustren la preocupació sobre l’ús d’aquestes eines. Es va esmentar que ”Un total de 1,2 milions de persones als EUA han utilitzat una eina d’IA amb patrons que indiquen situacions de suïcidi. Fa tres mesos una persona es va suicidar sota acompanyament de ChatGPT” i que ”El 45% dels joves espanyols utilitzen ChatGPT com a psicòleg”. Aquestes xifres van servir per reforçar la crida a la prudència.
Ascensi va detallar la naturalesa intrínseca de la IA, explicant que ”fa veure que té cognició però és una il·lusió”. Va puntualitzar que el sistema ”ofereix resultats basats en probabilitats, però no té la capacitat d’empatitzar ni de captar matisos humans que passen pel cos, la IA no pot entendre sensacions, perquè no té corporalitat”. Per tant, el criteri professional humà és ”imprescindible perquè l’eina no té informació cultural o sensorial. Hem de pensar la IA com una màquina que ha de ser supervisada”.
A més, el conferenciant va alertar sobre interessos subjacents: ”cal tenir en compte que la màquina sempre respon perquè al darrere hi ha interessos comercials i simula reaccions humanes, però no sent, perquè és una màquina”. Un altre punt feble destacat és que l’eina ”sempre dona la raó a l’usuari, sigui quina sigui la tesitura que li pregunta” i que ”la IA utilitza dades que introdueix l’usuari que es desconeix on van a parar”.
Perspectives futures i reptes legislatius
Respecte al futur, Ascensi va indicar que ”es preveu que s’ampliï l’ús de la IA per tal d’automatitzar molts processos i per tant la IA estarà present en molts àmbits de la societat”. En aquest context d’expansió, també es va fer referència als ”neurodrets” en relació amb l’ús de la IA per a determinar patrons cognitius i emocionals de les persones mitjançant sensors.
Quant a la regulació, es va destacar que la Unió Europea compta amb la “Llei d’intel·ligència Artificial”, en vigor des de l’agost d’enguany i connectada amb el Reglament general de protecció de dades i la Llei de serveis digitals. Aquesta legislació regeix totes les empreses que presten serveis a Europa. Tot i la claredat legal, es va assenyalar que la seva aplicació pràctica és ”encara poc clara” i que ”Tampoc estan validades encara moltes APP d’IA que ja són al mercat”.
El programa del congrés, organitzat per diversos grups de treball de la delegació de Lleida (GT de Neuropsicologia Lleida-Pirineus, GT d’Intervenció psicològica en casos de mort no natural, GT Psicoanàlisi Angelina Fondevila, entre d’altres), també va comptar amb la ponència de clausura a càrrec del doctor en filosofia Ramon Camats, que va reflexionar sobre els límits ètics i humans de la intel·ligència artificial.

