Opinió

Raça humana

Es pot equivocar, la màquina?

Una cosa positiva, sense cap mena de dubte, és que es posi al servei de la medicina per descobrir amb més eficàcia i rapidesa possibles atròfies cerebrals, pneumònies derivades de la Covid o càncers precoços. I una altra absolutament qüestionable és que Renfe la utilitzi per vigilar l’edat, el gènere, l’ètnia i l’estat d’ànim dels viatgers, com pretenia fer en 25 estacions de Madrid, Catalunya, el País Valencià, Euskadi i Andalusia. O que Mercadona implanti un mètode de reconeixement facial per detectar clients amb ordre d’allunyament (després d’una multa de l’Agència de Protecció de Dades, l’empresa ha posat fi a l’experiment). Ens referim a una de les tecnologies amb més capacitat d’expansió i futur, la intel·ligència artificial o el conjunt de dispositius informàtics programats per emular o superar alguns processos de la ment humana, un instrument que al costat de les avantatges apuntades a l’inici podria provocar també greus violacions dels drets humans, com assenyala un recent informe de l’ONU que reclama la paralització dels programes de reconeixement d’emocions, d’identificació biomètrica o de recollida massiva de dades personals fins que no s’asseguri l’absència de biaixos discriminatoris. L’advertència és important, ja que arreu els governs estan incorporant el sistema algorítmic en l’àmbit de la seguretat, la justícia o la concessió d’ajudes socials sense les degudes garanties i transparència. No es pot equivocar, la màquina? Més ben dit: estan exempts de prejudicis classistes, racistes o masclistes els que la nodreixen d’informació?



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.