Experts insten Europa a prohibir la IA en la classificació d'individus i regular la vigilància massiva

Europa Press | 26 jun, 2019 19:51

MADRID, 26 (Portaltic/EP)

La Intel·ligència Artificial (IA), si no és de fiar, pot provocar impactes adversos en els individus, la societat i el medi ambient, com adverteix el grup d'experts de la Comissió Europea, que insta a prohibir l'ocupació d'aquesta tecnologia en la classificació d'individus i la seva regulació en la vigilància massiva.

"Europa està entrant en la tercera onada de la digitalització", com adverteix l'últim conjunt de recomanacions del grup d'alt nivell d'experts en Intel·ligència Artificial de la Comissió Europea. Una tercera onada en la qual adquireix protagonisme la IA i l'adopció de la qual s'estima que pot impulsar el creixement de l'activitat econòmica europea entorn del 20 per cent per 2030.

La IA es pot desplegar "tant de manera que incrementi el benestar humà com que porti al seu potencial dany", com recull l'informe. "Mentre crea una gran oportunitat per a Europa, també implica certs riscos sobre els quals els legisladors són cada vegada més conscients".

Per això, des d'aquest grup advoquen pel desenvolupament d'una IA ètica, de confiança i que tingui l'ésser humà en el centre del seu desenvolupament. Característiques que xoquen amb l'ocupació d'aquesta tecnologia en la categorització de les persones i la vigilància massiva.

Amb l'objectiu de salvaguardar "els drets fonamentals" dels serveis públics basats en IA i de "protegir les infraestructures societales", el grup insta a seguir les 'directrius ètiques per una IA confiable', presentades davant la Comissió el passat mes d'abril.

En concret, insten a prohibir la classificació massiva dels individus basada en IA i establir "regles clares i estrictes" per a la vigilància amb motiu de la seguretat nacional i d'altres interessos nacionals. I assegurar que no s'empra per "suprimir o soscavar l'oposició (política) ni els processos democràtics".

Els sistemes d'Intel·ligència Artificial poden provocar discriminació o biaixos injusts, violacions de la privadesa, exclusió social o econòmica o fins i tot degradació mediambiental.

Una manera de limitar l'impacte negatiu de la IA en les societats passa per evitar la vigilància massiva i "desproporcionada" de les persones. Els sistemes d'intel·ligència artificial que es despleguin per garantir la seguretat han de ser "respectuosos amb la llei i amb els drets fonamentals" i estar alineats amb principis ètics.

El grup adverteix també en el seu informe sobre la vigilància dels consumidors amb finalitats comercials, especialment "pel que fa a serveis gratuïts", pel que aconsellen la consideració de models alternatius de negoci.

contador