Cámaras de alta resolución instaladas en puntos estratéxicos e un programa informático na parte traseira capaz de recoñecer rostros captados en directo. O uso do recoñecemento facial por parte dos gobernos está a estenderse en Europa. Ata 32 países europeos usan ou probaron esta tecnoloxía. Atrae os gobernos e as empresas porque o ven como unha ferramenta para xestionar a seguridade, reducir a documentación e reducir a fraude.

 

 

O caso máis recente foi en Escocia, onde, en outubro, nove escolas do condado de North Ayrshire crearon un sistema de recoñecemento facial para que os estudantes pagasen a comida. Houbo que retiralo uns días despois porque as autoridades de protección de datos considerárono “desproporcionado”, como xa acontecera en Francia, Suecia ou Polonia.

O Parlamento Europeo está preocupado  polo progreso destes sistemas e instou á Comisión a regular de forma máis estrita unha tecnoloxía controvertida pola capacidade de recoller datos persoais e vulnerar a privacidade. Quere evitar escenarios de hipervixilancia como os de China, onde o goberno segue os pasos dos cidadáns.

Proxectos polémicos no noso país 

No verán, Mercadona tivo que paralizar un sistema de recoñecemento facial automático nos accesos a 48 supermercados de todo o Estado e aceptou pagar unha multa de 2,5 millóns de euros imposta pola Axencia Española de Protección de Datos. Instalouno en contra do ditame da Audiencia Provincial de Barcelona ao impedir a entrada de 37 ladróns habituais que tiñan unha condena que incluía a orde de afastalos destes establecementos.

Os especialistas en protección de datos consideran o caso un exemplo a estudar pola desproporción entre o obxectivo que se persegue e as persoas ás que se aplica. “Tecnicamente, isto significa que estaban a procesar os datos de todas as persoas do entorno destas cámaras sobre o acceso: clientes, distribuidores, traballadores, nenos, persoas que pasan e que finalmente non entran no establecemento, senón que son captadas pola cámara”, explica. Lorena Jaume-Palasí, investigadora en ética e intelixencia artificial da Ethical Tech Society e consultora do Parlamento Europeo e da Comisión Europea.

O problema é que esta tecnoloxía é tan invasiva como invisíbel, como sinala Genís Roca, consultor en transformación dixital: “están aplicando sistemas de intelixencia en tempo real para identificar fisicamente as persoas”.

“Cando ves unha cámara, non sabes se ten recoñecemento facial”.

Renfe tamén paralizou un controvertido proxecto de vixilancia de pasaxeiros en tempo real. Os obxectivos definidos no concurso incluían evitar aglomeracións polo Covid, que atraería viaxeiros, mais tamén elementos discriminatorios como detectar se o usuario era home ou muller, o seu estado de ánimo ou mesmo a súa etnia. Todo en nome da protección cidadá e no marco da loita contra o terrorismo.

Cámaras de vixilancia na rúa (Pexels)

Roca lembra que a  prevención da delincuencia non é un argumento válido para a ampla aplicación desta tecnoloxía: “Un sistema de recoñecemento facial, por precaución, non se pode aplicar indistintamente a todos os cidadáns”.

Unha das cuestións que preocupan, con todo, é a falta de transparencia, xa que actualmente non existe ningunha lei que regule esta tecnoloxía, senón que se consulta o Regulamento Xeral de Protección de Datos (RGPD) da Unión Europea, que non esixe a comunicación pública do seu uso ou as persoas que se verán afectadas por ela. Segundo Roca, hai que garantir un maior control sobre a aplicación destes sistemas: “Isto pódese saber, pódese consultar? Hai rexistro público? Está regulado? en que casos se pode utilizar ou non? Existen mecanismos para que os cidadáns, a sociedade civil, poidan auditar quen o utiliza e en que casos?

Unha tecnoloxía con erros e racismo

O Parlamento Europeo recoñece que estes sistemas de intelixencia artificial tenden a cometer erros con máis frecuencia cos grupos étnicos minoritarios e, por  iso, pediu a súa prohibición para o recoñecemento automatizado das persoas nos  públicos espazos. 

Lorena Jaume-Palasí lembra que nos Estados Unidos foron detidas moitas persoas inocentes por falsos positivos.

“O que hai que comprobar non é se unha tecnoloxía funciona ben o 90% das veces. Temos que preguntarnos que pasa co 10% restante”.

 

Prohibido onde naceu

 

De feito, nos Estados Unidos, a tecnoloxía está atrapada onde naceu, en Silicon Valley, California. Mentres nalgunhas cidades, como Nova York, hai máis de 15.000 cámaras que fan recoñecemento facial aos axentes de policía, en San Francisco foi prohibida xa que se consideraba unha vixilancia secreta da poboación.

Microsoft e Amazon tamén prohibiron á policía usar a súa tecnoloxía, despois de recoñecer que cometen erros e son racistas. E empresas como  Facebook deron marcha atrás no seu uso de etiquetar fotos  no medio da súa peor crise sobre o uso dos datos dos usuarios.

Polo momento, a biometría xera máis preguntas que respostas. “Pódense usar sen te avisar? Quizais isto está pasando e non o sabes? Por exemplo, vas a un banco para pedir un préstamo e preguntan: ‘Como vai todo?’, ‘Ben, ben’, e resulta que a partir dun recoñecemento facial deducen que é ‘malo, malo’ e por iso non che dan crédito. É correcto, facer isto? Hai moitas dúbidas”, conclúe Roca.

Fonte: ccma.cat