Europa dice no a la biometría en espacios públicos

In julio 13, 2021
On Blog
Comments off
46 Views

El pasado mes de febrero supimos que la justicia española, en concreto la Audiencia Provincial de Barcelona, había rechazado el controvertido sistema de reconocimiento facial que Mercadona tenía intención de implementar en sus supermercados para detectar personas con orden de alejamiento que quisieran acceder a sus instalaciones. La Audiencia Provincial ha entendido que el sistema vulnera «las garantías adecuadas en orden a la protección de los derechos y libertades de los interesados, no ya sólo de los que han sido penados y cuya prohibición de acceso les incumbe, sino del resto de personas que acceden al citado supermercado». Los jueces han cuestionado, además, la proveniencia de las imágenes de la base de datos para el reconocimiento facial, así como la legitimación para su tratamiento, que no podría ser otro que el consentimiento.

Recientemente la Comisión Europea presentó una propuesta para regular de manera armonizada la inteligencia artificial a la que el Comité y el Supervisor Europeos de Protección de Datos han dado su opinión conjunta.

La Comisión Europea propone que los sistemas biométricos tengan la consideración de Inteligencia Artificial de “alto riesgo” y que tengan normativa propia; sin embargo, el Comité y el Supervisor van más allá, solicitando la aplicación del “principio de precaución” y, por tanto, la prohibición, en términos generales, del uso de la Inteligencia Artificial para el reconocimiento automático de rasgos humanos en la vía pública. Ambas instituciones consideran que la identificación biométrica en espacios públicos implicaría el fin del anonimato en esos lugares, con la consiguiente vulneración de los derechos y libertades fundamentales de las personas. 

Del mismo modo, abogan por la prohibición de usar sistemas biométricos para clasificación de personas por origen étnico, género, orientación política o sexual o cualquier otro criterio que vulnere del artículo 21 de la Carta de Derechos Fundamentales. 

Respecto al uso de la Inteligencia Artificial para inferir emociones de una persona, éste debería limitarse a casos muy limitados como, por ejemplo, para fines terapéuticos, donde el reconocimiento de las emociones del paciente es importante.

La Comisión Europea considera que “una inteligencia artificial de confianza puede aportar muchos beneficios: desde una mejor atención sanitaria, un transporte más seguro y limpio y una fabricación más eficiente hasta una energía más barata y sostenible” y por ello aboga por una regulación específica.

 

#helas #rgpd #law #data #privacy #legaltech #protecciondatos

 

Natalia Antón Carabias

Consultor de Helas Consultores

       

 

Comments are closed.

Suscríbete a nuestro Boletín

HELAS CONSULTORES, S.L. con NIF: B-83017780; Calle Magallanes, 24, 1º-A, C.P. 28015, Madrid como Responsable del Tratamiento tratará sus datos personales con la finalidad de gestionar la suscripción a la newsletter de la página web.
Puede ejercitar sus derechos y retirar su consentimiento mediante el envío de un mensaje de correo electrónico a info@helasconsultores.com, así como a reclamar ante la Autoridad de Control (Agencia Española de Protección de Datos: www.aepd.es).
Con el envío de sus datos personales acepta el tratamiento de dato, para más información le recomendamos que lea nuestra Política de Privacidad.
Consultoría de Protección de Datos y Servicios de Compliance
  • C/MAGALLANES 24, 1º A. 28015 MADRID
  • 91 444 00 03