La inteligencia artificial en Europa

Con el borrador del Libro Blanco sobre Inteligencia Artificial y el desarrollo en Europa, la Comisión Europea refleja sus preocupaciones, no solo en el desarrollo de esta nueva tecnología y las consecuencias que pueda conllevar, si no, en el convertirse en uno de los grandes competidores del sector junto con China y Estados Unidos.

Atendiendo a las cifras de 2016 Europa realizó una inversión de 3,2 billones de euros, frente a Norte América que fue de 12,1 billones de euros y Asia con 6,5 billones de euros. Esto quiere decir que para poder ser considerado como uno de los líderes de esta tecnología deberá incrementarse la inversión en el sector.

La Inteligencia Artificial cobra importancia al presentarse como una posibilidad la toma de decisiones de forma más ágil a través de la creación de patrones de los datos recogidos, sin embargo, debe tomarse como riesgo que esas decisiones sean consideradas inapropiadas o que se desconozca el raciocinio del software que ha llevado a ellas. Todo ello se encuentra relacionado con la responsabilidad, la discriminación y la transferencia, factores que deben encontrarse regulados a través de normativa antes de impulsar el desarrollo de esta nueva tecnología.

Los retos y oportunidades que surjan, además, deberán cumplir con lo recogido en el RGPD sobre la protección de datos personales y el flujo de los mismo, y combinarse con otras opciones tecnológicas como el IoT (Internet of Things) y Cloud Computing.

Esto nos lleva a concretar y sintetizar los problemas a los que se expone Europa:

  • Riesgo en la violación de derechos fundamentales; discriminación, privacidad y protección de datos.
  • Seguridad y responsabilidad de los riesgos, no quedando los riesgos limitados únicamente al acto llevado a cabo a través de Inteligencia Artificial.

Para aminorar los riesgos la Comisión propone algunas medidas:

  • Creación de un sistema de etiquetado voluntario para desarrolladores y usuarios basado en la ética y confianza.
  • En Administraciones públicas limitar el uso a través de un instrumento regulador que únicamente afectase a estos sistemas.
  • La prohibición del reconocimiento facial en espacios público por un tiempo limitado (entre 3 y 5 años), que permita identificar y desarrollar los posibles riesgos e impactos.
  • El cumplimiento de requisitos obligatorios en el caso de inteligencia artificial con un alto riesgo, considerando como alto riesgo: que se considere el sector como tal (a partir de una lista) y que se considere como tal según su propia definición.
  • Una normativa que aminore riesgos como: ciberataques, riesgos en la seguridad personal, privacidad o protección de datos personales. E incluso que determine la responsabilidad de los desarrolladores del sistema y del fabricante del producto que usa inteligencia artificial.

En definitiva, y con todas estas dudas presentes,no podremos aclarar qué camino se seguirá en Europa hasta la publicación oficial del Libro Blanco.

#helas, #RGPD, #ciberseguridad, #inteligenciaartificial, #privacidad, #privacy

 

Patricia Guirao Melero

Consultor de Helas Consultores