open menu menú
Advocacia Barcelona
Personal area

×Personal area

COllegiate number or ICAB user / DNI / Email
forgot passowrd
×
Il·lustre Col·legi de l'Advocacia de Barcelona
professional search
Digital transformation | Digital Transformation Department

La flagrant vulneració dels drets humans mitjançant la biometria facial

Ruth Sala Ordóñez. Abogada
Fri Jun 12 00:00:00 CEST 2020

Desde que George Floyd murió en manos de un policía son muchas las empresas estadounidenses que tratan de dar respuesta contra la violencia policial y contra las olas de racismo que se producen por todo el país.

Esta semana hemos podido leer la noticia de que IBM abandonaba la comercialización de la tecnología de Inteligencia Artificial mediante biometría facial que ella misma había creado. Asimismo, Amazon informó que prohibía a la policía que utilizara durante un año su aplicación Rekognition por considerar que se utilizaba con objetivos poco éticos.

Lo más relevante de la noticia nos sitúa en una interrelación de conceptos: el concepto de la IA, la ética de su programación, la protección de los derechos fundamentales de los ciudadanos y la responsabilidad hacia su uso.

Desde un punto de vista estratégico, el año 2016 se publicó por los Estados Unidos, bajo la dirección de la Administración Obama, por el NSTC (Consejo Nacional de Ciencia y Tecnología) un Plan Estrategico de Investigación y Desarrollo de la IA, actualizado en 2019  y que centraba sus esfuerzos en las implicaciones éticas, legales y sociales de la IA.

El mismo año, en paralelo, se materializó, por el sector no gubernamental la fundación de la Asociación para la IA, que tenía como miembros fundadores: Amazon, Facebook, Google, DeepMind, Microsoft, e IBM, contando hoy en día con más de 100 organizaciones. Esta asociación tiene como fundamento seis pilares básicos entre los que se encuentra la seguridad, la transparencia, la responsabilidad y la minimización del impacto social y laboral de la IA, entre otros.

También, desde un ámbito público, la OCDE (Organización para la Cooperación y el Desarrollo Económico) de la que Estados Unidos es miembro desde el 21 de abril de 1961, aprobó el 22 de mayo de 2019 un Acuerdo sobre las directrices políticas intergubernamentales sobre la IA. Podemos destacar la publicación de una serie de principios como la necesidad de que la IA tenga que estar a disposición de las personas impulsando un crecimiento inclusivo, potenciando el desarrollo sostenible y el bienestar social. Se hace también especial referencia a que el diseño de la IA debe fundamentarse en el respeto al Estado de Derecho, los derechos humanos, los valores democráticos, la diversidad, e incorporar las salvaguardas necesarias para garantizar una sociedad justa y equitativa.

En Europa se publicó en 2019 el Informe Europeo del Grupo de Expertos de Alto Nivel en IA, mediante el cual se establecieron las pautas sobre los principios básicos de un desarrollo en IA confiable y que pasan por tener en cuenta el respeto a los derechos fundamentales (respeto a la dignidad, a la libertad individual, la democracia, la justicia, la no discriminación, el respeto a los derechos de los ciudadanos, etc.) y en principios éticos como el respeto a la autonomía del ser humano, la prevención del daño, la justicia o equidad y la explicabilidad de las decisiones algorítmicas. En el mismo sentido, el Libro Blanco de la IA de la Comisión Europea supone un gran avance en plantear un proyecto dirigido a la obtención de criterios uniformes para regular tanto el diseño de los algoritmos de la IA, como el tratamiento que éstos hacen de los datos. De manera específica propone la necesidad de un tratamiento especial de los datos biométricos obtenidos de manera remota, destacando principalmente la necesidad de proporcionalidad del medio utilizado y el deber de tener las garantías adecuadas.

El ciudadano europeo está protegido, de manera específica, hacia el tratamiento biométrico de datos por el Reglamento Europeo de Tratamiento de Datos de 2016 ya que considera que estamos ante un tratamiento de categoría especial de datos y que, por lo tanto, requiere de una especial atención (art. 9 RGPD). Los tratamientos biométricos únicamente son autorizados por motivos razonados de interés público y siempre bajo la mirada del principio de proporcionalidad.

Respecto al vínculo de la ética con la IA, según A. Mantelero (2020) no hay una ética global que se pueda aplicar a todos los países. La ética nunca puede ser global, ya que corresponde a un entorno, a una comunidad y, por lo tanto, es muy complicado que se pueda llegar, ni siquiera, a una ética global europea. Cataluña publicó su estrategia en IA el 25 de abril de 2019, donde se promueve el uso de la IA priorizando la ética, la eliminación de cualquier tipo de discriminación y el uso indebido que pudiera producirse sobre los datos o los mismos algoritmos.

Según E. Golobardes (2020) el algoritmo es neutro. La máquina no es inteligente (J.Domingo, 2019) y tampoco sabe por qué ha decidido lo que ha decidido. Inteligencia significa entender, y la máquina no entiende. Se entrena con datos históricos para ajustar los parámetros de los algoritmos de decisión. El problema está en los datos masivos que se introducen para entrenarlo y en el objetivo que se tiene de salida.

Es en este punto cuando entramos en la dimensión de la responsabilidad sobre la IA y sobre la información de entrenamiento que se le da al algoritmo. Una de las posibilidades que se plantea con el Libro Blanco de la IA en Europa es la posibilidad de habilitar procedimientos para auditar los algoritmos y poder certificar que están limpios de sesgos. Según R. López de Mántaras (2020) el ciudadano tiene derecho a pedir explicaciones con la ley de protección de datos europea y se puede cuestionar, incluso, cuáles han sido los parámetros para la toma de una decisión automatizada y no otra; si los datos tienen sesgos la máquina aprende mal. La Unión Europea tiene un proyecto muy ambicioso que consiste en introducir el concepto explicability (artículo 22 RGPD) para obtener explicaciones de cómo ha procesado la máquina los datos para llegar a una conclusión determinada, lo que, según J. Domingo (20019) equivale a proteger la democracia.

En este sentido garantista, el grupo de investigación de Ciencia de la Web y la Computación Social de la UPF junto con la Universidad Técnica de Berlín y el Centro Tecnológico Eureca, creó un algoritmo que detecta y mitiga sesgos de otros algoritmos. El sistema lo han llamado FA*IR.67. Son herramientas como éstas las que, atendiendo el caso que estamos examinando, podrían ayudar a auditar una aplicación proporcional de la IA en cuanto puede haber afectación de los derechos fundamentales de los ciudadanos, como es el caso de la captación de datos biométricos de manera remota.

Se debería insistir en la cadena de responsabilidades: sobre el diseño del software, sobre la programación e incluso sobre el fabricante que utiliza un producto implementando este tipo de desarrollos y sobre la persona física o jurídica o administración que la utiliza en contra de los derechos fundamentales de sus ciudadanos, como parece ser el caso de la noticia analizada.

En este caso concreto de Estados Unidos nos encontramos con que: no hay regulación específica al respecto y que, el hecho de haber renunciado Amazon e IBM al uso de un producto claramente parece que reconozcan que vulnera los derechos fundamentales de los ciudadanos y que, además, puede haber sido programado con sesgos racistas. Añadiendo también que atentan contra su propia reputación, como son miembros fundadores de la Asociación Partnership para un desarrollo ético de la IA.

Conclusión: Amazon e IBM han realizado un acto de coherencia, no sólo por las Asociaciones a las que pertenecen sino como pulso socio-político en la preservación de los Derechos Humanos y la Democracia. Sería deseable que sirva para evidenciar la necesidad de regulación de la IA dentro de un marco estricto de protección de los derechos individuales y colectivos de los ciudadanos, bajo principios garantistas reales, tal como se está liderando desde el continente europeo.

Contact

Share

TÚ PUEDES CONTROLAR EL USO DE LAS COOKIES.

En el ICAB utilizamos cookies en nuestra página. Algunas son estrictamente necesarias para el funcionamiento de la página, y otros son opcionales y se utilizan para:

  • Medir cómo se utiliza la página web.
  • Habilitar la personalización de la página web.
  • Para funciones de publicidad, marketing y redes sociales.

Al hacer clic en 'Aceptar todas', aceptas la instalación de todas las cookies. Si prefieres configurar tú mismo / a o rechazarlas, haz clic en 'Configuración de cookies'.

Para obtener más información, visite nuestra política de cookies.

×