Nueva Declaración de Toronto llama a algoritmos para respetar los derechos humanos

[ad_1]

Hoy en Toronto, una coalición de grupos de derechos humanos y tecnología lanzó una nueva declaración sobre estándares de aprendizaje automático, haciendo un llamamiento tanto a gobiernos como a compañías tecnológicas para garantizar que los algoritmos respeten los principios básicos de igualdad y no discriminación. Con la Declaración de Toronto, el documento se centra en la obligación de evitar que los sistemas de aprendizaje automático discriminen, y en algunos casos violen, las leyes de derechos humanos existentes. La declaración fue anunciada como parte de la conferencia RightsCon, una reunión anual de grupos de derechos humanos y digitales

"Debemos mantener nuestro enfoque en cómo estas tecnologías afectarán a los seres humanos y los derechos humanos", dice el preámbulo. "En un mundo de sistemas de aprendizaje automático, ¿quién asumirá la responsabilidad por dañar los derechos humanos?"

La declaración ya ha sido firmada por Amnistía Internacional, Access Now, Human Rights Watch y la Fundación Wikimedia. Se esperan más firmantes en las próximas semanas.

Aunque no es jurídicamente vinculante, la declaración debe servir de guía para los gobiernos y las empresas tecnológicas que se ocupan de estos asuntos, similar a los principios necesarios y proporcionales sobre la vigilancia. No está claro cómo los principios se traducirían en prácticas de desarrollo específicas, aunque se pueden desarrollar recomendaciones más específicas sobre conjuntos de datos e insumos en el futuro.

Más allá de las prácticas generales de no discriminación, la declaración se centra en el derecho individual a remediar cuando la discriminación algorítmica ocurre "Esto puede incluir, por ejemplo, la creación de procesos claros, independientes y visibles de reparación tras efectos adversos individuales o sociales", sugiere la declaración, "[and making decisions] sujeto a apelación y revisión judicial accesibles y efectivas".

En la práctica , eso también significará significativamente más visibilidad de cómo funcionan los algoritmos populares. "La transparencia está integralmente relacionada con la responsabilidad. No se trata simplemente de hacer que los usuarios se sientan cómodos con los productos ", dijo Dinah PoKempner, consejera general de Human Rights Watch. "También se trata de garantizar que AI sea un mecanismo que funcione por el bien de la dignidad humana".

Muchos gobiernos ya se están moviendo en líneas similares. Hablando en la sesión plenaria de apertura de RightsCon, la ministra canadiense de patrimonio, Mélanie Joly, dijo que los esfuerzos de transparencia algorítmica eran cruciales para el intercambio más amplio de información en línea. "Creemos en una internet democrática", dijo Joly. "Entonces, para nosotros, la transparencia de los algoritmos es realmente importante. No necesitamos saber la receta, pero queremos conocer los ingredientes ".

[ad_2]

The Verge