Un grupo de privacidad pide al gobierno de los EE. UU. Que adopte las pautas universales de AI para proteger la seguridad y las libertades civiles

[ad_1]

Después de meses de trabajo, se han propuesto un conjunto de pautas diseñadas para proteger a la humanidad de una variedad de amenazas planteadas por la inteligencia artificial.

Ahora, un grupo de privacidad quiere que el gobierno de los Estados Unidos los adopte también.

El conjunto de 12 directrices universales reveladas en una reunión en Bruselas la semana pasada están diseñadas para "informar y mejorar el diseño y el uso de la IA" al maximizar los beneficios y reducir los riesgos. La IA ha sido durante años un término general para la toma de decisiones basada en la máquina, pero a medida que la tecnología mejora y se adopta más ampliamente, los resultados de los resultados basados ​​en la IA están teniendo un mayor efecto en las vidas humanas: de obtener crédito, empleo y Incluso a la condena penal.

Pero a menudo esas decisiones se toman con algoritmos propietarios y cerrados, lo que hace casi imposible saber si las decisiones son justas o están justificadas.

Estas pautas, de acuerdo con el Centro de información de privacidad electrónica (EPIC), están diseñadas para ser incorporadas a AI para garantizar la protección de los derechos humanos. Eso incluye el derecho a conocer los factores, la lógica y las técnicas utilizadas para el resultado de una decisión; una obligación de imparcialidad que elimina la toma de decisiones discriminatorias; y la obligación de proteger los sistemas contra las amenazas de ciberseguridad. Los principios también incluyen una prohibición del puntaje unitario, para evitar que los gobiernos utilicen la IA para calificar a sus ciudadanos y residentes, un golpe sutil contra el polémico sistema de crédito social de China.

Ahora, EPIC quiere llevar esos principios al estado donde muchas de las tecnologías de IA de próxima generación están en desarrollo.

En una carta a la National Science Foundation, EPIC pidió a la poco conocida agencia gubernamental que adoptara las directrices universales, meses después de que abriera sus puertas a las propuestas sobre una política nacional de inteligencia artificial.

“Al invertir en sistemas de inteligencia artificial que se esfuerzan por cumplir [universal] "NSF puede promover el desarrollo de sistemas precisos, transparentes y responsables desde el principio", escribió Marc Rotenberg, presidente y director ejecutivo de EPIC. "Los sistemas de IA desarrollados, implementados y mantenidos éticamente pueden y deben costar más que los sistemas que no lo son, y por lo tanto, merecen inversión e investigación".

EPIC dijo que los 12 principios encajan perfectamente en las siete estrategias ya establecidas por los EE. UU. Hasta ahora, lo que facilita el caso para su adopción.

Más de 200 expertos y 50 organizaciones se han adherido a las directrices, incluidos el Federal of American Scientists y el Proyecto de Responsabilidad del Gobierno.

Ahora que la solicitud de información del gobierno está cerrada, es probable que pasen muchas más semanas, si no meses, antes de que el gobierno decida cuáles serán sus próximos pasos, en caso de que haya alguno. No depende tanto de la NSF decidir, sino de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca.

Un portavoz de la Casa Blanca no respondió a una solicitud de comentarios.

Puede leer el conjunto completo de directrices a continuación.

  • Derecho a la transparencia. Todas las personas tienen derecho a conocer la base de una decisión de AI que les concierne. Esto incluye el acceso a los factores, la lógica y las técnicas que produjeron el resultado.

  • Derecho a la determinación humana. Todas las personas tienen derecho a una determinación final hecha por una persona.

  • Obligación de identificación. La institución responsable de un sistema de AI debe darse a conocer al público.

  • Obligación de imparcialidad. Las instituciones deben garantizar que los sistemas de AI no reflejen un sesgo injusto ni tomen decisiones discriminatorias inadmisibles.

  • Evaluación y obligación de rendición de cuentas. Un sistema de inteligencia artificial debe implementarse solo después de una evaluación adecuada de su propósito y objetivos, sus beneficios y sus riesgos. Las instituciones deben ser responsables de las decisiones tomadas por un sistema de AI.

  • Exactitud, confiabilidad y obligaciones de validez. Las instituciones deben garantizar la exactitud, confiabilidad y validez de las decisiones.

  • Obligación de calidad de los datos. Las instituciones deben establecer la procedencia de los datos y garantizar la calidad y relevancia para la entrada de datos en los algoritmos.

  • Obligación de seguridad pública. Las instituciones deben evaluar los riesgos de seguridad pública que surgen del despliegue de sistemas de AI que dirigen o controlan dispositivos físicos, e implementan controles de seguridad.

  • Obligación de Ciberseguridad. Las instituciones deben proteger los sistemas de inteligencia artificial contra las amenazas de ciberseguridad.

  • Prohibición de perfiles secretos. Ninguna institución establecerá o mantendrá un sistema secreto de perfiles.

  • Prohibición de puntuación unitaria. Ningún gobierno nacional establecerá o mantendrá una puntuación de propósito general en sus ciudadanos o residentes.

  • Obligación de terminación. Una institución que ha establecido un sistema de AI tiene una obligación afirmativa de terminar el sistema si ya no es posible el control humano del sistema.

El futuro de la IA se basa en un código de ética.

[ad_2]

Vende Todito