Acerca Natasha Lomas

  • Miembro Desde: 02/05/2018

Descripcion

    Lo sentimos, no se encontraron listas.

El reporte de "amenazas a la democracia" de noticias falsas recibe una respuesta del gobierno del Reino Unido

tecnologia 22/10/2018

El gobierno del Reino Unido ha rechazado el pedido de un comité parlamentario de imponer un impuesto a las empresas de medios sociales para financiar lecciones de alfabetización digital para combatir el impacto de la desinformación en línea.

La comisión de Digital, Cultura, Medios y Deporte hizo una recomendación sobre un impuesto a las plataformas de redes sociales hace tres meses, en un informe preliminar luego de una investigación de varios meses sobre el impacto de las llamadas "noticias falsas" en los procesos democráticos.

Aunque ha sugerido que se utilicen los términos "desinformación" y "desinformación" en su lugar, para precisar mejor los tipos exactos de contenido inauténtico problemático, y al menos el gobierno está de acuerdo. Pero simplemente no en mucho más. Al menos no todavía.

Entre las cerca de 50 sugerencias de políticas en el informe interino, que el comité publicó rápidamente para pedir "acciones urgentes" para "defender la democracia", instó al gobierno a presentar propuestas para un impuesto a la educación en las redes sociales.

Pero en su respuesta, publicada hoy por el comité, el gobierno escribe que "continúa construyendo la base de evidencia en un impuesto de medios sociales para informar nuestro enfoque en esta área".

"Somos conscientes de que las empresas y las organizaciones benéficas están realizando una amplia gama de trabajos para hacer frente a los daños en línea y querríamos asegurarnos de que no afectemos negativamente el trabajo existente", agrega, sugiriendo que es mejor no ser acusado de empeorar un problema difícil. .

A principios de este año, el gobierno anunció planes para establecer una unidad de seguridad nacional dedicada a combatir las campañas de desinformación dirigidas por el estado, y se espera que la unidad monitoree las plataformas de redes sociales para apoyar la eliminación más rápida de las falsificaciones en línea, al poder reaccionar más rápidamente -trabajos de interferencia por parte de estados extranjeros.

Pero ir un paso más allá y exigir a las propias plataformas de medios sociales que paguen un impuesto para financiar programas de educación doméstica, para brindar a los ciudadanos capacidades de pensamiento crítico para que las personas puedan analizar de forma más inteligente el contenido que se les envía de forma algorítmica, no es, al parecer, parte del gobierno. pensamiento actual.

Aunque no está eliminando por completo la idea de algún tipo de impuesto a las redes sociales futuras, ya que sigue buscando maneras de hacer que las grandes empresas paguen una parte más justa de las ganancias en el dinero público, también señalando en su respuesta: considerando cualquier gravamen en el contexto del trabajo existente liderado por HM Treasury en relación con el impuesto a las empresas y la economía digital ".

En general, la respuesta del gobierno a la larga lista de recomendaciones de políticas del comité del DCMS sobre los riesgos democráticos de la desinformación en línea se puede resumir en una palabra como 'cautelosa', con solo tres de las cuarenta y dos recomendaciones del informe que se aceptaron de manera absoluta, como El comité lo dice, y cuatro totalmente rechazados.

La mayoría del resto se está archivando en "volver más tarde, todavía estamos investigando".

Por lo tanto, si considera que las "noticias falsas" en línea ya han tenido un impacto tangible y preocupante en el debate democrático, la respuesta del gobierno resultará decepcionante y carente de urgencia crítica. (Aunque no está solo en ese frente.)

El comité ha reaccionado con decepción – con el presidente Damian Collins La respuesta del gobierno fue "decepcionante y una oportunidad perdida", y también acusó a los ministros de esconderse detrás de las "investigaciones en curso" para evitar comentar sobre el llamado del comité de que la Agencia Nacional de Delitos del Reino Unido lleve a cabo su propia investigación sobre "denuncias que involucran a varias compañías". ".

A principios de este mes, Collins también pidió a la Met Met que explicara por qué no habían abierto una investigación sobre las infracciones de gastos relacionados con el Brexit.

También ha surgido este mes que la fuerza no examinará las reclamaciones de la intromisión rusa en el referéndum.

Mientras tanto, el circo político y la incertidumbre empresarial provocada por el voto de Brexit continúan.

Patrón de espera

La mayor parte de la respuesta del gobierno al informe interino del DCMS implica marcar una serie de consultas y revisiones existentes y / o en curso, como la consulta "Proteger el debate: intimidación, influencia e información", que lanzó este verano.

Pero al decir que continúa reuniendo evidencia en varios frentes, el gobierno también está diciendo que no cree que sea necesario apresurarse a través de respuestas regulatorias a las tonterías virales políticamente sensibles, socialmente divisivas / políticamente sensibles aceleradas por la tecnología – afirmando también que no ha visto evidencia de que la información errónea maliciosa ha sido capaz de sesgar el debate democrático genuino en el frente interno.

Será música para el Facebook. Oídos debido al incómodo escrutinio que la compañía ha enfrentado a los legisladores en su país y, de hecho, en otras partes de Europa, a raíz de un escándalo de uso indebido de datos con un ángulo profundamente político.

El gobierno también señala varias veces a un próximo órgano de supervisión que está en proceso de establecerse, también conocido como el Centro para la Ética e Innovación de los Datos, y dice que espera que esto se ocupe de una serie de cuestiones de interés planteadas por el comité, como transparencia publicitaria y segmentación; y trabajar para acordar las mejores prácticas en áreas como "focalización, equidad, transparencia y responsabilidad en el uso de algoritmos y tecnologías basadas en datos".

La identificación de "nuevas regulaciones potenciales" es otra función establecida para el futuro organismo. A pesar de que aún no está lidiando activamente con ninguno de estos problemas, a los ciudadanos del Reino Unido preocupados democráticamente simplemente se les dice que esperen.

“El gobierno reconoce que a medida que se realizan los avances tecnológicos, y el uso de los datos y la inteligencia artificial se vuelve más complejo, es posible que nuestros marcos de gobierno existentes deban fortalecerse y actualizarse. Es por eso que estamos estableciendo el Centro ", escribe el gobierno, cuestionando aparentemente si las actualizaciones legislativas son necesarias, esto en respuesta al llamado del comité, informado por un interrogatorio cercano a las empresas de tecnología y expertos en datos, para que un organismo de supervisión pueda ser capaz de auditar los aspectos "no financieros" de las empresas de tecnología (incluidos los mecanismos de seguridad y los algoritmos) para "garantizar que operen de manera responsable".

"Tal como se estableció en la reciente consulta sobre el Centro, esperamos que analice detenidamente los problemas relacionados con el uso de algoritmos, como la imparcialidad, la transparencia y la focalización", continúa el gobierno, señalando que los detalles del programa de trabajo inicial del organismo se publicará en el otoño, cuando diga que también publicará su respuesta a la consulta mencionada.

No especifica cuándo el cuerpo de ética estará en ningún tipo de posición para golpear esta carrera esquiva. De modo que, de nuevo, no tiene sentido que el gobierno intente actuar a un ritmo acorde con las tecnologías en rápido cambio en cuestión.

Luego, cuando las recomendaciones del comité tocan el trabajo de los organismos de supervisión existentes en el Reino Unido, como la Autoridad de Competencia y Mercados, el organismo de control de datos de la OIC, la Comisión Electoral y la Agencia Nacional del Delito, el gobierno esquiva las preocupaciones específicas al sugerir que no es apropiado comentar "sobre organismos independientes o investigaciones en curso".

También es notable: continúa rechazando por completo la idea de que las campañas de desinformación respaldadas por Rusia han tenido algún impacto en los procesos democráticos nacionales en absoluto, a pesar de los comentarios públicos de la primera ministra Theresa May el año pasado, en general, atacando a Putin por armar la desinformación con fines de interferencia electoral.

En su lugar, escribe:

Sin embargo, queremos reiterar que el Gobierno no ha visto pruebas del uso exitoso de la desinformación por parte de actores extranjeros, incluida Rusia, para influir en los procesos democráticos del Reino Unido. Pero no estamos siendo complacientes y el Gobierno está participando activamente con los socios para desarrollar políticas sólidas para abordar este problema.

Su respuesta en este punto tampoco hace referencia al uso extensivo de las plataformas de redes sociales para publicar anuncios políticos dirigidos al referéndum Brexit 2016.

Tampoco toma nota de la falta histórica de transparencia de dichas plataformas publicitarias. Lo que significa que simplemente no es posible determinar de dónde proviene todo el dinero de la publicidad para financiar campañas digitales sobre problemas nacionales; por ejemplo, Facebook acaba de lanzar un repositorio público de quién paga los anuncios políticos y los califica como tales en el Reino Unido, por ejemplo. .

El elefante en la habitación es, por supuesto, que la "falta de evidencia" no es necesariamente la evidencia de una falta de éxito, especialmente cuando es tan difícil extraer datos de plataformas adtech opacas en primer lugar.

Además, solo esta semana se han planteado nuevas preocupaciones sobre cómo son las plataformas como Facebook todavía permitiendo que los anuncios oscuros dirijan los mensajes políticos a los ciudadanos, sin que quede claro de forma transparente quién está realmente detrás y pagando tales campañas …

La nueva campaña de Facebook pro-Brexit ‘Dark Ads 'puede haber llegado a más de 10 millones de personas, dicen los investigadores

A su vez, se activan las llamadas de los parlamentarios de la oposición para obtener actualizaciones de la ley electoral del Reino Unido …

Sin embargo, el gobierno, tan ocupado como todavía está tratando de ofrecer algún tipo de resultado Brexit, parece no estar preocupado por toda esta publicidad política continua y sin reglamentación.

También descarta directamente el llamado del comité para que indique cuántas investigaciones se están llevando a cabo actualmente sobre la interferencia de Rusia en la política del Reino Unido, diciendo que solo ha tomado medidas para garantizar que existe una "estructura coordinada en todas las autoridades relevantes del Reino Unido para defenderse". Interferencia extranjera hostil en la política británica, ya sea de Rusia o de cualquier otro Estado ", antes de reiterar:" Sin embargo, hasta la fecha no ha habido pruebas de ninguna interferencia extranjera exitosa ".

Este verano, la Comisión Electoral descubrió que la campaña oficial de Vote Leave Leave en el referéndum de entrada y salida de la UE en el Reino Unido había infringido las reglas de gasto de la campaña, ya que las plataformas de medios sociales se volvieron a usar como el campo de juego no regulado donde la ley electoral podía ser eliminada a tal escala. Eso queda claro.

El comité de DCMS había respaldado el llamado de la Comisión para los requisitos de impresión digital para campañas electrónicas para nivelar el campo de juego entre los anuncios digitales e impresos.

Sin embargo, el gobierno no ha respaldado ni siquiera ese llamamiento tan poco controvertido, simplemente apuntando nuevamente a una consulta pública (que termina hoy) sobre los cambios propuestos a la ley electoral. Así que es aún más esperar y ver.

El comité también está decepcionado por la falta de respuesta del gobierno a pide a la Comisión que establezca un código de publicidad a través de las redes sociales durante los períodos de elección; y su recomendación de que "Facebook y otras plataformas se responsabilicen por la forma en que se usan sus plataformas", señalando también queEl gobierno "no respondió a la falta de respuesta de Facebook a la investigación del Comité ya la renuencia de Mark Zuckerberg a comparecer como testigo". (Una renuencia que realmente enfureció al comité.)

En una declaración sobre la respuesta del gobierno, el presidente del comité, Damian Collins, escribe: "La respuesta del gobierno a nuestro informe provisional sobre desinformación y" noticias falsas "es decepcionante y una oportunidad perdida. Utiliza otras investigaciones en curso para retrasar aún más los anuncios desesperadamente necesarios sobre los problemas en curso de contenido perjudicial y engañoso que se está difundiendo a través de las redes sociales.

“Necesitamos ver un enfoque más coordinado en todo el gobierno para combatir campañas de desinformación organizadas por agencias rusas que buscan interrumpir y socavar nuestra democracia. La respuesta del gobierno no nos da ninguna indicación real de qué acción se está tomando en este tema importante ".

Collins encuentra una migaja de comodidad, sin embargo, que el gobierno podría tener algo de apetito para gobernar la gran tecnología.

Después de que el comité había pedido al gobierno que "demuestre qué tan seriamente se toma la aparente colusión de Facebook para difundir la desinformación en Birmania, lo antes posible", el gobierno escribió que: "ha dejado claro a Facebook, y otras compañías de medios sociales, que deben hacer más para eliminar el contenido ilegal y dañino ”; y señalando también que su próximo Libro Blanco sobre daños en línea incluirá "una gama de políticas para hacer frente al contenido dañino".

"Agradecemos las fuertes palabras del Gobierno en su demanda de acción por parte de Facebook para abordar el discurso de odio que ha contribuido a la limpieza étnica de los rohingya en Birmania", señala Collins, y agrega: "Buscaremos al gobierno para que avance en estas y otras áreas en respuesta a nuestro informe final que se publicará en diciembre.

"También vamos a plantear estos problemas con el Secretario de Estado para DCMS, Jeremy Wright, cuando le da evidencia al comité el miércoles de esta semana. ”

(Wright es el nuevo ministro a cargo del informe digital del Reino Unido, después de que Matt Hancock se mudó a la salud).

Nos contactamos con Facebook para comentar sobre el llamado del gobierno a favor de un enfoque más sólido para el discurso de odio ilegal.

La semana pasada, la compañía anunció que había contratado al ex viceprimer ministro del Reino Unido, Nick Clegg, para ser su nuevo jefe de política global y comunicaciones, lo que aparentemente indica una disposición a prestar un poco más de atención a los reguladores europeos.

Vende Todito

41 total vistas, 1 hoy

Facebook está contratando a un director de política de derechos humanos para trabajar en "prevención de conflictos" y "construcción de la paz"

tecnologia 16/09/2018

Facebook está haciendo publicidad para que un director de política de derechos humanos se una a su negocio, ubicado en su sede de Menlo Park o en Washington DC, con "prevención de conflictos" y "consolidación de la paz" entre las responsabilidades enumeradas.

En el anuncio de trabajo, Facebook escribe que a medida que el alcance y el impacto de sus diversos productos continúa creciendo "también lo hace la responsabilidad que tenemos de respetar los derechos individuales y humanos de los miembros de nuestra diversa comunidad global", diciendo que es:

… en busca de un Director de Política de Derechos Humanos para coordinar nuestro esfuerzo en toda la compañía para abordar los abusos contra los derechos humanos, incluidos los actores estatales y no estatales. Este rol será responsable de: (1) Trabajar con equipos de productos para asegurar que Facebook sea una fuerza positiva para los derechos humanos y aplicar las lecciones que aprendemos de nuestras investigaciones, (2) representar a Facebook con actores clave de la sociedad civil, gobierno, internacional instituciones e industria, (3) dirigiendo nuestras investigaciones y disrupciones a los abusadores de los derechos humanos en nuestras plataformas, y (4) elaborando políticas para contrarrestar a los malos actores y ayudarnos a garantizar que continuemos operando nuestras plataformas de conformidad con los principios de los derechos humanos.

Entre los requisitos mínimos para el puesto, Facebook tiene una lista de experiencias que "trabajan en países en desarrollo y con gobiernos y organizaciones de la sociedad civil de todo el mundo".

Agrega que se espera "viajes globales para apoyar a nuestros equipos internacionales".

La compañía ha enfrentado fuertes críticas en los últimos años por su falta de asumir una mayor responsabilidad por la difusión de la desinformación y el discurso de odio en su plataforma. Especialmente en los mercados internacionales se ha centrado en el crecimiento empresarial a través de su iniciativa Internet.org que busca que más personas estén "conectadas" a Internet (y por lo tanto a Facebook).

Más conexiones significan más usuarios para los negocios de Facebook y crecimiento para sus accionistas. Pero los costos de ese crecimiento se han visto claramente aliviados en los últimos años, ya que el impacto humano de entregarle a millones de personas sin alfabetización digital algunas herramientas de intercambio social muy poderosas, sin una inversión proporcionalmente grande en programas educativos locales (o incluso en moderar y controlar la propia plataforma de Facebook) – se ha vuelto demasiado claro.

En Myanmar, las herramientas de Facebook se usaron para propagar el odio y acelerar la limpieza ética y / o apuntar a críticos políticos de gobiernos autoritarios, lo que generó una condena generalizada, incluyendo un reproche de la ONU a principios de este año que culpó a la plataforma de acelerar la violencia étnica contra Minoría musulmana de Myanmar

En Filipinas, Facebook también jugó un papel fundamental en la elección del presidente Rodrigo Duterte, quien ahora está acusado de sumir al país en su peor crisis de derechos humanos desde la dictadura de Ferdinand Marcos en los años setenta y ochenta.

Mientras que en la India, la popularidad de la plataforma de mensajería de WhatsApp, propiedad de Facebook, ha sido culpada por acelerar la propagación de desinformación, lo que ha provocado la violencia de la mafia y la muerte de varias personas.

Facebook fracasó notoriamente al detectar campañas de manipulación masiva en su propio patio trasero – cuando en 2016 los agentes de desinformación apoyados por el Kremlin inyectaron masas de propaganda anti-Clinton, pro-Trump en su plataforma y ganaron cientos de millones de ojos de los votantes estadounidenses en un precio de sótano de ganga.

Así que no es de extrañar que la compañía haya sido igualmente ingenua en los mercados, ya que entiende mucho menos. Aunque tampoco es excusable, dadas todas las señales a las que tiene acceso.

En Myanmar, por ejemplo, las organizaciones locales que son sensibles al contexto cultural se quejaron reiteradamente a Facebook de que carecía de personal birmano, quejas que aparentemente cayeron en saco roto por mucho tiempo.

El costo para la sociedad estadounidense de las redes sociales permitió la manipulación política y el aumento de la división social es ciertamente muy alto. Los costos de la militarización de la información digital en mercados como Myanmar parecen incalculables.

En Filipinas, Facebook también indirectamente tiene sangre en sus manos, habiendo prestado servicios al gobierno de Duterte para ayudarlo a hacer un uso más efectivo de sus herramientas. Este mismo gobierno está librando una sangrienta "guerra contra las drogas" que Human Rights Watch dice que ha cobrado la vida de alrededor de 12,000 personas, incluidos niños.

El anuncio de trabajo de Facebook para un director de política de derechos humanos incluye la promesa de que "recién estamos comenzando", refiriéndose a su misión declarada de ayudar a las personas a "construir comunidades más fuertes".

Pero cuando considera el impacto que sus decisiones comerciales ya han tenido en ciertos rincones del mundo, es difícil no leer esa línea con un escalofrío.

Citando los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos (y "nuestros compromisos como miembro de la Iniciativa de Red Global"), Facebook escribe que su equipo de políticas de productos está dedicado a "comprender los impactos de nuestra plataforma en los derechos humanos y elaborar políticas que permitirnos actuar contra aquellos que usarían Facebook para permitir el daño, reprimir la expresión y socavar los derechos humanos, y apoyar a aquellos que buscan promover los derechos, promover la paz y construir comunidades fuertes ".

Claramente tiene muchísimo "entendimiento" para hacer en este frente. Y con suerte, ahora se moverá rápidamente para comprender el impacto de su propia plataforma, alrededor de quince años de su gran "experiencia de reconfiguración de la sociedad", y evitar que Facebook sea utilizado repetidamente para destruir los derechos humanos.

Además de representar a la compañía en reuniones con políticos, legisladores, ONG y grupos de la sociedad civil, Facebook dice que el nuevo director de derechos humanos trabajará en formular políticas internas que rigen el comportamiento de los usuarios, anunciantes y desarrolladores en Facebook. "Esto incluye políticas para alentar la actividad responsable en línea, así como las políticas que disuaden o mitigan el riesgo de violaciones de los derechos humanos o la escalada de la violencia dirigida", señala.

El director también trabajará con políticas públicas internas, operaciones comunitarias y equipos de seguridad para tratar de detectar e interrumpir "actores que buscan utilizar nuestras plataformas y atacar a nuestros usuarios", mientras también trabaja para apoyar a "quienes usan nuestras plataformas para fomentar la construcción de la paz". y permitir la justicia transicional ".

Entonces debe preguntarse cómo, por ejemplo, la negación del Holocausto que sigue siendo un discurso protegido en Facebook cuadrará con la misión declarada para el director de política de derechos humanos.

Al mismo tiempo, Facebook está contratando actualmente a un administrador de políticas públicas en francófona, África, quien escribe puede "combinar la pasión por el potencial de la tecnología para crear oportunidades y hacer que África sea más abierta y conectada, con un profundo conocimiento de las políticas y regulaciones dinámica en los principales países francófonos en África ".

Ese anuncio de trabajo no hace referencia explícita a los derechos humanos, hablando solo de "desafíos de política pública interesantes … incluyendo privacidad, seguridad y protección, libertad de expresión, paradas de Internet, el impacto de Internet en el crecimiento económico y nuevas oportunidades para el compromiso democrático".

Además de "nuevas oportunidades para el compromiso democrático", entre las responsabilidades enumeradas de la función está trabajar con el equipo de Política y Gobierno de Facebook para "promover el uso de Facebook como plataforma para la participación ciudadana y electoral de los responsables políticos, las ONG y otras personas influyentes políticas".

Entonces, aquí, en un segundo trabajo de política, Facebook parece continuar su estrategia de "seguir con sus actividades normales" para impulsar una mayor actividad política en Facebook.

Y si Facebook quiere una comprensión acelerada de los problemas de derechos humanos en todo el mundo, sería mejor que adoptara un enfoque más unido de los derechos humanos a través de su propia junta de personal de políticas, y al menos incluirlo entre las responsabilidades enumeradas de todos los modeladores de políticas. está buscando contratar.

VendeTodito

48 total vistas, 0 hoy

La huelga de taxis española 'anti-Uber' termina después de que el gobierno acuerda una nueva regulación

tecnologia 02/08/2018

Una huelga nacional de taxistas de seis días en España ha terminado después de que el gobierno acordó aprobar una regulación que permitirá a las comunidades autónomas del país limitar el número de permisos privados de vehículos de alquiler dentro de sus ciudades.

El VTC las licencias son utilizadas por Uber y el rival local de paseo Cabify para ofrecer servicios de conductor profesional en el país. Por lo tanto, es probable que la decisión del gobierno limite el tamaño de sus negocios en los mercados regionales que optan por mantener el límite.

Las decisiones anteriores de los tribunales europeos esencialmente han cerrado los servicios p2p (conductor no profesional) de Uber en la región. Así que cabildear a las ciudades para desregular y reformar las leyes de taxis a su favor es el juego de Uber ahora.

Pero es un juego largo, y puede que no funcione en todos los mercados, lo que subraya los factores que impulsan a la empresa a reposicionarse como una plataforma de transporte multimodal, después de comprar su camino en las bicicletas eléctricas.

El Ministerio de Desarrollo de España emitió la noticia que la industria del taxi había estado presionando para ayer, en un comunicado de prensa, tras una reunión de la Conferencia Nacional de Transporte que se había adelantado como resultado de las huelgas. Dijo que las medidas para permitir que los gobiernos regionales del país regulen el sector de TTF a nivel local, lo que les permitirá poner en marcha sus propias políticas de movilidad urbana, se implementarán en septiembre.

Las asociaciones de taxis han aparcado su huelga como resultado, aunque hacían alto y claro en Twitter que regresarán para mantener la presión sobre los legisladores en septiembre.

https://platform.twitter.com/widgets.js

Fue un intento del alcalde de Barcelona de aprobar una ley para hacer cumplir localmente la relación de 1:30 – posteriormente bloqueada por los tribunales – que desencadenó la última huelga.

Una huelga que, como lo dice hiperbólicamente Uber, "paralizó a España".

Por supuesto, la realidad era bastante más cercana a un inconveniente, y sobre todo para los turistas, dado que el país tiene múltiples opciones de transporte público urbano, generalmente de bajo costo. Y los lugareños adoran correr.

Las asociaciones de taxistas de España han estado sosteniendo feroces protestas durante varios años, desde que Uber volvió al mercado con una oferta de servicios con licencia, después de que algunas de las mismas asociaciones desafiaran con éxito su servicio p2p en los tribunales de Barcelona e inhabilitaran a UberPop.

Los conductores de taxis denuncian a Uber y a otro jugador de cabotaje local, Cabify, como explotador y corrupto, y han estado aplicando presión sobre los gobiernos locales y nacionales para proteger su industria.

Una sentencia del TJUE a fines del año pasado, que consideraba que Uber era una compañía de transporte y, por lo tanto, estaba sujeta a las leyes de transporte locales, parecía el último clavo en el ataúd para plataformas que eluden las regulaciones de taxis en Europa.

Haciendo lobby para la desregulación y (en el caso de Uber) presionando en las opciones de transporte multimodal, el juego regional largo para las startups de ride-hailing. Las bicicletas eléctricas de Uber se dirigen a Europa este verano.

En España, el enojo de la industria del taxi se ha centrado en no mantener una reversión de 2015 de una ley de transporte que restableció un límite de licencia VTC anterior, que data de 1990, que establece una ración de un VTC por cada 30 taxis.

Sin embargo, la disposición no se ha aplicado activamente, y aparentemente ha sido fácil (aunque no necesariamente barata) burlar en la práctica a las empresas que viajan con frecuencia: las firmas compran licencias de VTC a operadores locales y reclutan conductores a través de anuncios en redes sociales y anuncios de empleo. plataformas como Jobandtalent.

Reuters informa que actualmente hay 9,000 permisos de VTC otorgados a los servicios en línea frente a 70,000 permisos de taxis. Si se mantuviera la relación 1:30, significaría al menos más de 6,600 permisos, por lo que probablemente miles de contratistas de Uber y Cabify se quedarán sin trabajo.

La asociación de VTC, Unauto VTC, ha intentado bloquear los intentos de hacer cumplir el límite, como al desafiar el intento de la autoridad de la ciudad de Barcelona de hacer cumplir la relación el mes pasado.

Y las empresas que acuden en taxi parecen estar buscando vías legales para bloquear el último movimiento del gobierno para delegar poderes regulatorios (por ejemplo, un vocero de Uber nos señaló este informe en Mercado Financiero, que cita a un profesor de derecho cuestionando la validez constitucional del uso del gobierno de un decreto para transferir la competencia).

Al mismo tiempo, están haciendo ruidos públicos sobre querer trabajar con la industria del taxi

En una publicación de blog que respondía al anuncio del gobierno de ayer de que los poderes reguladores de VTC serían delegados, Uber ofrece una rama de olivo a los taxis, convocando a todos los actores del espacio de movilidad urbana, privado y público, a trabajar juntos y argumentando que si las personas va a dejar sus autos en casa "debemos ofrecerles más y más alternativas, no menos".

"Si hemos aprendido algo estos días, debemos trabajar juntos. Todos juntos. Porque aunque algunos insisten en presentar este problema como una guerra, la verdad es que no es tan diferente de la encrucijada que viven todas las grandes ciudades del mundo ", escribe.

"Y en esta encrucijada, está en nuestras manos decidir qué camino queremos tomar. Podemos restringir las nuevas alternativas de movilidad o podemos comenzar a trabajar para alcanzar el objetivo que compartimos con el Gobierno, los ayuntamientos, el sector del taxi, el VTC y Uber: circulan menos vehículos privados en nuestras calles todos los días ".

La compañía también pide directamente a los taxistas que trabajen con ella respaldando la desregulación de la industria del taxi, en lugar de limitar el número de VTC.

"Creemos firmemente que la solución no es restringir el VTC, sino hacer que el taxi sea más flexible para que pueda competir mejor. Entonces puedes competir con Uber, no contra Uber. Uber y el taxi? Puede sonar extraño, pero no lo es. Ya lo hacemos en varias ciudades del mundo, y queremos hacerlo en España ", escribe.

"No se trata de VTC o taxi. Es sobre eso, poco a poco, aprendemos a trabajar juntos para cumplir el objetivo de todos: que dejes tu auto en casa ".

Un portavoz de Uber al que llegamos para comentarnos también nos dijo: "La forma en que las personas se mueven en las ciudades está cambiando en todo el mundo: queremos asociarnos con todas las partes interesadas locales, incluidos los taxis, para construir mejores ciudades en España juntas".

Una portavoz de Cabify dijo que la compañía no tenía nada que agregar más allá de su declaración la semana pasada cuando también hizo un llamado similar para que las partes interesadas se unan en torno a una mezcla de transporte urbano multimodal, y escribió: "Creemos que las soluciones unilaterales no son soluciones adecuadas para construir la movilidad del futuro y que todos los jugadores deben trabajar en conjunto con la administración para encontrar la manera de garantizar la evolución del mercado y la protección de todos los que operan en él ".

Sin embargo, los ataques de la industria del taxi a las compañías que brindan asistencia incluyen afirmaciones de que sus plataformas crean "empleos" precarios y pagan poco a sus trabajadores.

https://platform.twitter.com/widgets.js

Ni Uber ni las declaraciones públicas de Cabify se han comprometido con esa crítica.

Las huelgas de taxi más recientes comenzaron el mes pasado en las principales ciudades, incluida la capital de España, Madrid, y en la capital de Cataluña, Barcelona.

Inicialmente, los ataques se programaron para correr durante dos días, pero los conductores cambiaron de marcha, anunciando un huelga indefinido y pasar casi una semana bloqueando las calles y haciendo la vida especialmente miserable para los turistas de verano con maletas que intentan hacer viajes hacia y desde los aeropuertos.

También hubo escenas violentas presenciadas el primer día de la huelga en Barcelona, ​​que generó una condena generalizada después de que se dañaron autos y hubo informes de conductores atacados y amenazados.

La violencia no se repitió después de los llamamientos a la calma, incluso desde una de las principales asociaciones de taxis que organizaban la acción de protesta.

https://platform.twitter.com/widgets.js

Esta misma organización, la Asociación Elite Taxi, desde entonces tuiteó que los taxis de Barcelona han estado ofreciendo viajes gratuitos a hospitales para mejorar las relaciones con los ciudadanos.

VendeTodito

85 total vistas, 0 hoy

Glovo obtiene $ 134M para reforzar su negocio de entregas a pedido

tecnologia 18/07/2018

La startup española Glovo, cuya plataforma permite a los usuarios de aplicaciones convocar a un trabajador económico para comprar en su nombre, ya sea para una hamburguesa para llevar o una tienda de bolsos multimarca, ha embolsado una ronda de financiación Serie C de € 115 millones (~ $ 134M) . La prensa española informa que la ronda valora el negocio de Glovo en más de 300 millones de euros.

Los principales inversores en la Serie C son Rakuten, Seaya y Cathay, que también invirtieron en su Serie B.

También está invirtiendo AmRest, un operador de restaurantes de cotización pública en Europa Central, así como los fondos europeos Idinvest Partners y GR Capital, además de otras inversiones menores.

AmRest controla más de 1,650 restaurantes en más de 16 países, con marcas como KFC, La Tagliatella, Pizza Hut, Starbucks y Burger King, Blue Frog y KABB en su haber. Así que las oportunidades estratégicas que está espiando para enrutar a los fanáticos de la comida rápida con comida a pedido al tocar el botón de una aplicación son claras.

Glovo levantó una serie B de € 30 millones en octubre pasado. La startup se fundó en Barcelona en 2015, y sus pilotos de reparto, con las distintivas bolsas amarradas a sus espaldas, son una vista común en la ciudad, a menudo se divisa en grupos expectantes a la entrada de McDonald's y otros restaurantes de comida rápida. puntos de venta.

La startup afirma que los nuevos fondos se destinarán a optimizar su plataforma y sus recursos tecnológicos para mejorar el servicio a usuarios, usuarios y tiendas asociadas.

Específicamente, está planeando aumentar su equipo técnico agregando más de 100 ingenieros en los próximos meses, diciendo que quiere convertirse en lo que llama "el centro tecnológico más relevante en el sur de Europa".

También planea usar los fondos para impulsar su impulso, señalando que abrió seis países y 20 ciudades en todo el mundo en solo tres meses. Sus regiones de enfoque son América Latina y áreas de EMEA (Europa, Medio Oriente y África), y su aplicación está disponible en 61 ciudades en 17 países en total en esta etapa.

Mientras que Europa es una región central, y España representa una gran parte de su negocio, donde ahora opera en 21 ciudades, el riesgo legal para las empresas de economía colaborativa que operan allí aumenta a medida que crece la presión política para reformar la ley de empleo para impulsar la derechos contra erosiones por plataformas de aplicaciones que a su vez son dependientes en enormes ejércitos de los llamados trabajadores "autónomos" para impulsar sus negocios.

En el Reino Unido, por ejemplo, el gobierno está consultando sobre un paquete de reformas al mercado laboral, diciendo en febrero que quería ser "responsable del trabajo de buena calidad y de la cantidad de empleos", y poniendo las plataformas de la economía activa atentos a los cambios .

El otro enfoque regional de Glovo – de América Latina – sugiere que la startup está cubriendo sus apuestas en lo que se refiere a este tipo de riesgo legal de la ley laboral.

Y de hecho, en lo que respecta al riesgo competitivo, dado el espacio que juega, es muy concurrido en el frente de entrega de alimentos (con los gustos de Deliveroo, UberEats y JustEast compitiendo para servir convenientemente a los estómagos de los consumidores en Europa), y los gustos de Postmates habiendo establecido un negocio de compras en su nombre en los Estados Unidos.

También hoy Glovo anunció la nominación de Niall Wass como presidente. Dijo que Wass, un antiguo vicepresidente senior de Uber para la región de EMEA y APAC, ha estado trabajando como asesor el año pasado y ayudando con su estrategia de expansión.

Vende Todito

88 total vistas, 0 hoy

Informe del Reino Unido advierte que DeepMind Health podría ganar 'poder de monopolio excesivo'

tecnologia 15/06/2018

La incursión de DeepMind en los servicios digitales de salud continúa suscitando preocupación. Las últimas preocupaciones son expresadas por un panel de revisores externos nombrados por la compañía de inteligencia artificial propiedad de Google para informar sobre sus operaciones después de que sus acuerdos iniciales de intercambio de datos con el Servicio Nacional de Salud (NHS) del Reino Unido se toparan con una gran controversia pública en 2016 .

El informe de los revisores independientes de DeepMind Health 2018 señala una serie de riesgos e inquietudes, tal como lo ven, incluido el potencial de que DeepMind Health pueda "ejercer un poder de monopolio excesivo" como resultado de la infraestructura de acceso y transmisión de datos que se incluye con la provisión de la aplicación Streams y que, contractualmente, posiciona a DeepMind como el intermediario de control de acceso entre los datos de salud estructurados y cualquier otro tercero que pueda, en el futuro, querer para ofrecer sus propias soluciones de asistencia digital al Fideicomiso.

Mientras que el FHIR subyacente (también conocido como recurso rápido de interoperabilidad sanitaria) implementado por DeepMind para Streams usa una API abierta, el contrato entre la compañía y Royal Free Trust canaliza conexiones a través de los servidores de DeepMind, y prohíbe conexiones a otros servidores FHIR. Una estructura comercial que aparentemente funciona en contra de la apertura e interoperabilidad. El cofundador de DeepMind, Mustafa Suleyman, ha afirmado que apoya.

" Hay muchos ejemplos en el área de TI donde las empresas bloquean a sus clientes en sistemas que son difíciles de cambiar o reemplazar. Tales arreglos no son en interés de el público. Y no queremos que DeepMind Health se coloque en una posición en la que los clientes, como los hospitales, se vean obligados a permanecer con DeepMind Health, incluso si ya no es financieramente o clínicamente sensato hacerlo; queremos que DeepMind Health compita en calidad y precio, no al afianzar la posición heredada, "escriben los revisores.

Aunque señalan [el compromiso] de DeepMind a la interoperabilidad de los sistemas, "Y" su adopción de la API abierta FHIR "como indicaciones positivas, escribiendo:" Esto significa que hay muchas otras PYMES interesadas en participar, creando un mercado diverso e innovador que funciona en beneficio de los consumidores, la innovación y la economía . "

" También notamos la intención de DeepMind Health de implementar muchas de las características de Streams como módulos que podrían intercambiarse fácilmente, lo que significa que tendrán que confiar en ser los mejores para mantenerse en el negocio ", agregaron. .

Sin embargo, las intenciones declaradas y los potenciales futuros claramente no son lo mismo que la realidad sobre el terreno. Y, tal como está, una infraestructura de entrega de aplicaciones técnicamente interoperable está siendo gravada por cláusulas prohibitivas en un contrato comercial y por la falta de retroceso regulatorio contra tal comportamiento.

Los revisores también expresan su preocupación por la falta de claridad en torno a Modelo de negocio de DeepMind Health: " Dado el entorno actual, y sin claridad sobre el modelo comercial de DeepMind Health, las personas probablemente sospechen que debe haber un motivo de lucro no divulgado o una agenda oculta. No creemos que este sea el caso, pero instamos a DeepMind Health a ser transparente con respecto a su modelo de negocio y su capacidad para cumplirlo sin ser reemplazado por Alphabet. Una vez que una idea de las agendas ocultas se fija en la mente de las personas, es difícil cambiarla, sin importar cuánto esté motivada por el bien público ".

" Hemos tenido detalles conversaciones sobre los pensamientos cambiantes de DeepMind Health en esta área, y son conscientes de que algunas de estas preguntas aún no se han finalizado. Sin embargo, instamos a DeepMind Health a que exponga públicamente lo que proponen ", añaden.

DeepMind ha sugerido que quiere construir AIs de atención médica que sean capaces de cargar según los resultados. Pero Streams no involucra ninguna IA. El servicio también se proporciona a NHS Trusts de forma gratuita, al menos durante los primeros cinco años, lo que plantea la cuestión de cómo exactamente la empresa propiedad de Google intenta recuperar su inversión.

Google monetiza por supuesto una gran suite de free- productos de consumo en el punto de uso, como el sistema operativo móvil Android; su servicio de correo electrónico en la nube Gmail; y la plataforma de videos compartidos de YouTube, por nombrar tres, recolectando los datos personales de las personas y usando esa información para informar a sus plataformas de orientación.

De ahí la recomendación de los revisores para que DeepMind exponga su pensamiento sobre su modelo comercial para evitar sus intenciones vis-a-vis los datos médicos de las personas que se ven con recelo.

El modus operandi histórico de la compañía también subraya los riesgos de monopolio potenciales si se permite que DeepMind forje una posición de plataforma dominante en la prestación digital de atención médica, dada la eficacia con que capaz de convertir un sistema operativo móvil para OEM (Android) en el mercado global de sistemas inteligentes de teléfono inteligente, por ejemplo.

Así, mientras que DeepMind solo tiene un puñado de contratos con NHS Fideicomisos para la aplicación Streams y la infraestructura de entrega en esta etapa, las preocupaciones de los revisores sobre el riesgo de que la empresa gane el "poder de monopolio excesivo" no parecen exageradas.

y también están preocupados por la vaguedad constante de DeepMind acerca de cómo funciona exactamente con su Alphabet padre, y qué datos podrían ser transferidos al gigante publicitario, una combinación inevitablemente mareada cuando se compara con el manejo de registros médicos de personas de DeepMind.

¿En qué medida puede DeepMind Health aislarse contra Alphabet instruyéndolos en el futuro a hacer algo que ha prometido no hacer hoy? O, si la gerencia actual de DeepMind Health abandonara DeepMind Health, ¿cuánto podría un nuevo CEO alterar lo que se ha acordado hoy? "Escriben.

" Agradecemos que DeepMind Health siga estando sujeto al marco legal y regulatorio , pero gran parte de nuestra atención se centra en los pasos que ha tomado DeepMind Health para adoptar una postura más ética de lo que exige la ley; ¿Podría esto ser terminado? Alentamos a DeepMind Health a buscar maneras de consolidar su separación de Alphabet y DeepMind de manera más robusta, para que pueda tener una fuerza duradera para los compromisos que realiza ".

Respondiendo a la publicación del informe en su sitio web, DeepMind escribe que es" desarrollando nuestro modelo de negocio y hoja de ruta a más largo plazo. "

" En lugar de cobrar por las primeras etapas de nuestro trabajo, nuestra primera prioridad ha sido demostrar que nuestras tecnologías pueden ayudar a mejorar la atención del paciente y reducir los costos. Creemos que nuestro modelo comercial debe fluir del impacto positivo que creamos, y seguiremos explorando los elementos basados ​​en los resultados para que los costos estén, al menos en parte, relacionados con los beneficios que ofrecemos ", continúa.

Por lo tanto, no tiene nada para desactivar las inquietudes de los revisores sobre hacer evidentes sus intenciones de monetizar los datos de salud, más allá de implementar algunas selectas citas de audio y video.

En sus vínculos con Alphabet, DeepMind también tiene poco que decir, solo escribe eso: "Exploraremos formas adicionales de garantizar que haya claridad sobre los marcos jurídicos vinculantes que rigen todas nuestras asociaciones del NHS. "

" Los fideicomisos conservan el control total de los datos en todo momento ", agrega. "Estamos legalmente y contractualmente obligados a utilizar solo los datos del paciente bajo las instrucciones de nuestros socios. Continuaremos haciendo nuestros acuerdos legales con Fideicomisos públicamente disponibles para permitir el escrutinio de este importante punto. "

" T aquí no hay nada en nuestros acuerdos legales con nuestros socios que les impida trabajar con cualquier otro procesador de datos, si desean buscar los servicios de otro proveedor, "también afirma en respuesta a preguntas adicionales que le planteamos.

" Esperamos que Streams pueda ayudar a desbloquear la próxima ola de innovación en el NHS. La infraestructura que impulsa a Streams se basa en estándares abiertos e interoperables de última generación, conocidos como FHIR. El estándar FHIR cuenta con el respaldo en el Reino Unido de NHS Digital, NHS England y el grupo INTEROPen. Esto debería permitir que nuestros socios confíen más fácilmente con otros desarrolladores, ayudándoles a aportar muchas más innovaciones nuevas a la línea clínica, "agrega en comentarios adicionales para nosotros.

" De acuerdo con nuestros acuerdos contractuales con los fondos de inversión de socios relevantes, tenemos comprometidos a construir la infraestructura FHIR API dentro de los términos de cinco años de los acuerdos. "

Cuando se le preguntó sobre el progreso que se hizo en una infraestructura de auditoría técnica para verificar el acceso a los datos de salud, que anunció el año pasado, reiteró la redacción en su blog , diciendo: "Nos mantendremos vigilantes para establecer los estándares más altos posibles de gobernanza de la información. A principios de este año, nombramos un Administrador de Gobierno de la Información a tiempo completo para supervisar el uso de los datos en todas las áreas de nuestro trabajo. También seguimos construyendo nuestra Auditoría de datos verificables y otras herramientas para mostrar claramente cómo estamos usando los datos. "

Así que los desarrollos en ese frente parecen tan lentos como esperábamos.

Comenzó la compañía de IA del Reino Unido propiedad de Google. su impulso a los servicios digitales de salud en 2015, firmando tranquilamente un acuerdo de intercambio de información con NHS Trust con sede en Londres que le dio acceso a alrededor de 1,6 millones de registros médicos de personas para desarrollar una aplicación de alertas para una afección llamada Lesión Renal Aguda.

También firmó un memorando de entendimiento con el Fideicomiso donde el par estableció su ambición de aplicar AI a los conjuntos de datos del NHS. (Incluso llegaron tan lejos como para obtener un sello ético para un proyecto de IA) pero siempre han afirmado que los datos de Royal Free no se suministraron a ninguna IA)

Sin embargo, la colaboración de intercambio de datos tuvo problemas en mayo de 2016 cuando se reveló el alcance de los datos de los pacientes compartidos por Royal Free con DeepMind (a través del periodismo de investigación, en lugar de las revelaciones del Trust o DeepMind).

Ninguno de los ~ 1.6 millones de personas cuyos registros médicos no se han anonimizado pasado a la empresa propiedad de Google había sido informado o pedido su consentimiento. El regulador de privacidad del Reino Unido concluyó una investigación del proyecto el verano pasado, y descubrió que Royal Free NHS Trust había roto las reglas de protección de datos durante el desarrollo de la aplicación.

Sin embargo, a pesar de las preguntas éticas y la inquietud regulatoria sobre la legalidad del intercambio de datos, el proyecto Streams continuó su avance. Y Royal Free Trust pasó a implementar la aplicación para uso de los médicos en sus hospitales, mientras que DeepMind también ha firmado varios contratos adicionales para implementar Streams a otros NHS Trusts.

Más recientemente, el bufete de abogados Linklaters completó una auditoría de la Proyecto Royal Free Streams, luego de haber sido encargado por el Fideicomiso como parte de su acuerdo con el ICO. Aunque esta auditoría solo examinó el funcionamiento actual de Streams. (No se ha realizado una auditoría histórica de la legalidad de los registros médicos de las personas durante la fase de construcción y prueba del proyecto)

Linklaters recomendó que Royal Free finalice su MoU más amplio con DeepMind, y la confianza nos ha confirmado que seguirá los consejos de la empresa.

"La auditoría recomienda que finalicemos el histórico memorando de entendimiento con DeepMind, que se firmó en enero de 2016. El MOU ya no es relevante para la asociación y estamos en el proceso de terminarlo ", Nos dijo un portavoz de Royal Free.

Así que DeepMind, probablemente la compañía de IA más famosa del mundo, se encuentra en la curiosa situación de estar involucrado en la provisión de servicios digitales de salud a hospitales del Reino Unido que en realidad no involucran ninguna IA. (Aunque también tiene algunos proyectos de investigación de IA en curso con NHS Trusts.)

A mediados de 2016, en el momento álgido del escándalo de datos Royal Free DeepMind, y en un intento de fomentar una mayor confianza pública, la compañía nombró el panel de revisores externos que ahora han producido su segundo informe mirando cómo está funcionando la división.

Y es justo decir que ha sucedido mucho en la industria tecnológica desde que el panel fue designado para socavar aún más la confianza pública en plataformas tecnológicas y promesas algorítmicas: incluida la conclusión de la ICO de que el acuerdo inicial de intercambio de datos entre Royal Free y DeepMind rompió las leyes de privacidad del Reino Unido.

Los ocho miembros del panel para el informe de 2018 son: Martin Bromiley OBE; Elisabeth Buggins CBE; Eileen Burbidge MBE; Richard Horton; Dr. Julian Huppert; Profesor Donal O'Donoghue; Matthew Taylor; y Profesor Sir John Tooke.

En su último informe, los revisores externos advierten que la opinión pública sobre los gigantes tecnológicos ha "cambiado sustancialmente" frente a lo que era hace un año, afirmando que " las cuestiones de privacidad en la era digital son, en todo caso, de mayor preocupación ".

Al mismo tiempo, los políticos también miran más críticamente las obras y los impactos sociales de los gigantes tecnológicos.

Aunque el gobierno del Reino Unido también ha estado interesado en posicionarse como un partidario de AI, proporcionando fondos públicos para el sector y, en su documento técnico de Estrategia Industrial, identificando AI y datos como uno de los cuatro llamados "Grandes Desafíos" donde cree que el Reino Unido puede " liderar el mundo en los años venideros ", incluyendo específicamente el control de nombres de DeepMind como una de las pocas empresas de inteligencia artificial de vanguardia para que el país se sienta orgulloso.

Aún así, preguntas sobre cómo administrar y regular el sector público los datos y las implementaciones de inteligencia artificial, especialmente en áreas altamente sensibles como la atención médica, deben ser claramente abordados por el gobierno.

Mientras tanto, la invasión de las tecnologías digitales en el espacio sanitario, incluso cuando los técnicos ni siquiera involucran a una IA – ya están presentando grandes desafíos al presionar sobre las reglas y estructuras de gobernanza de la información existentes, y elevar el espectro del riesgo monopólico.

Preguntaron si ofrece alguna guía a NHS Trusts sobre asistencia digital para médicos, incluyendo específicamente si se requieren múltiples opciones ser ofrecido por diferentes proveedores, el proveedor de servicios digitales del NHS, NHS Digital, remitió nuestra pregunta al Departamento de Salud (DoH), diciendo que es una cuestión de política de salud.

El DoH a su vez remitió la pregunta a NHS Digital. , el organismo ejecutivo no departamental que encarga contratos y establece prioridades e instrucciones para el servicio de salud en Inglaterra [196]. 59006] Y al momento de escribir, todavía estamos esperando una respuesta del cuerpo directivo.

En última instancia, parece que corresponderá al servicio de salud establecer una estructura clara y robusta para AI y digital servicios de decisión que fomentan la competencia por diseño mediante el requisito de que los Fideicomisos respalden múltiples opciones independientes cuando adquieran aplicaciones y servicios.

Sin ese importante control y equilibrio, el riesgo es que la dinámica de la plataforma domine y controle rápidamente la emergente salud digital el espacio de asistencia, así como la gran tecnología ha dominado la tecnología de consumo.

Pero las decisiones y los conjuntos de datos de salud financiados con fondos públicos no deberían entregarse simplemente a la entidad dominante del mercado que está dispuesta y es capaz de quemar la mayor cantidad de recursos para poseer el espacio. 19659003] Tampoco debe el gobierno esperar y no hacer nada cuando existe un claro riesgo de que un área vital de la innovación digital corra el riesgo de ser cerrada por un gigante de la tecnología que entra y sale colocándose como guardián antes que otros hayan tenido la oportunidad de mostrar de qué están hechas sus ideas, y antes incluso de que un mercado haya tenido la oportunidad de formarse.

VendeTodito

84 total vistas, 0 hoy

Facebook y Google enfrentan primero quejas de GDPR por "consentimiento forzado" – Vende Todito

tecnologia 25/05/2018

Después de dos años en los gigantes tecnológicos, el nuevo marco de privacidad de Europa, el Reglamento General de Protección de Datos (GDPR), se está aplicando ahora, y el crítico de privacidad de Facebook Max Schrems, no perdió tiempo. en la presentación de cuatro quejas relacionadas con la postura de "tomarlo o dejarlo" de algunas compañías (ciertas) cuando se trata del consentimiento.

Las quejas se han presentado en nombre de usuarios individuales (sin nombre), con una presentada contra Facebook; uno contra Instagram propiedad de Facebook; uno contra WhatsApp, propiedad de Facebook; y uno contra Android de Google.

Schrems sostiene que las compañías están utilizando una estrategia de "consentimiento forzado" para continuar procesando los datos personales de las personas, cuando de hecho la ley exige que los usuarios tengan libertad de elección a menos que el consentimiento sea estrictamente necesario para la prestación del servicio. (Y, bueno, Facebook afirma que su producto principal son las redes sociales, en lugar de cultivar datos personales de las personas para la orientación de anuncios.)

"Es simple: cualquier cosa estrictamente necesaria para un servicio ya no necesita casillas de consentimiento. Para todo lo demás, los usuarios deben tener una opción real para decir 'sí' o 'no' ", escribe Schrems en un comunicado.

" Facebook incluso ha bloqueado las cuentas de usuarios que no han dado su consentimiento ", agrega. "Al final, los usuarios solo tuvieron la opción de eliminar la cuenta o presionar el botón" aceptar ", eso no es una elección libre, sino que más recuerda a un proceso electoral en Corea del Norte".

Hemos contactado a todos compañías involucradas para comentar y actualizarán esta historia con cualquier respuesta.

El activista de privacidad europeo fundó recientemente una organización sin fines de lucro de derechos digitales para enfocarse en litigios estratégicos alrededor del marco de privacidad actualizado del bloque, y las quejas han sido presentadas a través de esta ONG financiada con crowdfunding – que se llama noyb (también conocido como 'none of your business').

Como señalamos en nuestro explicador GDPR, la disposición en la regulación permite la aplicación colectiva de los derechos de datos de las personas en una importante, con el potencial de fortalecer la implementación de la ley permitiendo a las organizaciones sin fines de lucro, como noyb, presentar denuncias en nombre de individuos, lo que ayuda a corregir el desequilibrio entre el gigante corporativo y derechos del consumidor.

Dicho esto, la disposición de compensación colectiva del GDPR es un componente que los Estados miembros pueden optar por derogar, lo que ayuda a explicar por qué las primeras cuatro quejas se han presentado ante agencias de protección de datos en Austria, Bélgica, Francia y Hamburgo en Alemania – regiones que también tienen agencias de protección de datos con un sólido historial de defensa de los derechos de privacidad.

Dado que las empresas de Facebook involucradas en estas quejas tienen su sede europea en Irlanda, es probable que la agencia irlandesa de protección de datos se involucre también. Y es justo decir que, dentro de Europa, Irlanda no tiene una sólida reputación para defender los derechos de protección de datos.

Pero el GDPR permite que las APD en diferentes jurisdicciones trabajen juntas en casos en que tienen preocupaciones comunes y donde se cruza un servicio fronteras – por lo que la acción de noyb busca probar este elemento del nuevo marco también.

Bajo la estructura penal de GDPR, las principales violaciones de la ley pueden atraer multas de hasta el 4% de los ingresos globales de una compañía que, en el caso de Facebook o Google, implica que podrían estar enganchados por más de mil millones de euros cada uno, si se considera que han violado la ley, como argumentan las quejas.

Dicho esto, dado lo recientemente arreglado en su lugar las reglas son que algunos reguladores de la UE pueden pisar suavemente en el frente de aplicación, al menos en las primeras instancias, para darles a las empresas algún beneficio de la duda y / o la oportunidad de enmendarlas para cumplirlas si se las considera no estar a la altura de los nuevos estándares.

Sin embargo, en los casos en que las propias empresas parecen estar tratando de deformar la ley con una interpretación deliberadamente egoísta de las normas, los reguladores pueden sentir que necesitan actuar rápidamente para cortar cualquier falta de sinceridad en the bud.

"Probablemente no tengamos inmediatamente miles de millones de multas, pero las corporaciones han violado intencionalmente el GDPR, por lo que esperamos una sanción correspondiente bajo GDPR", escribe Schrems.

Sólo ayer, por ejemplo, Facebook su fundador, Mark Zuckerberg – hablando en una entrevista en el escenario en la conferencia VivaTech en París – afirmó que su compañía no ha tenido que hacer ningún cambio radical para cumplir con GDPR, y además afirmó que una "gran mayoría" de los usuarios de Facebook están voluntariamente optando por la publicidad dirigida a través de su nuevo flujo de consentimiento.

"Hemos estado desplegando los flujos GDPR durante varias semanas para asegurarnos de estar haciendo esto en una de buena manera y que podríamos tener en cuenta los comentarios de todos antes de la fecha límite del 25 de mayo. Y una de las cosas que me parece interesante es que la gran mayoría de las personas optan por participar para que podamos usar los datos de otras aplicaciones y sitios web que están utilizando para mejorar los anuncios. Porque la realidad es que si estás dispuesto a ver anuncios en un servicio, quieres que sean relevantes y buenos anuncios ", dijo Zuckerberg.

No mencionó que la red social dominante no ofrece a las personas una opción libre al aceptar o disminución de publicidad dirigida. El nuevo flujo de consentimiento que Facebook reveló antes de GDPR solo ofrece la "opción" de dejar de Facebook por completo si una persona no quiere aceptar la publicidad de segmentación. Lo cual, bueno, no es una elección dada la potencia de la red. (Además, vale la pena señalar que Facebook sigue rastreando a los no usuarios, por lo que incluso eliminar una cuenta de Facebook no garantiza que Facebook deje de procesar sus datos personales.)

Preguntado cómo el modelo de negocios de Facebook se verá afectado por las nuevas reglas , Zuckerberg esencialmente afirmó que nada significativo cambiará, "porque dar a las personas el control de cómo se usan sus datos ha sido un principio básico de Facebook desde el principio".

"El GDPR agrega algunos controles nuevos y luego hay algunas áreas que necesitamos para cumplir, pero en general no es una desviación masiva de cómo nos hemos acercado a esto en el pasado ", afirmó. "Quiero decir que no quiero minimizarlo, hay nuevas reglas fuertes en las que hemos necesitado trabajar mucho para asegurarnos de que cumplimos, pero en general la filosofía detrás de esto no es completamente diferente de cómo abordamos las cosas.

"Para poder darles a las personas las herramientas para conectarse de todas las formas que ellos quieren y crear un comité, mucha filosofía codificada en un reglamento como GDPR es realmente como hemos pensado en todo esto por mucho tiempo. Así que no quiero subestimar las áreas donde hay nuevas reglas que hemos tenido que implementar, pero tampoco quiero que parezca que esto es una partida masiva de cómo hemos pensado sobre esto. . "

Zuckerberg se enfrentó a una serie de preguntas difíciles sobre estos puntos desde el parlamento de la UE a principios de esta semana. Pero evitó responderles en cualquier detalle significativo.

Así que los reguladores de la UE se enfrentan esencialmente a una primera prueba de su valía, es decir, si están dispuestos a intensificar y defender la línea de la ley contra los intentos de la gran tecnología de remodelarla en su imagen del modelo de negocios.

Las leyes de privacidad no son nada nuevo en Europa, pero una aplicación robusta de ellas ciertamente sería una bocanada de aire fresco. Y ahora, al menos, gracias a GDPR, existe una estructura de sanciones para proporcionar incentivos y herramientas, y crear un mercado en torno a litigios estratégicos, con Schrems y noyb a la vanguardia.

Schrems también señala que el pequeño Es menos probable que las startups y las empresas locales puedan utilizar el tipo de tácticas de "tómalo o déjalo" en los usuarios que la gran tecnología puede usar para obtener el consentimiento en función del alcance y el poder de sus plataformas, argumentando. hay una preocupación de competencia que GDPR también debería ayudar a reparar.

"La lucha contra el consentimiento forzado asegura que las empresas no pueden obligar a los usuarios a dar su consentimiento", escribe. "Esto es especialmente importante para que los monopolios no tengan ninguna ventaja sobre las pequeñas empresas".

Crédito de la imagen: noyb.eu

Vende Todito

90 total vistas, 0 hoy

Duplex muestra a Google fallando en el diseño de AI ético y creativo – VendeTodito

tecnologia 10/05/2018

El CEO de Google, Sundar Pichai ordeñó los lamentos de una multitud de desarrolladores de césped en su conferencia de E / S en Mountain View esta semana con una demostración de una función de ayudante de voz en el trabajo que permitirá al AI para hacer llamadas telefónicas en nombre de su propietario humano.

La llamada función 'Duplex' del Asistente de Google se mostró llamando a una peluquería para reservar el corte de pelo de una mujer, y tocar un restaurante para tratar de reservar una mesa, solo para enterarse de que no aceptaba reservas para menos de cinco personas.

En ese momento, la IA cambió de rumbo y preguntó sobre los tiempos de espera, ganando su propietario y controlador, Google, el asegurando que no habrá una larga espera en el momento elegido. Trabajo hecho.

El sistema de voz desplegó señales vocales que suenan humanas, como 'ums' y 'ahs', para hacer que la "experiencia conversacional sea más cómoda", ya que Google la presenta en un blog sobre sus intenciones para la tecnología.

Las voces que Google utilizó para la IA en las demostraciones no fueron tonos robóticos sintetizados sino sonido claramente humano, tanto en los sabores femeninos como masculinos que mostró.

[19659002] De hecho, la pantomima de AI era aparentemente lo suficientemente realista como para convencer a algunos de los humanos genuinos del otro lado de la línea de que estaban hablando con la gente.

En un punto la respuesta del 'mm-hmm' del robot incluso provocó risas apreciativas de un público aficionado a la tecnología que claramente sentía el "chiste".

Pero mientras la multitud aplaudía entusiasmada por la capacidad de Google para hacer que su prototipo llamara al robot, con Pichai esbozando una gran visión de la IA que salvó personas y el tiempo de las empresas el episodio es preocupantemente sugestivo de una compañía que ve la ética como una consideración posterior al hecho.

Una que no permite alterar la trayectoria de su ingenio de ingeniería.

Una consideración que solo parece echar un vistazo a años en el proceso de desarrollo de IA, en la cúspide de un despliegue en el mundo real, que Pichai dijo que llegaría en breve.

Decepción por diseño

"Los experimentos de Google parecen haber sido diseñados para engañar", coincidió el Dr. Thomas King, un investigador en el Laboratorio de Ética Digital del Oxford Internet Institute, discutiendo el demo de Duplex. "Porque su hipótesis principal era '¿puedes distinguir esto de una persona real?' En este caso, no está claro por qué su hipótesis era sobre el engaño y no sobre la experiencia del usuario … No necesariamente tiene que engañar a alguien para que tenga una mejor experiencia de usuario si suena de forma natural. Y si, en cambio, hubieran probado la hipótesis "es mejor esta tecnología que las versiones anteriores o tan buena como una persona que llama", no habrían tenido que engañar a la gente en el experimento.

"En cuanto a si la tecnología en sí es engañosa, Realmente no puedo decir cuál es su intención, pero … aunque no tengan la intención de engañar, pueden decir que han sido negligentes al no asegurarse de que no engaña … Así que no puedo decir que sea definitivamente engañoso. , pero debería haber algún tipo de mecanismo allí para que las personas sepan a qué se refieren. "

" Estoy en una universidad y si vas a hacer algo que involucra el engaño tienes que demostrar realmente hay un valor científico al hacer esto ", agregó, acordando que, como principio general, los humanos siempre deberían ser capaces de saber que una IA con la que interactúan no es una persona.

Porque quién o qué 'interactuando con' formas de cómo interactuamos ', como él lo dijo. "Y si comienzas a difuminar las líneas … entonces esto puede generar desconfianza en todo tipo de interacciones, donde podríamos volvernos más desconfiados y reemplazar innecesariamente a las personas con agentes sin sentido".

No hubo conversaciones éticas que perturbaron la etapa de E / S , sin embargo.

Sin embargo Pichai dijo que Google había estado trabajando en la tecnología Duplex por "muchos años", y llegó a afirmar que la IA puede "entender los matices de la conversación", aunque evidentemente en escenarios muy estrechos, tales como reservando una cita o reservando una mesa o preguntando a una empresa por su horario de apertura en una fecha específica.

"Reúne todas nuestras inversiones a lo largo de los años en la comprensión del lenguaje natural, aprendizaje profundo, texto a voz", dijo.

Lo que estaba profundamente ausente de esa lista, y aparentemente también carente del diseño del experimento tríptico Duplex, tenía la sensación de que Google tiene una apreciación profunda y matizada de las preocupaciones éticas en juego aroun d Las tecnologías de IA que son poderosas y capaces de transmitirse como humanas, reproduciendo así a mucha gente real en el proceso.

Las demostraciones de Duplex fueron pregrabadas, en lugar de llamadas en vivo, pero Pichai describió las llamadas como "reales "- sugiriendo que los representantes de Google no habían llamado a las empresas antes de tiempo para advertirles que sus robots podrían estar llamando.

" Tenemos muchos de estos ejemplos en los que las llamadas no funcionan como se esperaba, pero nuestro asistente entiende la el contexto, el matiz … y manejó la interacción con gracia ", agregó después de emitir el ejemplo de no poder reservar del restaurante.

Así que Google parece haber entrenado a Duplex para ser tremendamente engañoso, es decir, ser capaz de reorientar las expectativas conversacionales descarriladas y aún se hace pasar por humano, una característica que Pichai elogió como 'elegante'.

E incluso si el rendimiento de la IA fuera más irregular en la naturaleza que la demo de Google, sugirió que es claramente el CEO ' El objetivo de la tecnología.

Si bien las IAs del tramposo pueden traer a la mente el icónico Test de Turing, donde los desarrolladores de chatbot compiten para desarrollar un software conversacional capaz de convencer a los jueces humanos que no es artificial, no debería.

Porque la aplicación del La tecnología dúplex no se inscribe en el contexto de una competencia de alto perfil y bien entendida. Tampoco hubo un conjunto de reglas que todos mostraron y acordaron de antemano (al menos hasta donde sabemos, si hubiera alguna regla, Google no los estaba publicitando). Más bien, parece haber liberado a la IA en el desprevenido personal comercial que solo estaba haciendo sus trabajos cotidianos. ¿Puedes ver la desconexión ética?

"La prueba de Turing ha llegado a ser la prueba de si tu software de IA es bueno o no, en función de si puedes diferenciarlo de un ser humano", es la sugerencia de King sobre por qué Google podría haber elegido un truco similar a un escaparate experimental para Duplex.

"Es muy fácil de decir, miren cuán grande es nuestro software, la gente no puede diferenciarlo de un ser humano real, y tal vez ese sea un punto de venta mucho más fuerte que si dices que el 90% de los usuarios prefiere este software al software anterior ", plantea. "Facebook hace pruebas A / B pero eso es probablemente menos emocionante: no va a sorprender a nadie decir que los consumidores prefieren este tono ligeramente más profundo de azul a un tono más claro de azul".

¿Se desplegó Duplex dentro de las condiciones de prueba de Turing? King también señala que es menos probable que se haya llevado a tanta gente, porque, bueno, esos uhs ligeramente ahusados ​​cronometrados pronto habrían sido vistos, con un estilo de valle misterioso.

Ergo, la IA de Google con sabor a AI test 'for Duplex también está amañado a su favor, para potenciar aún más un mensaje de marketing promocional de ida en torno a la inteligencia artificial. Entonces, en otras palabras, diga hola a otra capa de falsedad.

¿Cómo podría Google presentar Duplex de una manera que sería ética? King cree que necesitaría decir por adelantado que es un robot y / o usar una voz apropiadamente sintética para que quede claro inmediatamente para cualquiera que descuelgue el teléfono que la persona que llama no es humana.

"Si tuviera que usar una voz robótica allí también sería menos arriesgado que todas tus voces que estás sintetizando solo representen a una pequeña minoría de la población que habla en 'BBC English' y entonces, quizás en cierto sentido, usar una voz robótica sería incluso menos sesgado. ", Agrega.

Y, por supuesto, no estar al tanto de que Duplex es artificial incorpora todo tipo de otros riesgos de arrastre, como explicó King.

" Si no es obvio que es una voz de robot, existe un riesgo que la gente espere que la mayoría de estas llamadas telefónicas no sean genuinas. Ahora los experimentos han demostrado que muchas personas interactúan con el software de AI que es conversacional como lo harían con otra persona, pero al mismo tiempo también hay evidencia que muestra que algunas personas hacen exactamente lo contrario, y se vuelven mucho más rudimentarias. A veces incluso es abusivo con el software conversacional. Entonces, si interactúas constantemente con estos bots, no serás tan educado, tal vez, como lo harías normalmente, y eso podría tener efectos cuando recibas una llamada genuina que no sabes si es real o no. O incluso si sabes que son reales tal vez la forma en que interactúas con la gente ha cambiado un poco ".

Es seguro decirlo, a medida que los sistemas autónomos se vuelven más poderosos y capaces de realizar tareas que normalmente esperaríamos que un humano hiciera , las consideraciones éticas alrededor de esos sistemas se escalan de forma exponencialmente grande como las aplicaciones potenciales. Estamos empezando.

Pero si los desarrolladores de inteligencia artificial más grandes y poderosos del mundo creen que está bien poner la ética en un segundo plano, los riesgos van a subir y bajar y las cosas podrían ir muy mal. [19659002] Hemos visto, por ejemplo, cómo las plataformas de publicidad microtargetadas han sido secuestradas a escala por los posibles violinistas electorales. Pero el riesgo general en lo que concierne a la IA y las tecnologías de automatización es que los humanos se convierten en ciudadanos de segunda clase frente a las herramientas que se dice que están aquí para ayudarnos.

Pichai dijo la primera, y aún así, como él dijo, experimental el uso de Duplex será para complementar los servicios de búsqueda de Google completando información sobre los horarios de apertura de las empresas durante períodos en los que las horas pueden variar inconvenientemente, como festividades.

Aunque para una empresa en una misión general "organizar la información y haz que sea universalmente accesible y útil "qué es lo que detiene a Google -en el futuro- desplegando una vasta falange de bots telefónicos para llamar y pedirles a los humanos (y sus empresas e instituciones asociadas) todo tipo de experiencia que la compañía pueda extraer e inyectar liberalmente en su multitud de servicios conectados, monetizando la inteligencia extra-humana promovida a través de nuestra atención extra comprometida y los avisos publicitarios a los que sirve junto [19]. 659002]. Durante la redacción de este artículo, nos comunicamos con la línea de prensa de Google varias veces para solicitar que se analice la ética de Duplex con un vocero relevante de la compañía. Pero, irónicamente, o quizás lo suficientemente apropiado, nuestros correos electrónicos escritos a mano recibieron solo respuestas automáticas.

Pichai enfatizó que la tecnología todavía está en desarrollo, y dijo que Google quiere "trabajar duro para hacerlo bien, obtener la experiencia del usuario y la expectativa correcta para las empresas y los usuarios ".

Pero eso sigue siendo la ética como una adición tardía – no donde debería estar: bloqueado en su lugar como la piedra angular del diseño del sistema de IA.

Y esto a la vez cuando la plataforma los problemas de AI alimentados con combustible, como las noticias falsas algorítmicamente cerradas, se han transformado en enormes y feos escándalos globales con implicaciones sociales de gran alcance, ya sea la interferencia electoral o la violencia étnica.

Realmente tienes que preguntarte qué se necesita para sacudir el espíritu de "primero romperlo, luego arreglarlo" de algunos de los principales actores de la industria tecnológica …

La orientación ética relacionada con lo que Google está haciendo aquí con la IA Duplex es realmente bonita claro si te molestas en leerlo, hasta el punto en que incluso los políticos están de acuerdo en fundamentos básicos, como que AI necesita operar sobre "principios de inteligibilidad y equidad", para tomar prestado el fraseo de uno de varios informes políticos que se han publicado sobre el tema en los últimos años.

En resumen, el engaño no es genial. No en humanos Y absolutamente no en las IAs que se supone que nos ayudan.

Transparencia como estándar de IA

La asociación de profesionales técnicos de IEEE presentó un primer borrador de un marco para guiar sistemas de IA éticamente diseñados en la parte trasera de 2016, que incluyó principios generales tales como la necesidad de garantizar que AI respete los derechos humanos, opera de manera transparente y que las decisiones automatizadas son responsables.

En el mismo año, el organismo de estándares BSI del Reino Unido desarrolló un estándar específico: BS 8611 Robot de diseño y aplicación de ética – que nombra explícitamente el engaño de identidad (intencional o no) como una sociedad riesgo, y advierte que tal enfoque eventualmente erosionará la confianza en la tecnología.

"Evite el engaño debido al comportamiento y / o apariencia del robot y garantice la transparencia de la naturaleza robótica", aconseja el estándar de BSI.

También advierte contra la antropomorfización debido al riesgo asociado de malinterpretación, por lo que Los um y ahs de Duplex no solo son malos porque son falsos sino porque son engañosos y engañosos, y por lo tanto conllevan el riesgo de minar la confianza de la gente en su servicio, pero también más ampliamente, en otras personas en general.

"Evite la antropomorfización innecesaria", es la guía general de la norma, con la recomendación adicional de que la técnica se reserve "solo para fines bien definidos, limitados y socialmente aceptados". (Engañar a los trabajadores para que conversen de forma remota con robots probablemente no era lo que estaban pensando)

El estándar también insta a "aclarar la intención de simular el comportamiento humano o no, o el esperado o esperado". Entonces, una vez más, no trates de pasar tu bot como humano; debe dejar muy claro que es un robot.

Para Duplex, la transparencia que Pichai dijo que Google ahora intenta pensar, en esta etapa avanzada del proceso de desarrollo de la IA, habría sido trivialmente fácil de lograr: simplemente podría haber programó al asistente para decir desde el principio: 'Hola, soy un robot que hace una llamada en nombre de Google, ¿está contento de hablar conmigo?'

En cambio, Google eligió priorizar un factor demo 'wow' – de mostrar Duplex tirando la lana sobre los ojos humanos ocupados y confiados – y al hacerlo se mostró muy duro sobre el tema del diseño ético de la inteligencia artificial.

No es un buen aspecto para Google. Ni tampoco una buena perspectiva para el resto de nosotros, que estamos sujetos a los caprichos algorítmicos de los gigantes tecnológicos mientras pulsan los interruptores de control en sus plataformas del tamaño de la sociedad.

"A medida que el desarrollo de los sistemas de IA crece y se llevan a cabo más investigaciones , es importante que los riesgos éticos asociados con su uso se destaquen y se consideren como parte del diseño ", nos dijo Dan Palmer, jefe de fabricación de BSI. "BS 8611 fue desarrollado … junto a científicos, académicos, especialistas en ética, filósofos y usuarios. Explica que cualquier sistema autónomo o robot debe ser responsable, veraz y sin prejuicios.

"La norma plantea una serie de riesgos éticos potenciales que son relevantes para Google Duplex; uno de estos es el riesgo de que las máquinas de IA se vuelvan sexistas o racistas debido a un feed de datos sesgado. Esto surgió prominentemente cuando los usuarios de Twitter influyeron en el chatbot AI de Microsoft, Tay, para emitir mensajes ofensivos.

"Otro tema polémico es si es deseable formar un vínculo emocional con un robot, especialmente si el asistente de voz interactúa con los ancianos o niños. Otras pautas sobre nuevos riesgos que deberían considerarse incluyen: el engaño de robots, la adicción a los robots y la posibilidad de que un sistema de aprendizaje exceda su cometido.

"En última instancia, siempre debe ser transparente quién es responsable del comportamiento de cualquier asistente de voz o robot, incluso si se comporta de manera autónoma. "

Sin embargo, a pesar de toda la orientación ética e investigación que ya se ha producido, y está ahí para la lectura, aquí nuevamente se nos muestra el mismo libro de jugadas de la industria de tecnología aplaudiendo las capacidades de ingeniería en una burbuja brillante, despojada del contexto humano y de la consideración social, y colgada frente a una audiencia acrítica para ver qué tan alto sonarán.

Dejando preguntas importantes sobre la ética de los experimentos con inteligencia artificial de Google y, más ampliamente, sobre la visión principal de la asistencia de inteligencia artificial está tratando de vendernos tan intensamente: colgar y colgar.

Preguntas como cuánta utilidad genuina puede haber para el género s de las aplicaciones de IA que nos está diciendo que todos querremos usar, incluso cuando se prepara para impulsar estas aplicaciones sobre nosotros, porque puede hacerlo, como consecuencia de su gran poder y alcance de plataforma.

Un núcleo 'valle misterioso' La paradoja de ish puede explicar la elección del engaño de Google para su demo Duplex: a los humanos no necesariamente les gusta hablarle a las máquinas. De hecho, a menudo prefieren hablar con otros humanos. Es más significativo que un compañero portador de pulsos registre tu existencia. Entonces, si una IA se revela como un robot, el humano que descolgó el teléfono podría simplemente volver a ponerlo en línea recta.

"Volviendo al engaño, está bien si está reemplazando interacciones sin sentido pero no si está intentando reemplazar las interacciones significativas ", nos dijo King. "Entonces, si está claro que es sintético y no necesariamente se puede usar en un contexto donde la gente realmente quiere que un humano haga ese trabajo". Creo que ese es el enfoque correcto para tomar.

"No solo importa que su peluquero parezca estar escuchándolo, sino que realmente lo están escuchando y que están reflejando algunas de sus emociones. Y para reemplazar ese tipo de trabajo con algo sintético, no creo que tenga mucho sentido.

"Pero al mismo tiempo, si revela que es sintético, no es probable que reemplace ese tipo de trabajo".

Entonces En realidad, la prestidigitación Duplex de Google puede estar tratando de ocultar el hecho de que las IA no podrán reemplazar tantas tareas humanas como a los tecnólogos les parezca. No, a menos que muchas interacciones actualmente significativas carezcan de significado. Que sería un costo humano masivo que las sociedades tendrían que -por lo menos- debatir larga y duramente.

Tratar de evitar que se produzca tal debate pretendiendo que no hay nada ético que ver aquí es, con suerte, no la intención diseñada de Google. .

King también señala que el sistema Duplex es (al menos por ahora) computacionalmente costoso. "Lo que significa que Google no puede y no debería lanzar esto como un software que cualquiera puede ejecutar en sus computadoras hogareñas.

" Lo que significa que también pueden controlar cómo se usa y en qué contextos, y también pueden garantizar que lo hará solo se debe usar con ciertas protecciones integradas. Por lo tanto, creo que los experimentos quizás no sean los mejores, pero la verdadera prueba será cómo lo lanzan, y construirán las garantías que la gente exige en el software ", agrega. 19659002] Además de la falta de protecciones visibles en la demostración de Duplex, también hay -supongo- una curiosa falta de imaginación en la pantalla.

Si Google hubiera sido lo suficientemente atrevido como para revelar su interlocutor robot, podría haber pensado más sobre cómo podría haber diseñado esa experiencia para que sea claramente no humana, sino también divertida o incluso divertida. Piense en la cantidad de vida que se puede inyectar en los personajes de dibujos animados, por ejemplo, que claramente no son humanos, pero son muy populares porque las personas los consideran divertidos y sienten que cobran vida a su manera.

Realmente hace que se pregunte si , en algún nivel fundacional, Google no confía tanto en lo que la tecnología de IA puede hacer como en sus propias habilidades creativas para dar nueva vida a estas experiencias sintéticas emergentes.

VendeTodito

87 total vistas, 0 hoy

El organismo de control del Reino Unido ordena a Cambridge Analytica que renuncie a los datos en el caso de prueba electoral de los Estados Unidos – Vende Todito

tecnologia 05/05/2018

Otro gran avance en la saga de uso indebido de datos personales adjunto a la controvertida consultoría política de Cambridge, Cambridge Analytica, relacionada con la campaña de Trump, que podría arrojar nueva luz sobre cómo la compañía y sus múltiples afiliados adquirieron y procesaron ciudadanos estadounidenses. "Datos personales para construir perfiles en millones de votantes con objetivos políticos.

El organismo de control de datos del Reino Unido, ICO, ha anunciado hoy que ha enviado un aviso de aplicación en SCL Elections, filial de Cambridge Analytica, bajo la Ley de protección de datos de 1998 del Reino Unido.

Se le ordenó a la compañía que renunciara a todos los datos que posee de un académico de los EE. UU. Dentro de los 30 días, con la advertencia de ICO que: "No hacerlo es una ofensa criminal, castigable en los tribunales con una multa ilimitada".

El aviso sigue a una solicitud de acceso a un tema (SAR) presentada en enero del año pasado por el académico con sede en EE. UU., David Carroll después de que sospechó acerca de cómo t La compañía pudo construir perfiles psicográficos de votantes estadounidenses. Y aunque Carroll no es ciudadano del Reino Unido, descubrió que sus datos personales habían sido procesados ​​en el Reino Unido, así que decidió presentar un caso de prueba al solicitar sus datos personales bajo la ley del Reino Unido.

La denuncia de Carroll y la decisión del ICO de emitir un aviso de cumplimiento en apoyo de ello, parece haber allanado el camino para que millones de votantes estadounidenses también soliciten a Cambridge Analytica sus datos (la compañía afirmó tener hasta 7.000 puntos de datos sobre todo el electorado estadounidense, alrededor de 240 millones de personas) así que imagínese la demanda colectiva que podría presentarse aquí …).

The Guardian informa que Cambridge Analytica había tratado de desestimar el argumento de Carroll alegando que no tenía más derechos "que un miembro de los talibanes sentado en una cueva en el lugar más remoto esquina de Afganistán ". El ICO claramente no está de acuerdo.

Cambridge Analytica / SCL Group respondió al SAR original de Carroll en marzo de 2017, pero no quedó impresionado por los datos parciales que le enviaron, que clasificaron sus intereses en una selección de temas (incluidos derechos de armas, inmigración y atención médica). , educación y medio ambiente) pero no explica cómo se calcularon los puntajes.

También enumeró su posible partidismo y propensión a votar en las elecciones de 2016 en EE. UU., nuevamente sin explicar cómo se generaron esas predicciones.

Entonces Carroll se quejó ante el organismo de control de datos del Reino Unido en septiembre de 2017, que comenzó a enviar sus propias cartas a CA / SCL, dando lugar a respuestas insatisfactorias.

"La respuesta de la empresa se negó a responder las preguntas de la OIC y declaró incorrectamente que el Prof. Caroll no tenía derecho legal porque no era ciudadano del Reino Unido ni estaba radicado en este país. El ICO reiteró que esto no era legalmente correcto en una carta a SCL el mes siguiente ", escribe el ICO hoy. "En noviembre de 2017, la empresa respondió, negando que el ICO tuviera jurisdicción o que el Prof. Carroll tuviera derecho legal a sus datos, agregando que SCL" … no esperaba ser más acosada con este tipo de correspondencia "."

] En una declaración enérgica, la comisionada de información Elizabeth Denham agrega:

La compañía se ha negado sistemáticamente a cooperar con nuestra investigación de este caso y se ha negado a responder nuestras preguntas específicas en relación con los datos personales del demandante: qué tenía, de dónde lo sacaban y sobre qué base legal lo tenían.

El derecho a solicitar datos personales que una organización posee sobre usted es una piedra angular en derecho de protección de datos y es importante que el Profesor Carroll y otros miembros del público, comprender qué datos personales tenía Cambridge Analytica y cómo lo analizaron.

Conocemos los últimos informes de los medios sobre el futuro de Cambridge Analytica, pero si no la gente detrás de la compañía decide doblar su operación, una negativa continuada a involucrarse con la ICO potencialmente violará una Notificación de Aplicación y luego se convertirá en un asunto criminal.

Desde mediados de marzo de este año, el nombre de Cambridge Analytica (junto con los nombres de varios afiliados) ha estado en todos los titulares relacionados con un gran escándalo de uso indebido de datos de Facebook luego de que los informes de prensa revelaran detalladamente cómo un desarrollador de aplicaciones usó la estructura API 2014 de la plataforma de medios sociales para extraer y procesar grandes cantidades de datos personales de los usuarios, pasando puntuaciones modeladas psicométricamente sobre los votantes estadounidenses a Cambridge Analytica para fines políticos.

Pero la curiosidad de Carroll sobre qué datos Cambridge Analytica podría contener sobre él es anterior al escándalo que explotó el mes pasado. Aunque los periodistas ya habían planteado preguntas sobre la compañía desde diciembre de 2015, cuando The Guardian informó que la compañía estaba trabajando para la campaña de Ted Cruz, utilizó perfiles psicológicos detallados de los votantes derivados de decenas de millones de datos de los usuarios de Facebook. [19659002] Aunque no fue hasta el mes pasado que Facebook confirmó que hasta 87 millones de usuarios podrían haber malversado sus datos personales.

Carroll, que ha estudiado la industria de la tecnología publicitaria en Internet como parte de su trabajo académico, reconoce que Facebook no es el único fuente de los datos en este caso, decirle al Guardián que espera encontrar una gran cantidad de otras empresas también están implicados en esta turbia economía de datos donde la información personal de las personas se intercambia silenciosamente y se transmite con fines políticos muy cargados, financiados por multimillonarios. 19659002] "Creo que vamos a encontrar que esto va más allá de Facebook y que se están inferyendo todo tipo de cosas sobre nosotros y luego tú con fines políticos ", dijo al periódico.

Bajo una creciente presión política, legal y pública, Cambridge Analytica afirmó estar cerrando esta semana, pero la medida parece más un ejercicio de cambio de marca, como entidad matriz, SCL Group, mantiene una extensa red de empresas y entidades vinculadas. (Tal como uno llamado Emerdata, que se fundó a mediados de 2017 y figura en la misma dirección que SCL Elections, y tiene muchos de los mismos inversores y administración que Cambridge Analytica … Pero presumiblemente aún no ha sido excluido de las redes sociales gigantes 'plataformas publicitarias, como su predecesor.)

Cerrar una de las entidades involucradas en el escándalo también podría ser una táctica para impedir investigaciones en curso, como la realizada por el ICO, como alude a la declaración de Denham, advirtiendo que cualquier incumplimiento de la notificación de ejecución podría dar lugar a un proceso penal contra los propietarios y operadores de la entidad matriz de Cambridge Analytics.

En marzo, funcionarios del ICO obtuvieron una orden para ingresar y buscar en las oficinas de Cambridge Analytica en Londres, removiendo documentos y computadoras para su examen como parte de una investigación más amplia, de un año de duración, sobre el uso de datos personales y análisis por campañas políticas, partidos, compañías de redes sociales y otros actores comerciales. Y el mes pasado, el organismo de control dijo que 30 organizaciones -incluido Facebook- ahora formaban parte de esa investigación.

The Guardian también informa que el ICO ha sugerido a Cambridge Analytica que si tiene dificultades para cumplir con el aviso de aplicación debe entregar las contraseñas de los servidores incautados durante la redada de marzo en su oficina de Londres – planteando preguntas sobre la cantidad de datos que el perro guardián ha podido recuperar de los servidores incautados.

El sitio web de SCL Group no contiene detalles de contacto obvios más allá del perfil de LinkedIn de una empresa. parece estar difunto Pero nos comunicamos con el CEO de SCL, Nigel Oakes, que ha mantenido una presencia pública de LinkedIn, para preguntarle si tiene alguna respuesta al aviso de cumplimiento de ICO.

Mientras tanto, Cambridge Analytica sigue utilizando su cuenta de Twitter pública Para distribuir un flujo de refutaciones y 'hechos' alternativos.

Vende Todito

77 total vistas, 0 hoy

Desenrollar.me para cerrar a usuarios de la UE que dicen que no puede cumplir con GDPR – VendeTodito

tecnologia 05/05/2018

Ponga su mejor cara no sorprendida : Unroll.me, una compañía que, durante años, utilizó la premisa de los servicios de 'gestión de correo electrónico' 'gratuitos' pero no muy útiles para obtener acceso al correo electrónico de las personas Inboxes con el fin de extraer los datos de la inteligencia competitiva y minar polémicamente los conocimientos comerciales adquiridos a la talla de Uber, es dejar de atender a los usuarios en Europa antes de un nuevo régimen de aplicación de protección de datos entrante bajo GDPR, que se aplica desde el 25 de mayo .

En una sección de su sitio web sobre el cierre del servicio regional, la compañía escribe que "lamentablemente ya no podemos admitir usuarios de la UE desde el 23 de mayo", antes de preguntar si un visitante vive en la UE o no .

Hacer clic en "no" no parece hacer nada, pero al hacer clic en "sí" aparece otra pantalla de información donde Unroll.me escribe que este es su "último mes en la UE", porque dice que no podrá cumplir con "todos los GDPR r equities "(aunque no especifica qué partes de la regulación no puede cumplir).

Cualquier cuenta de usuario de la UE existente se eliminará antes del 24 de mayo, agrega:

La UE está implementando nuevas reglas de privacidad de datos, conocidas como Regulación General de Protección de Datos (GDPR). Desafortunadamente, nuestro servicio está destinado a servir a los usuarios en los EE. UU. Debido a que no fue diseñado para cumplir con todos los requisitos de GDPR, Unroll.Me no estará disponible para los residentes de la UE. Esto significa que no podemos servir a los usuarios que creemos que son residentes de la UE, y debemos eliminar cualquier cuenta de usuario de la UE antes del 24 de mayo. Lamentamos mucho no poder ofrecerle nuestro servicio.

Mientras Unroll.me, que es propiedad de Slice Technologies, también afirma en el mismo sitio web que su empresa matriz "elimina información personal" (es decir, después de haber pasado datos personales adjuntos a correos electrónicos comerciales y transaccionales encontrados en las bandejas de entrada de los usuarios) – para "construir un mercado anónimo investigar productos que analizan y rastrean las tendencias del consumidor "- ha sido criticado por no ser transparente acerca de cómo analiza y vende la información personal de las personas.

Y de hecho si se toma la molestia de leer la letra pequeña de la privacidad de Unroll.me La política dice que puede compartir la información personal de los usuarios cómo les plazca, no solo con su entidad matriz (y afiliados directos), sino con cualquier otro 'socio' que elija …

Podemos compartir información personal recolectamos con nuestra compañía matriz, otras compañías afiliadas y socios comerciales de confianza. También compartiremos información personal con proveedores de servicios que prestan servicios en nuestro nombre. Nuestros socios comerciales y proveedores de servicios no afiliados no están autorizados por nosotros para usar o divulgar la información excepto cuando sea necesario para realizar servicios en nuestro nombre o cumplir con los requisitos legales.

Así que no es difícil ver por qué Unroll.me ha decidido debe cerrar la tienda en la UE, dado este enfoque de "entrega de cookies" a datos privados. (En las preguntas frecuentes de GDPR en su sitio, intenta sugerir que necesita más tiempo para cumplir con los requisitos de aplicación; al considerar que la regulación es "tan vasta y adecuadamente integral", simplemente no ha tenido tiempo de ordenar sus patos; el texto final de GDPR se acordó a finales de 2015, y el reglamento se propuso tres años antes, por lo que todas las empresas que manejan datos personales en la UE han tenido años para conocer y prepararse.)

El movimiento también señala las contradicciones en los mensajes de Unroll.me a sus usuarios. Por ejemplo, w le pregunté a la compañía por qué se está cerrando en la UE si, como dice en su sitio web, "respeta su privacidad". No estamos conteniendo la respiración por una respuesta.

La salida del mercado también parece una admisión tácita de que Unroll.me esencialmente ha estado ignorando el régimen de privacidad existente de la UE . Porque GDPR no introduce reglas de privacidad en la región. Más bien, la regulación actualiza y construye sobre un marco de protección de datos que tiene más de dos décadas en este punto, principalmente aumentando la aplicación, con multas por violaciones de privacidad que pueden escalar hasta el 4% del volumen de negocios anual global de una compañía.

De repente, la UE está recibiendo reglas de privacidad con dientes. Y así como de repente Unroll.me decide que debe cerrar la tienda local … And (Y ni es el único …)

Es cierto que GDPR ajusta los requisitos de consentimiento existentes para el procesamiento personal datos, pero solo levemente Las normas actuales de la UE ya exigen que el consentimiento sea otorgado libremente, específico e informado. GDPR agrega que también debe ser un "acto afirmativo claro" y "no ambiguo", junto con exigir que los controladores de datos puedan demostrar que un usuario del servicio cuyos datos personales están siendo procesados ​​ha dado su consentimiento para que eso suceda.

Pero el requisito básico de la UE de "consentimiento otorgado libremente, específico e informado". Lo que sugiere más bien que Unroll.me ya estaba pisoteando los derechos de privacidad de los usuarios de la UE, dado que es la amenaza de grandes multas lo nuevo aquí …

GDPR también apunta a la práctica de enterrar la información que los usuarios necesitan deciden si aceptan o no que sus datos personales se procesen en jerga legal densa y difícil de encontrar y leer.

Y los requisitos de la regulación en ese frente están obligando a las empresas a estar más al tanto de qué es exactamente lo que pretenden hacer con los datos de las personas. (Incluso si algunos gigantes tecnológicos aún intentan manipular socialmente el "consentimiento")

"Consentimiento [under GDPR] también debe ser ahora separable de otros acuerdos escritos, y en una forma inteligible y de fácil acceso, utilizando y lenguaje sencillo ", nos dijo recientemente el experto en protección de datos Jon Baines, asesor de la firma de abogados británica Mishcon de Reya LLP. "Si estos requisitos son aplicados por las autoridades de supervisión de protección de datos y los tribunales, entonces podríamos ver un cambio significativo en los hábitos y prácticas".

Además de los signos de cambios en los procesos comerciales, parece que algunos de los cambios que GDPR puede aceptar crédito (anticipado) para incluir salidas rápidas de mercado por parte de compañías con modelos comerciales que dependen de no estar adecuadamente al frente con sus usuarios.

En el caso de Unroll.me, cualquier usuario fuera de la UE debería preguntarse a sí mismo. si necesitan este "servicio" y / o hacen muchas preguntas a la empresa sobre lo que está haciendo con su información privada; a quién le está vendiendo su información; y para qué utilizan esos datos sus terceros?

VendeTodito

77 total vistas, 1 hoy

Facebook aún no tiene privacidad, dice el ministro alemán – Vende Todito

tecnologia 04/05/2018

El ministro de Justicia alemán ha escrito a Facebook pidiendo a la plataforma que implemente un "mecanismo de control y sanción" interno para garantizar que terceros desarrolladores y otros proveedores externos no puedan usar datos de Facebook de forma abusiva, solicitándolo a ambos monitorear el cumplimiento de terceros con sus políticas de plataforma y aplicar "severas penalidades" por cualquier violación.

La carta, que ha sido publicada en su totalidad en los medios locales, sigue la tormenta de privacidad que ha envuelto a la compañía desde a mediados de marzo cuando el Observer de Londres y el New York Times publicaron nuevas revelaciones que detallaban cómo Cambridge Analytica había obtenido y utilizado información personal de hasta 87 millones de usuarios de Facebook con fines publicitarios políticos.

Escribiendo al fundador y CEO de Facebook Mark Zuckerberg, ministro de justicia Katarina Barley celebra algunos cambios recientes que la compañía ha hecho en torno a la privacidad del usuario, describi Por ejemplo, su decisión de limitar la colaboración con los "distribuidores de datos" como "un buen comienzo".

Sin embargo, ella dice que la compañía necesita hacer más, exponiendo una serie de lo que ella describe como " requisitos básicos "en el área de protección de datos y del consumidor (viñeta a continuación).

También escribe que el escándalo de Cambridge Analytica confirma las críticas de larga data contra Facebook hechas por los datos y los defensores del consumidor en Alemania y Europa, y agrega que sugiere varios pleitos contra las prácticas de datos de la compañía tiene "buena causa".

" Desafortunadamente, Facebook no ha respondido a esta crítica en todos los años o solo de manera insuficiente", continúa (traducida a través del Traductor de Google). " Facebook ha expandido bastante su recolección y uso de datos. Esto se hace a expensas de la privacidad y la autodeterminación de sus usuarios y terceros ".

" Lo que se necesita es que Facebook cumpla con su responsabilidad corporativa y realice un cambio serio ", Dice al final de la carta. " En entrevistas y anuncios, ha declarado que las nuevas regulaciones de protección de datos de la UE son el estándar mundial para la red social. Si Facebook implementa consistentemente esta vista, desafortunadamente, parece cuestionable ", continúa, marcando críticamente la decisión de Facebook de cambiar el estado del controlador de datos de ~ 1.5BN usuarios internacionales este mes para que ya no estén bajo la jurisdicción de la legislación de la UE, antes de agregar: " Por lo tanto, seguiré de cerca las nuevas medidas tomadas por Facebook. "

Desde que las revelaciones sobre el uso de Cambridge Analytica de los datos de Facebook se convirtieron en una privacidad global [19659011] para la compañía esta primavera, la compañía ha revelado una serie de cambios que pretende reforzar la protección de datos en su plataforma.

Aunque, en verdad, muchos de los ajustes que Facebook anunció probablemente ya estaban en marcha – como ha estado funcionando durante meses (si no años) en su respuesta al entrante marco GDPR de la UE, que se aplicará a partir del 25 de mayo.

Sin embargo, muchas de estas medidas se han En general, los expertos en privacidad los critican, argumentan que no van lo suficientemente lejos como para cumplir con GDPR y generarán desafíos legales una vez que se aplique el marco.

Por ejemplo, un nuevo consentimiento informado, anunciado por Facebook el mes pasado, acusado de ser intencionalmente manipulador – y de ir en contra del espíritu de las nuevas reglas, al menos.

Barley retoma estas críticas en su carta, llamando específicamente a Facebook a entregar:

Con el consentimiento, ella enfatiza que bajo GDPR la compañía necesitará obtener el consentimiento para cada uso de datos, y no puede agrupar los usos para tratar de obtener un 'bultos' um 'consent, como ella dice.

Sin embargo, esto es bastante claro exactamente lo que Facebook está haciendo cuando pide a los europeos que opten por su tecnología de reconocimiento facial, por ejemplo, sugiriendo que esto podría ayudar a proteger a los usuarios contra extraños usando sus fotos; y ser una ayuda para los usuarios con discapacidad visual en su plataforma; sin embargo, no hay absolutamente ningún ejemplo específico en el flujo de consentimiento de los usos comerciales a los que Facebook indudablemente pondrá la tecnología.

El ministro también enfatiza que GDPR exige un enfoque de privacidad por defecto, y requiere recopilación de datos para ser minimizado – diciendo que Facebook tendrá que adaptar todas sus operaciones de procesamiento de datos para cumplir.

Cualquier transferencia de datos de "amigos" solo debería tener lugar con consentimiento explícito en casos individuales, continúa (consentimiento que por supuesto no existía en 2014 cuando las API de Facebook permitieron a un desarrollador en su plataforma recolectar datos de hasta 87 millones de usuarios y pasar la información a Cambridge Analytica).

Barley también advierte explícitamente que Facebook no debe crear perfiles ocultos, un problema legal especialmente incómodo Los anunciantes de Facebook también cuestionaron a Zuckerberg sobre el mes pasado.

El anuncio de Facebook esta semana, en su conferencia f8, de un botón Clear History entrante – que dará a los usuarios la capacidad de borrar los datos de navegación pasados ​​que la compañía tiene se reunieron sobre ellos, simplemente subraya las discrepancias aquí, con no usuarios de Facebook rastreados ni siquiera obteniendo este control después de los hechos, aunque los usuarios rastreados tampoco pueden pedirle a Facebook r para rastrearlos en primer lugar.

Tampoco está claro qué hace Facebook con los derivados que obtiene de estos datos personales rastreados, es decir, si esos conocimientos también están disociados de la cuenta de un individuo.

Claro, Facebook podría eliminar un registro web de los sitios que visitó, como un sitio de apuestas o una clínica de salud, cuando presiona el botón, pero eso no significa que va a eliminar todas las inferencias que obtuvo de esos datos (y se agregó al perfil oculto que tiene de usted y su uso para fines de orientación publicitaria).

Es seguro decir que el valor del botón Borrar historial se ve principalmente como PR para Facebook, por lo que la empresa puede señalarlo y afirmar que ofrece a los usuarios otro "control" como estrategia para tratar de desviar las preguntas incómodas de los legisladores (el mes pasado fue tan insensato en un amplio programa en el Congreso, y también ha sido públicamente condenado por el parlamento del Reino Unido).

Le hicimos a Facebook nuestra propia serie de preguntas sobre cómo Clea r El historial funciona, y por qué, por ejemplo, no ofrece a los usuarios la capacidad de bloquear el seguimiento por completo. Después de varios correos electrónicos sobre este tema, durante dos días seguimos esperando que la empresa responda lo que sea que le solicitemos.

El procesamiento de Facebook de datos de no usuarios, recopilados a través de píxeles de seguimiento y complementos sociales en otros sitios populares servicios web, ya tiene Facebook en el agua caliente con algunos reguladores europeos. De acuerdo con GDPR, sin duda enfrentará nuevos desafíos para cualquier manejo sin consentimiento de los datos de las personas, a menos que se replantee radicalmente su enfoque, y lo haga en menos de un mes.

En su carta, Barley también plantea preocupaciones sobre el uso indebido de la plataforma de Facebook para influencia política y manipulación de opinión, diciendo que debe tomar " todas las medidas técnicas y organizativas necesarias para prevenir abusos y posibilidades de manipulación (por ejemplo, a través de cuentas falsas y bots sociales) ", y asegurar que los algoritmos que utiliza sean" objetivos, neutrales y no discriminatorios ".

Ella dice que también quiere que la compañía divulgue el acciones que toma en este frente para permitir una "revisión independiente".

La gran expansión y tamaño de Facebook: su negocio consiste en múltiples plataformas populares vinculadas (como WhatsApp e Instagram), así como la compañía está desplegando su infraestructura de rastreo fuera del sitio a través de Internet para expandir masivamente el alcance de su ecosistema – "pone una presión especial en la privacidad y autodeterminación de los usuarios alemanes y europeos" s ", agrega.

Al momento de escribir, Facebook no había respondido a múltiples solicitudes de comentarios sobre la carta.

Vende Todito

78 total vistas, 0 hoy

Página 1 de 21 2