Duplex muestra a Google fallando en el diseño de AI ético y creativo – VendeTodito

[ad_1]

El CEO de Google, Sundar Pichai ordeñó los lamentos de una multitud de desarrolladores de césped en su conferencia de E / S en Mountain View esta semana con una demostración de una función de ayudante de voz en el trabajo que permitirá al AI para hacer llamadas telefónicas en nombre de su propietario humano.

La llamada función 'Duplex' del Asistente de Google se mostró llamando a una peluquería para reservar el corte de pelo de una mujer, y tocar un restaurante para tratar de reservar una mesa, solo para enterarse de que no aceptaba reservas para menos de cinco personas.

En ese momento, la IA cambió de rumbo y preguntó sobre los tiempos de espera, ganando su propietario y controlador, Google, el asegurando que no habrá una larga espera en el momento elegido. Trabajo hecho.

El sistema de voz desplegó señales vocales que suenan humanas, como 'ums' y 'ahs', para hacer que la "experiencia conversacional sea más cómoda", ya que Google la presenta en un blog sobre sus intenciones para la tecnología.

Las voces que Google utilizó para la IA en las demostraciones no fueron tonos robóticos sintetizados sino sonido claramente humano, tanto en los sabores femeninos como masculinos que mostró.

[19659002] De hecho, la pantomima de AI era aparentemente lo suficientemente realista como para convencer a algunos de los humanos genuinos del otro lado de la línea de que estaban hablando con la gente.

En un punto la respuesta del 'mm-hmm' del robot incluso provocó risas apreciativas de un público aficionado a la tecnología que claramente sentía el "chiste".

Pero mientras la multitud aplaudía entusiasmada por la capacidad de Google para hacer que su prototipo llamara al robot, con Pichai esbozando una gran visión de la IA que salvó personas y el tiempo de las empresas el episodio es preocupantemente sugestivo de una compañía que ve la ética como una consideración posterior al hecho.

Una que no permite alterar la trayectoria de su ingenio de ingeniería.

Una consideración que solo parece echar un vistazo a años en el proceso de desarrollo de IA, en la cúspide de un despliegue en el mundo real, que Pichai dijo que llegaría en breve.

Decepción por diseño

"Los experimentos de Google parecen haber sido diseñados para engañar", coincidió el Dr. Thomas King, un investigador en el Laboratorio de Ética Digital del Oxford Internet Institute, discutiendo el demo de Duplex. "Porque su hipótesis principal era '¿puedes distinguir esto de una persona real?' En este caso, no está claro por qué su hipótesis era sobre el engaño y no sobre la experiencia del usuario … No necesariamente tiene que engañar a alguien para que tenga una mejor experiencia de usuario si suena de forma natural. Y si, en cambio, hubieran probado la hipótesis "es mejor esta tecnología que las versiones anteriores o tan buena como una persona que llama", no habrían tenido que engañar a la gente en el experimento.

"En cuanto a si la tecnología en sí es engañosa, Realmente no puedo decir cuál es su intención, pero … aunque no tengan la intención de engañar, pueden decir que han sido negligentes al no asegurarse de que no engaña … Así que no puedo decir que sea definitivamente engañoso. , pero debería haber algún tipo de mecanismo allí para que las personas sepan a qué se refieren. "

" Estoy en una universidad y si vas a hacer algo que involucra el engaño tienes que demostrar realmente hay un valor científico al hacer esto ", agregó, acordando que, como principio general, los humanos siempre deberían ser capaces de saber que una IA con la que interactúan no es una persona.

Porque quién o qué 'interactuando con' formas de cómo interactuamos ', como él lo dijo. "Y si comienzas a difuminar las líneas … entonces esto puede generar desconfianza en todo tipo de interacciones, donde podríamos volvernos más desconfiados y reemplazar innecesariamente a las personas con agentes sin sentido".

No hubo conversaciones éticas que perturbaron la etapa de E / S , sin embargo.

Sin embargo Pichai dijo que Google había estado trabajando en la tecnología Duplex por "muchos años", y llegó a afirmar que la IA puede "entender los matices de la conversación", aunque evidentemente en escenarios muy estrechos, tales como reservando una cita o reservando una mesa o preguntando a una empresa por su horario de apertura en una fecha específica.

"Reúne todas nuestras inversiones a lo largo de los años en la comprensión del lenguaje natural, aprendizaje profundo, texto a voz", dijo.

Lo que estaba profundamente ausente de esa lista, y aparentemente también carente del diseño del experimento tríptico Duplex, tenía la sensación de que Google tiene una apreciación profunda y matizada de las preocupaciones éticas en juego aroun d Las tecnologías de IA que son poderosas y capaces de transmitirse como humanas, reproduciendo así a mucha gente real en el proceso.

Las demostraciones de Duplex fueron pregrabadas, en lugar de llamadas en vivo, pero Pichai describió las llamadas como "reales "- sugiriendo que los representantes de Google no habían llamado a las empresas antes de tiempo para advertirles que sus robots podrían estar llamando.

" Tenemos muchos de estos ejemplos en los que las llamadas no funcionan como se esperaba, pero nuestro asistente entiende la el contexto, el matiz … y manejó la interacción con gracia ", agregó después de emitir el ejemplo de no poder reservar del restaurante.

Así que Google parece haber entrenado a Duplex para ser tremendamente engañoso, es decir, ser capaz de reorientar las expectativas conversacionales descarriladas y aún se hace pasar por humano, una característica que Pichai elogió como 'elegante'.

E incluso si el rendimiento de la IA fuera más irregular en la naturaleza que la demo de Google, sugirió que es claramente el CEO ' El objetivo de la tecnología.

Si bien las IAs del tramposo pueden traer a la mente el icónico Test de Turing, donde los desarrolladores de chatbot compiten para desarrollar un software conversacional capaz de convencer a los jueces humanos que no es artificial, no debería.

Porque la aplicación del La tecnología dúplex no se inscribe en el contexto de una competencia de alto perfil y bien entendida. Tampoco hubo un conjunto de reglas que todos mostraron y acordaron de antemano (al menos hasta donde sabemos, si hubiera alguna regla, Google no los estaba publicitando). Más bien, parece haber liberado a la IA en el desprevenido personal comercial que solo estaba haciendo sus trabajos cotidianos. ¿Puedes ver la desconexión ética?

"La prueba de Turing ha llegado a ser la prueba de si tu software de IA es bueno o no, en función de si puedes diferenciarlo de un ser humano", es la sugerencia de King sobre por qué Google podría haber elegido un truco similar a un escaparate experimental para Duplex.

"Es muy fácil de decir, miren cuán grande es nuestro software, la gente no puede diferenciarlo de un ser humano real, y tal vez ese sea un punto de venta mucho más fuerte que si dices que el 90% de los usuarios prefiere este software al software anterior ", plantea. "Facebook hace pruebas A / B pero eso es probablemente menos emocionante: no va a sorprender a nadie decir que los consumidores prefieren este tono ligeramente más profundo de azul a un tono más claro de azul".

¿Se desplegó Duplex dentro de las condiciones de prueba de Turing? King también señala que es menos probable que se haya llevado a tanta gente, porque, bueno, esos uhs ligeramente ahusados ​​cronometrados pronto habrían sido vistos, con un estilo de valle misterioso.

Ergo, la IA de Google con sabor a AI test 'for Duplex también está amañado a su favor, para potenciar aún más un mensaje de marketing promocional de ida en torno a la inteligencia artificial. Entonces, en otras palabras, diga hola a otra capa de falsedad.

¿Cómo podría Google presentar Duplex de una manera que sería ética? King cree que necesitaría decir por adelantado que es un robot y / o usar una voz apropiadamente sintética para que quede claro inmediatamente para cualquiera que descuelgue el teléfono que la persona que llama no es humana.

"Si tuviera que usar una voz robótica allí también sería menos arriesgado que todas tus voces que estás sintetizando solo representen a una pequeña minoría de la población que habla en 'BBC English' y entonces, quizás en cierto sentido, usar una voz robótica sería incluso menos sesgado. ", Agrega.

Y, por supuesto, no estar al tanto de que Duplex es artificial incorpora todo tipo de otros riesgos de arrastre, como explicó King.

" Si no es obvio que es una voz de robot, existe un riesgo que la gente espere que la mayoría de estas llamadas telefónicas no sean genuinas. Ahora los experimentos han demostrado que muchas personas interactúan con el software de AI que es conversacional como lo harían con otra persona, pero al mismo tiempo también hay evidencia que muestra que algunas personas hacen exactamente lo contrario, y se vuelven mucho más rudimentarias. A veces incluso es abusivo con el software conversacional. Entonces, si interactúas constantemente con estos bots, no serás tan educado, tal vez, como lo harías normalmente, y eso podría tener efectos cuando recibas una llamada genuina que no sabes si es real o no. O incluso si sabes que son reales tal vez la forma en que interactúas con la gente ha cambiado un poco ".

Es seguro decirlo, a medida que los sistemas autónomos se vuelven más poderosos y capaces de realizar tareas que normalmente esperaríamos que un humano hiciera , las consideraciones éticas alrededor de esos sistemas se escalan de forma exponencialmente grande como las aplicaciones potenciales. Estamos empezando.

Pero si los desarrolladores de inteligencia artificial más grandes y poderosos del mundo creen que está bien poner la ética en un segundo plano, los riesgos van a subir y bajar y las cosas podrían ir muy mal. [19659002] Hemos visto, por ejemplo, cómo las plataformas de publicidad microtargetadas han sido secuestradas a escala por los posibles violinistas electorales. Pero el riesgo general en lo que concierne a la IA y las tecnologías de automatización es que los humanos se convierten en ciudadanos de segunda clase frente a las herramientas que se dice que están aquí para ayudarnos.

Pichai dijo la primera, y aún así, como él dijo, experimental el uso de Duplex será para complementar los servicios de búsqueda de Google completando información sobre los horarios de apertura de las empresas durante períodos en los que las horas pueden variar inconvenientemente, como festividades.

Aunque para una empresa en una misión general "organizar la información y haz que sea universalmente accesible y útil "qué es lo que detiene a Google -en el futuro- desplegando una vasta falange de bots telefónicos para llamar y pedirles a los humanos (y sus empresas e instituciones asociadas) todo tipo de experiencia que la compañía pueda extraer e inyectar liberalmente en su multitud de servicios conectados, monetizando la inteligencia extra-humana promovida a través de nuestra atención extra comprometida y los avisos publicitarios a los que sirve junto [19]. 659002]. Durante la redacción de este artículo, nos comunicamos con la línea de prensa de Google varias veces para solicitar que se analice la ética de Duplex con un vocero relevante de la compañía. Pero, irónicamente, o quizás lo suficientemente apropiado, nuestros correos electrónicos escritos a mano recibieron solo respuestas automáticas.

Pichai enfatizó que la tecnología todavía está en desarrollo, y dijo que Google quiere "trabajar duro para hacerlo bien, obtener la experiencia del usuario y la expectativa correcta para las empresas y los usuarios ".

Pero eso sigue siendo la ética como una adición tardía – no donde debería estar: bloqueado en su lugar como la piedra angular del diseño del sistema de IA.

Y esto a la vez cuando la plataforma los problemas de AI alimentados con combustible, como las noticias falsas algorítmicamente cerradas, se han transformado en enormes y feos escándalos globales con implicaciones sociales de gran alcance, ya sea la interferencia electoral o la violencia étnica.

Realmente tienes que preguntarte qué se necesita para sacudir el espíritu de "primero romperlo, luego arreglarlo" de algunos de los principales actores de la industria tecnológica …

La orientación ética relacionada con lo que Google está haciendo aquí con la IA Duplex es realmente bonita claro si te molestas en leerlo, hasta el punto en que incluso los políticos están de acuerdo en fundamentos básicos, como que AI necesita operar sobre "principios de inteligibilidad y equidad", para tomar prestado el fraseo de uno de varios informes políticos que se han publicado sobre el tema en los últimos años.

En resumen, el engaño no es genial. No en humanos Y absolutamente no en las IAs que se supone que nos ayudan.

Transparencia como estándar de IA

La asociación de profesionales técnicos de IEEE presentó un primer borrador de un marco para guiar sistemas de IA éticamente diseñados en la parte trasera de 2016, que incluyó principios generales tales como la necesidad de garantizar que AI respete los derechos humanos, opera de manera transparente y que las decisiones automatizadas son responsables.

En el mismo año, el organismo de estándares BSI del Reino Unido desarrolló un estándar específico: BS 8611 Robot de diseño y aplicación de ética – que nombra explícitamente el engaño de identidad (intencional o no) como una sociedad riesgo, y advierte que tal enfoque eventualmente erosionará la confianza en la tecnología.

"Evite el engaño debido al comportamiento y / o apariencia del robot y garantice la transparencia de la naturaleza robótica", aconseja el estándar de BSI.

También advierte contra la antropomorfización debido al riesgo asociado de malinterpretación, por lo que Los um y ahs de Duplex no solo son malos porque son falsos sino porque son engañosos y engañosos, y por lo tanto conllevan el riesgo de minar la confianza de la gente en su servicio, pero también más ampliamente, en otras personas en general.

"Evite la antropomorfización innecesaria", es la guía general de la norma, con la recomendación adicional de que la técnica se reserve "solo para fines bien definidos, limitados y socialmente aceptados". (Engañar a los trabajadores para que conversen de forma remota con robots probablemente no era lo que estaban pensando)

El estándar también insta a "aclarar la intención de simular el comportamiento humano o no, o el esperado o esperado". Entonces, una vez más, no trates de pasar tu bot como humano; debe dejar muy claro que es un robot.

Para Duplex, la transparencia que Pichai dijo que Google ahora intenta pensar, en esta etapa avanzada del proceso de desarrollo de la IA, habría sido trivialmente fácil de lograr: simplemente podría haber programó al asistente para decir desde el principio: 'Hola, soy un robot que hace una llamada en nombre de Google, ¿está contento de hablar conmigo?'

En cambio, Google eligió priorizar un factor demo 'wow' – de mostrar Duplex tirando la lana sobre los ojos humanos ocupados y confiados – y al hacerlo se mostró muy duro sobre el tema del diseño ético de la inteligencia artificial.

No es un buen aspecto para Google. Ni tampoco una buena perspectiva para el resto de nosotros, que estamos sujetos a los caprichos algorítmicos de los gigantes tecnológicos mientras pulsan los interruptores de control en sus plataformas del tamaño de la sociedad.

"A medida que el desarrollo de los sistemas de IA crece y se llevan a cabo más investigaciones , es importante que los riesgos éticos asociados con su uso se destaquen y se consideren como parte del diseño ", nos dijo Dan Palmer, jefe de fabricación de BSI. "BS 8611 fue desarrollado … junto a científicos, académicos, especialistas en ética, filósofos y usuarios. Explica que cualquier sistema autónomo o robot debe ser responsable, veraz y sin prejuicios.

"La norma plantea una serie de riesgos éticos potenciales que son relevantes para Google Duplex; uno de estos es el riesgo de que las máquinas de IA se vuelvan sexistas o racistas debido a un feed de datos sesgado. Esto surgió prominentemente cuando los usuarios de Twitter influyeron en el chatbot AI de Microsoft, Tay, para emitir mensajes ofensivos.

"Otro tema polémico es si es deseable formar un vínculo emocional con un robot, especialmente si el asistente de voz interactúa con los ancianos o niños. Otras pautas sobre nuevos riesgos que deberían considerarse incluyen: el engaño de robots, la adicción a los robots y la posibilidad de que un sistema de aprendizaje exceda su cometido.

"En última instancia, siempre debe ser transparente quién es responsable del comportamiento de cualquier asistente de voz o robot, incluso si se comporta de manera autónoma. "

Sin embargo, a pesar de toda la orientación ética e investigación que ya se ha producido, y está ahí para la lectura, aquí nuevamente se nos muestra el mismo libro de jugadas de la industria de tecnología aplaudiendo las capacidades de ingeniería en una burbuja brillante, despojada del contexto humano y de la consideración social, y colgada frente a una audiencia acrítica para ver qué tan alto sonarán.

Dejando preguntas importantes sobre la ética de los experimentos con inteligencia artificial de Google y, más ampliamente, sobre la visión principal de la asistencia de inteligencia artificial está tratando de vendernos tan intensamente: colgar y colgar.

Preguntas como cuánta utilidad genuina puede haber para el género s de las aplicaciones de IA que nos está diciendo que todos querremos usar, incluso cuando se prepara para impulsar estas aplicaciones sobre nosotros, porque puede hacerlo, como consecuencia de su gran poder y alcance de plataforma.

Un núcleo 'valle misterioso' La paradoja de ish puede explicar la elección del engaño de Google para su demo Duplex: a los humanos no necesariamente les gusta hablarle a las máquinas. De hecho, a menudo prefieren hablar con otros humanos. Es más significativo que un compañero portador de pulsos registre tu existencia. Entonces, si una IA se revela como un robot, el humano que descolgó el teléfono podría simplemente volver a ponerlo en línea recta.

"Volviendo al engaño, está bien si está reemplazando interacciones sin sentido pero no si está intentando reemplazar las interacciones significativas ", nos dijo King. "Entonces, si está claro que es sintético y no necesariamente se puede usar en un contexto donde la gente realmente quiere que un humano haga ese trabajo". Creo que ese es el enfoque correcto para tomar.

"No solo importa que su peluquero parezca estar escuchándolo, sino que realmente lo están escuchando y que están reflejando algunas de sus emociones. Y para reemplazar ese tipo de trabajo con algo sintético, no creo que tenga mucho sentido.

"Pero al mismo tiempo, si revela que es sintético, no es probable que reemplace ese tipo de trabajo".

Entonces En realidad, la prestidigitación Duplex de Google puede estar tratando de ocultar el hecho de que las IA no podrán reemplazar tantas tareas humanas como a los tecnólogos les parezca. No, a menos que muchas interacciones actualmente significativas carezcan de significado. Que sería un costo humano masivo que las sociedades tendrían que -por lo menos- debatir larga y duramente.

Tratar de evitar que se produzca tal debate pretendiendo que no hay nada ético que ver aquí es, con suerte, no la intención diseñada de Google. .

King también señala que el sistema Duplex es (al menos por ahora) computacionalmente costoso. "Lo que significa que Google no puede y no debería lanzar esto como un software que cualquiera puede ejecutar en sus computadoras hogareñas.

" Lo que significa que también pueden controlar cómo se usa y en qué contextos, y también pueden garantizar que lo hará solo se debe usar con ciertas protecciones integradas. Por lo tanto, creo que los experimentos quizás no sean los mejores, pero la verdadera prueba será cómo lo lanzan, y construirán las garantías que la gente exige en el software ", agrega. 19659002] Además de la falta de protecciones visibles en la demostración de Duplex, también hay -supongo- una curiosa falta de imaginación en la pantalla.

Si Google hubiera sido lo suficientemente atrevido como para revelar su interlocutor robot, podría haber pensado más sobre cómo podría haber diseñado esa experiencia para que sea claramente no humana, sino también divertida o incluso divertida. Piense en la cantidad de vida que se puede inyectar en los personajes de dibujos animados, por ejemplo, que claramente no son humanos, pero son muy populares porque las personas los consideran divertidos y sienten que cobran vida a su manera.

Realmente hace que se pregunte si , en algún nivel fundacional, Google no confía tanto en lo que la tecnología de IA puede hacer como en sus propias habilidades creativas para dar nueva vida a estas experiencias sintéticas emergentes.

[ad_2]

VendeTodito