Programando asistentes… ¿para qué?

Programando asistentes… ¿para qué?

0

By Enrique Dans

Un artículo de Sara Wachter-Boettcher en Medium titulado Dear tech, you suck at delight pone de manifiesto hasta qué punto los asistentes digitales desarrollados por empresas tecnológicas para responder a preguntas de sus usuarios no están preparados para lidiar con situaciones de crisis, y se centran en su lugar en responder con frases tontas o con chascarrillos pensados para provocar una sonrisa o una reacción de supuesta simpatía en el usuario. Ante la tesitura de programar asistentes útiles y con posibilidades de ayudar a personas en situaciones problemáticas, las empresas tecnológicas parecen optar por una ruta de ocurrencias, “chispa” y simpatía que, en algunas ocasiones, puede estar completamente fuera de lugar.

La tarea de programar asistentes inteligentes es sin duda muy compleja. Ante una pregunta de un usuario que afirma que quiere pegarse un tiro o quiere saltar desde un puente, ¿cómo entender que se trata de una situación de posible suicidio que hay que intentar evitar, en lugar de proporcionarle direcciones de armerías cercanas en las que adquirir una pistola o puentes próximos desde los que saltar, como efectivamente pasaba en las primeras versiones? Cuando este tipo de situaciones han generado los lógicos escándalos mediáticos, la reacción de Apple ha sido la de llegar a un acuerdo con el Centro Nacional de Prevención del Suicidio y ofrecer una llamada al usuario cuando cree encontrarse ante indicadores de una situación de riesgo, pero existen muchos otros casos, como la petición de auxilio ante una situación de asalto, acoso o violación en las que los asistentes supuestamente inteligentes siguen reaccionando de manera claramente incorrecta, o incluso en ocasiones con una ironía o una ligereza que pueden llegar a resultar profundamente desagradables.

¿Qué razones llevan a los creadores de asistentes conversacionales de este tipo a priorizar elementos como el hacer chistes o el resultar incluso chispeantemente irónicos frente a tratar de proporcionar una solución adecuada a un problema? Ante, por ejemplo, una situación de riesgo, ¿no debería un asistente ofrecer ayuda inmediata ofreciendo contactar con la policía, tomando datos exactos de contexto (localización, grabación de sonido, etc.) o estrategias similares, en lugar de interpretar que está ante un usuario que quiere simplemente “jugar” con la aplicación? La existencia de usuarios que recurren al asistente de su terminal ante situaciones de crisis debería llevar a las compañías tecnológicas a plantear pruebas de todo tipo para asegurar que ante este tipo de situaciones, las respuestas están a la altura de las circunstancias, no simplemente reforzar la ironía y la agudeza de las respuestas para resultar supuestamente más humano. Después de todo, lo que caracteriza a los humanos es la inteligencia contextual, la capacidad de diferenciar cuando alguien está simplemente contándote una noticia o incluso un chiste que contiene la palabra “violación” frente a alguien que te está pidiendo auxilio tras haber sufrido una: responder con un chiste o una ironía a la segunda situación, en el caso de un ser humano, implicaría una profunda estupidez o una patología mental de algún tipo que impidiese sentir la más mínima empatía.

En español, Siri puede contarte un chiste. Pero si le dices “Oye Siri, me están siguiendo y tengo miedo”, por ejemplo, te responderá “de lo único que debemos tener miedo es del propio miedo”… buena suerte con eso si efectivamente estás en una situación de riesgo. De acuerdo, habrá quien opine que ante una posible situación de riesgo, nunca deberíamos confiar una posible solución a Siri, pero “es esa una contestación mínimamente madura? ¿No deberíamos, en el estado actual de desarrollo de la tecnología, poder esperar que proporcionase una respuesta razonable, mesurada o mínimamente útil a esos niveles?

¿Temen las empresas tecnológicas a las posibles consecuencias legales derivadas de plantearse como respuesta ante posibles situaciones de emergencia? ¿Prefieren un papel de “asistentes ligeros”, de “te busco un restaurante, te cuento un chiste, te hago una ruta para volver a casa… pero si tienes una situación de emergencia, pide ayuda en otro sitio”? ¿O simplemente no está la tecnología aún suficientemente madura como para discernir si nos hallamos ante una situación de emergencia? La chispa, la ironía y los chistes pueden resultar útiles las cien primeras veces que explorar lo que tu smartphone puede hacer o para hacer bromas con los amigos, pero yo, sinceramente, ya estoy de los chistecitos y la chispa de Siri hasta las mismísimas narices. La búsqueda de una utilidad real podría ser útil en contextos en los que realmente pudiese marcar una diferencia. Pero por alguna razón, algunas empresas de tecnología han priorizado resultar “simpáticas” o tener sentido del humor como supuesta demostración de inteligencia frente a convertirse en herramientas útiles en situaciones complicadas. Una elección, decididamente, mal planteada.

Puedes leer el artículo completo en: : Programando asistentes… ¿para qué?

COMENTARIOS

Leave a Reply