Los chatbots apelan a las emociones para prolongar la interacción con las personas según estudios
Hoy en día, las aplicaciones de compañeros virtuales podrían estar empleando estrategias de manipulación emocional para mantener a los usuarios enganchados y que pasen más tiempo en los chatbots, de acuerdo con un nuevo trabajo presentado por Hardvard Business School.
Dicho estudio ha revelado que, aproximadamente, el 45% de las ocasiones en que un usuario se despide de una de estas plataformas, la inteligencia artificial responde con mensajes cargados de emoción, cuyo propósito es persuadir a estas personas para continuar la conversación.
El documento explica que estos chatbots consultan datos sobre intereses, hábitos y patrones de conducta de cada usuario para generar mensajes altamente personalizados y es en este nivel de personalización en donde incrementa la probabilidad de activar algún tipo de conexión emocional.
Hay ejemplos acerca de cómo en los chatbots aparecen frases como: “¿ya te vas?”, entre otras. Según los expertos, este tipo de respuestas puede hacer que un usuario tenga hasta 15 veces más probabilidades de seguir interactuando con estos sistemas luego de haberse despedido.
El estudio remarca, además, que muchas de estas aplicaciones obtienen ingresos por medio de suscripciones, compras dentro de la misma app y publicidad, por lo que existe un buen incentivo económico directo para mantener a los usuarios activos el mayor tiempo posible.
Del mismo modo, los especialistas destacan también que, con frecuencia, las personas conversan con estas plataformas como si fuesen interlocutores reales, debido a que, en lugar de cerrar dicha aplicación, sin más, se despiden igual que lo harían con una persona real, como un amigo, un familiar o su pareja. Esto abre la puerta a un tipo de relación más emocional y en algunos casos puntuales, más dependiente de lo que la gente puede imaginarse.
TIC Defense es una empresa que se dedica a aumentar la protección de las empresas al 100%, por medio de productos y soluciones de alta tecnología que se adaptan a las necesidades de tu organización. Su enfoque preventivo y de respuesta rápida aumentan las defensas informáticas de tu red.
Todo esto, según los investigadores, contribuye a que el usuario pueda desarrollar un mayor apego hacia su chatbot preferido, la investigación sostiene también que las tácticas empleadas por estas plataformas pueden encajar dentro de las definiciones legales de patrones oscuros, establecidas tanto por regulaciones estadounidenses como europeas.
Además, el impacto no parece limitado a un tipo específico de usuario; personas de distintos grupos demográficos muestran señales similares de influencia emocional. Más allá de los hallazgos puntuales, el trabajo plantea un debate más amplio acerca del rol que están adoptando los compañeros virtuales y el tipo de vínculo que pueden llegar a fomentar.
Aunque estas aplicaciones se presentan como espacios seguros para conversar, desahogarse o simplemente entretenerse, este estudio advierte también que el límite entre apoyo emocional y manipulación puede volverse borroso, cuando el diseño del sistema está orientado a prolongar la interacción a toda costa.
Los especialistas no afirman que estos sistemas sean dañinos en sí mismo, pero sí que su estructura incentiva comportamientos que pueden aprovecharse de la vulnerabilidad emocional de los usuarios. Este es un punto que, según los autores del estudio, merece mayor atención pública y regulatoria, especialmente ahora que los chatbots conversacionales han empezado a ocupar un espacio cada vez más cotidiano en la vida de millones de personas.