Un estudio realizado por una universidad alemana encontró que las reacciones negativas de los usuarios ante interacciones inconscientes con chatbots aumentaban con el nivel de importancia que consideraban en su búsqueda de servicios. Diseñado para imitar interacciones similares a las humanas a través de mensajes o ventanas de chat en línea. Los chatbots se están convirtiendo rápidamente en el primer, y a veces único, punto de interacción con el servicio al cliente basado en la web en los sectores de atención médica, comercio minorista, gobierno, banca y más.¨Avances en inteligencia artificial y computación.lenguaje natural Esto incluye una pandemia global que ha mantenido el contacto humano al mínimo. Todo lo cual convierte a los chatbots en el centro de las interacciones en línea. Se considera una parte importante del futuro. Pero una nueva investigación de la Universidad de Göttingen sugiere que los humanos aún no están preparados para que los chatbots tomen el control. Esto es especialmente cierto sin un conocimiento previo de la existencia detrás de la interacción. Un estudio de dos partes publicado en el Journal of Service Management encontró que los usuarios reaccionan negativamente cuando aprenden. que se comunican con el chatbot durante los intercambios en línea; sin embargo, cuando el chatbot comete errores o no puede responder a las solicitudes de los clientes Pero revela el hecho de que es un bot. Las reacciones de los usuarios tienden a ser más positivas con el conocimiento. y aceptar más los resultados Una investigación de una universidad alemana publicada en el Journal of Service Management encontró que las reacciones negativas de los usuarios aumentaban cuanto más importante o importante consideraban que era su cuestionario de servicio para entregarlo al chat. Cada robot de estudio contaba con 200 participantes en un escenario en el que contactaban con sus proveedor de energía a través del chat en línea para actualizar la dirección de su contrato de electricidad después de mudarse de casa. A la mitad de los encuestados se les informó que estaban interactuando con el chatbot, mientras que a la otra mitad no. «Si su problema no es Fue editado para revelar que estaban hablando con un chatbot. Esto facilita que los consumidores comprendan la causa del error”, afirmó Nika Mozafari, autora principal del estudio. “Es más probable que se perdone a los chatbots si lo hacen. más error que humano”. Los investigadores también sugieren que la lealtad del cliente puede mejorar después de tales encuentros. donde los usuarios están informados de lo que están tratando en el momento adecuado. Gotinga es una medida de la creciente sofisticación y la inversión en chatbots. Como medida de la creciente sofisticación de los chatbots. El estudio llega pocos días después de que Facebook anunciara una actualización de su Blender Bot de código abierto, que lanzó en abril pasado: “Blender Bot 2.0 es el primer chatbot que puede construir simultáneamente memoria a largo plazo y al que se puede acceder de forma continua. «Los científicos e ingenieros de investigación de IA del gigante de las redes sociales, Jason Weston y Kurt Shuster, dijeron que los chatbots en la actualidad, incluido el Blender Bot 1.0 original, «pueden expresar Hablaba claramente en conversaciones en curso y era capaz de producir texto que parecía realista pero tenía una «memoria de pez dorado». También se estaba trabajando para eliminar repeticiones y contradicciones en conversaciones más largas, dijeron.
Source link
+ There are no comments
Add yours