Hace casi 60 años, Albert Mehrabian pasó a la historia de la psicología y la comunicación con su afamada regla del 7-38-55: tan solo el 7% de la transmisión emocional de la comunicación podemos atribuirla a las palabras, mientras que el 38% se transmite a través del lenguaje paraverbal (tono, pausas, entonación, ritmo de voz) y el 55% restante, a través del lenguaje corporal (mirada, expresiones faciales, gestuales y posturales). De esta manera, a la hora de transmitir determinados mensajes o, más concretamente, de transmitir emociones en los mensajes, la importancia de cómo decimos las cosas es mucho mayor que la importancia de qué cosas decimos.

Con los avances en tecnología y la introducción de bots conversacionales o asistentes virtuales en nuestras vidas de manera cotidiana, estamos expandiendo nuestras interacciones con las máquinas. Numerosos estudios han analizado el impacto de la voz de las computadoras en la percepción y la interacción con los usuarios. Sin embargo, estos estudios son demasiado heterogéneos, centrándose en aspectos muy focalizados en multitud de aspectos y sistemas diversos. Por eso, quizá todavía no estamos preparados para comprender cómo percibimos e interactuamos con la voz, y el cuerpo, de las distintas máquinas.

Hacia unas tecnologías del habla «más humanas»

Bajo esta premisa, investigadores del Instituto de Tecnología de Tokio (Tokyo Tech) y del Centro RIKEN para el Proyecto de Inteligencia Avanzada (AIP) de Japón, han recopilado los hallazgos de varios estudios con la intención de proporcionar un marco que pueda guiar el diseño e investigación futuros sobre las tecnologías del habla. De esta manera, este grupo de investigadores consiguieron observar y mapear patrones para sacar conclusiones sobre las percepciones de los usuarios sobre la voz de los sistemas informáticos en una variedad de contextos de interacción.

Los resultados mostraron que los usuarios antropomorfizaban a los bots con los que interactuaban y preferían interacciones con aquellos en los que su estilo de habla coincidía con su personalidad. Además, descubrieron una clara preferencia por las voces humanas sobre las sintéticas. Por otro lado, la inclusión de elementos como pausas, silencios, muletillas o interjecciones, mejoró la interacción. En general, la encuesta encontró que las personas prefieren las voces humanas, felices y empáticas con tonos más altos. Sin embargo, estas preferencias fueron variadas. Por ejemplo, la preferencia del usuario por el género de la voz cambió con el tiempo de voces masculinas a voces femeninas. La investigación también valoró el efecto del cuerpo del bot, o su forma, descubriendo que los usuarios tendían a percibir mejor a estos cuando estaban representados con cuerpo humano (en lugar de, por ejemplo, un objeto, un diseño abstracto, etcétera) y cuando la voz «coincidía» con dicho cuerpo.

Un extenso estudio al que puedes acceder desde la web de Asociation for Computery Machine y que nos permite vislumbrar cómo debemos diseñar nuestros bots conversacionales si queremos conseguir que nuestros proyectos de interacción virtual con clientes que se basen en el habla acaben siendo un éxito. Porque, al fin y al cabo, el lenguaje y la comunicación son mucho más que palabras entrelazadas.

Anterior

Affiliate marketing: cómo funciona este modelo de captación de leads

Siguiente

Social Media Marketing: cómo crear una estrategia

Foto del avatar

Sobre el autor

Sergio Comuñas

Una década de experiencia en la implementación y consultoría de soluciones tecnológicas para Contact Center.

Te puede interesar