Tanto los mensajes que escriben los usuarios, como lo que responde un asistente conversacional empresarial, deben estar sujetos a la moderación automática en los chatbots para evitar que las conversaciones se vuelvan tóxicas y se deje de lado la educación.
Los chatbots para empresas, ya se configuran, de hecho, para que hablen con un determinado tono, el cual se ajusta al tipo de negocio y a la forma de comunicarse que normalmente tiene la empresa.
Pero siempre hay y habrá clientes mal educados, o que se dejan llevar por el enfado, y lo último que queremos es que los asistentes conversacionales para empresas "entren al trapo", respondiendo mal, o asimilando esa forma de comunicación como algo normal.
Al fin y al cabo, los chatbots para ofrecer atención personalizada a tus clientes están siempre aprendiendo, pero como no queremos que aprendan malas prácticas, en este artículo, vamos a analizar qué es y cómo funciona la moderación automática en los chatbots para empresas.
¿Qué es la moderación automática en los chatbots?
¿Qué hace un chatbot cuando recibe un mensaje cargado de insultos o una petición fuera de lugar? Pues depende de cómo hayan programado su respuesta, pero hay una capa intermedia que revisa el contenido antes de que el bot responda, que es la moderación automática.
Cuando una empresa implementa un chatbot para mejorar la atención al cliente, el sistema recibe muchas consultas al día, y la mayoría de ellas son normales, sin embargo, otras contienen groserías, intentos de suplantación o enlaces peligrosos, así que la moderación automática revisa cada una en milésimas de segundo.
Si encuentra palabras de la lista negra, o estructuras sospechosas, activa una respuesta neutral, o simplemente corta la comunicación. Así protege a la empresa, pero también a los usuarios que podrían toparse con mensajes inapropiados generados por terceros.
En realidad, este sistema lleva años usándose en foros y redes sociales, pero en los chatbots de IA conversacional tiene una función extra, que es evitar que el bot aprenda malas conductas, porque muchos chatbots modernos entrenan con conversaciones reales, y si un interlocutor insulta repetidamente, el bot podría asimilar esos patrones y reproducirlos.
Pero el poner reglas automáticas tiene sus límites, puesto que el contexto de una conversación real se escapa a una lista de palabras prohibidas, ya que se puede ursa la ironía, o un insulto disfrazado de cortesía.
Por eso, al crear el chatbot que tu empresa necesita, no se puede confiar ciegamente en la automatización, hay que combinarla con supervisores humanos que revisen una muestra de las conversaciones bloqueadas y ajustan las reglas y la configuración.
¿Por qué un chatbot necesita moderar las respuestas y las entradas del usuario?
Si un chatbot responde cualquier cosa sin ningún tipo de filtro, realmente no estará cumpliendo con la función para lo que fue creado, y seguramente, será de hecho, bastante negativo para la empresa como herramienta.
Por eso, la moderación tiene dos caras, donde una mira hacia el aspecto interno, es decir, hacia lo que el bot va a decir, mientras que la otra mira hacia lo externo, o hacia lo que recibe de la persona que escribe, y por supuesto, ambas son necesarias para que la conversación no se convierta en un problema.
En el caso de las respuestas, al entrenar un chatbot con los datos de tu empresa, este tiene acceso a una base de conocimiento del negocio, puesto que sabe los datos de los clientes, los detalles de los pedidos, o información interna de una empresa.
Así que si no se modera su propia salida de texto, podría filtrar información personal y privada, algo que se evita programando reglas que detectan ciertos patrones antes de que el bot escriba su mensaje. Así, si el bot está a punto dar información confidencial, el sistema bloquea esa frase y la cambia por algo genérico, para proteger la privacidad sin que el usuario lo note.
El otro lado de la moneda es la entrada del usuario, porque la gente escribe cada cosa que daría para muchas anécdotas, e algunos simplemente insultan o escriben textos larguísimos sin sentido. Un chatbot sin moderación procesaría todo eso como si fuera una petición legítima, así que la moderación automática detecta esas entradas y las descarta antes de que lleguen al motor de respuestas.
¿Cómo detecta un chatbot mensajes ofensivos o inapropiados?
Un chatbot detecta un insulto, o un mensaje malicioso, aplicando una combinación de métodos que van desde lo más simple hasta sistemas entrenados con miles de ejemplos reales, y aunque ninguno es perfecto, la verdad es que juntos forman una protección bastante fiable.
El primer filtro, el más básico, consiste en una lista negra de palabras y expresiones, donde el programador le dice al bot lo que no puede tolerar, y cada mensaje que llega, el sistema lo trocea en palabras y las compara con esa lista.
De esta forma, si encuentra una palabra vetada, el bot activa el protocolo de bloqueo, siendo un método que funciona rápido y gasta pocos recursos, pero tiene un problema obvio, que es que un mismo insulto se puede escribir de muchas formas diferentes, además de que se pueden usar espacios, o números, para camuflarlo.
Por eso los chatbots modernos añaden una segunda capa que observa los patrones, no las palabras sueltas, los cuales utilizan modelos de lenguaje entrenados con conversaciones etiquetadas por humanos. Así, el bot aprende a reconocer la estructura de una frase malsonante aunque cambien las palabras.
Luego hay un truco más fino, que es la detección de intenciones encubiertas, puesto que en muchas amenazas, la frase no incluye insultos directos. Sin embargo, el chatbot detecta una amenaza velada. ¿Cómo lo sabe? Porque el sistema asocia ciertas construcciones gramaticales con deseos de daño, y aunque no entiende el significado real, reconoce que esa estructura aparece a menudo antes de que una conversación se vuelva tóxica.
Como ves, la moderación automática en los chatbots es totalmente necesaria para sacar el máximo provecho a estas herramientas, así que si quieres saber cómo podemos ayudarte a implementarla, contacta con nosotros.