Peritaje IA

Peritaje de un chatbot

Peritaje de un chatbot

This post is also available in: Inglés

En la literatura tecnológica y científica se pueden encontrar distintas definiciones que identifican lo que es un Chatbot y si introducimos en Google la palabra “chatbot” se muestran más de 23 millones de entradas que nos exponen el estado del arte de esta tecnología, explican que es y para qué sirve, así como herramientas que nos permiten crear nuestro propio chatbot sin prácticamente conocimientos en la materia. Todas estas definiciones identifican el chatbot como un programa software (agente virtual) que conversa, mediante texto o voz, con un usuario/cliente en su propio lenguaje natural (imitar la conversación y el comportamiento humano). Las definiciones más modernas añaden el concepto de agente cognitivo ya que incluyen un componente de conocimiento que le permite anticiparse a las preguntas o acciones del usuario Allison, D. (2012). Seguidamente trataremos algunas cuestiones a tener en cuenta en un Peritaje de un chatbot.

Peritaje de un chatbot

El propósito fundamental de un chatbot es que pueda relacionarse y conversar de manera autónoma con diferentes tipos de usuarios. Pero el estado de la tecnología actual para este cometido dista lejos de una realidad inmediata. Los seres humanos, sus relaciones y comportamientos no se traducen en un mero análisis de contenido de sus palabras en su conversación sino que mantiene una disposición cognitiva relacionada con su experiencia, cultura y valores desde su nacimiento y que organiza la forma como interactúa con los demás y por tanto el modo de comunicarse Watzlawick, P., Bavelas, J. B., & Jackson, D. D. (2011).  Ello conlleva un análisis conversacional Íñiguez-Rueda, L., & Antaki, C. (1994). mucho más profundo que hoy en día no soportan los chatbots. Este hecho es uno de los puntos clave y principal limitación que debe tenerse en cuenta a la hora de implantar un chatbot en la organización fijando objetivos y metas realistas, alineándolas con las expectativas del usuario.

Es en este contexto conversacional donde la satisfacción marca el éxito o fracaso del negocio y por tanto el éxito o fracaso del chatbot, ya que el mismo antropomorfismo implícito de los chatbots puede provocar un efecto negativo de la experiencia del cliente/usuario Brandtzaeg, P. B., & Følstad, A. (2017). Este riesgo inherente a la naturaleza del chatbot podría reducirse con un simple consentimiento informado al comienzo de la conversación, donde el propio chatbot indique que no es un humano, dejando la puerta abierta a una posible actuación de un empleado en el caso de que no pudiera resolver la incidencia, o simplemente no entender lo expresado por el usuario/cliente. Esta simple acción haría que el usuario sea más flexible y rebaje su índice de exigencia en las respuestas y resolución de sus necesidades (confiabilidad percibida).

Del mismo modo, la introducción de un componente emocional (humor, ironía, sarcasmo, comprensión) y memoria contextual (experiencia personalizada) a los chatbots, les hace más atrayentes a los usuarios y mejora la calidad de su experiencia. En la misma línea, no podemos olvidar que se está creando un servicio de interacción conversacional con un usuario/cliente y por lo que sería razonable, tal como constata el estudio de Nicole y Norman Radziwill, N. M., & Benton, M. C. (2017), alinear la calidad del dicho servicio bajo estándares de calidad de usabilidad como la norma ISO9241.

El procesamiento masivo y transformación de datos en información para el chatbot, donde el control queda en manos de algoritmos internos, es otro de los puntos críticos que hay que estudiar y valorar. Dichos algoritmos deben tener en cuenta las restricciones legales de seguridad, privacidad y acceso a los datos e información que procesan. El algoritmo interno debe saber que información puede o no acceder y quien puede o no ver qué tipo de información. Al mismo tiempo, el chatbot debe generar un vínculo de confianza con el usuario, indicando como va a tratar sus datos, que uso se va a hacer de ellos y donde se van a almacenar, cumpliendo legislación referente al uso y tratamiento de datos de índole de carácter personal. Reglamento General de Protección de Datos (“General Data Protection Regulation” o GDPR) que se adoptó el 14 de abril del 2016 que entró en vigor el 25 de mayo de 2018.

Hacer mención también que la introducción de un componente cognitivo en un chatbot lleva consigo riesgos inherentes a la naturaleza de los datos de entrenamiento. Estas técnicas de aprendizaje automático se entrenan con un conjunto de datos que debe ser completo, suficiente, robusto y no sesgado para conseguir una alta fiabilidad del chatbot. Además, deben filtrase los aspectos no éticos inherentes al comportamiento humano que influyan en la toma de decisiones del chatbot.

Algunos puntos clave para evitar un juicio

Por tanto, a la hora de abordar un proyecto de implantación de chatbot se suscita diferentes puntos estratégicos, tanto a nivel funcional como de requerimientos legales, que el no tenerlos en cuenta pueden provocar el fracaso del proyecto. Estos puntos clave pueden evaluarse desde distintos puntos de vista:

Desde el punto de vista del negocio

  • Se debe realizar un estudio previo de viabilidad: Analizar el negocio y determinar si un chatbot realmente es necesario, identificar las ventajas e inconvenientes además de realizar un mecanismo de integración optima dentro de la lógica de negocio de la empresa.
  • Para el éxito del proyecto es necesario establecer metas y objetivos alineados a la estrategia de la empresa y necesidades del cliente. Siempre conociendo el alcance de la tecnología para evitar expectativas no realistas.
  • Los procesos de la empresa deben readaptarse a la nueva innovación tecnológica y por tanto al nuevo modelo de negocio. Liderar el proceso de cambio para que no sea traumático ni para los empleados ni para los usuarios es clave para el éxito del proyecto
  • No podemos olvidarnos que un chatbot está prestando un servicio al usuario. Es por ello, que los chatbots mantiene una responsabilidad legal como prestador de servicios, y por tanto debe cumplir la ley que regula su labor comercial. Por ejemplo, si se Implementa un chatbot para nuevas técnicas de marketing, este estará regulado también por la Ley de Servicios de la Sociedad de la Información y del comercio Electrónico (LSSICE), la ley de Competencia Desleal (LCD), la Ley General de Publicidad (LGP), así como la anteriormente mencionada GDPR.
  • Para proteger la reputación e imagen de marca, ante cualquier acción o respuesta no deseada del chatbot, se debe establecer una acuerdo contractual con el partner que determine las responsabilidades de cada uno en la prestación del servicio.
  • De igual manera, se debe estipular la titularidad de la propiedad intelectual tanto del componente desarrollado como de todos los datos e información que éste genere. Así mismo, es necesario evaluar y evitar la intrusión de la propiedad intelectual o industrial de terceros.
  • La empresa prestadora del servicio debe ofrecer total garantías legales de ciberseguridad ante posibles robos o uso malintencionado del chatbot así como toda la información almacenada, en especial los datos de carácter personal y propiedad intelectual que pueden acarrear graves sanciones a la compañía. Redactar los protocolos de actuación ante posibles brechas de seguridad y las responsabilidades inherentes a sus consecuencias.

Desde el punto de vista del usuario

  • Se debe alinear la calidad del servicio a estándares de usabilidad, como por ejemplo ISO9241
  • Es muy recomendable personalizar la conversación creando un vínculo de confianza con el usuario (saludar, identificar al usuario por su nombre, ser más cercano a las necesidades propias del usuario y no generalista, …).
  • Hoy por hoy es necesario mantener una solución hibrida, dando la posibilidad de conectar con un empleado en el caso de que el chatbot no entienda o sepa resolver las cuestiones planteadas.
  • En todo momento se debe cumplir las expectativas del usuario mediante mecanismos de workarounds, dando alternativas posibles según las intenciones del mismo.
  • EL chatbot debe realizar un análisis contextual de la región de los usuarios para conocer las costumbres, valores y nivel cultural, así como el lenguaje y jerga que utiliza. Y de esta forma evitar posibles respuestas dañinas o malos entendidos (hay que tener en cuenta que todos los usuario ni se comportan igual ni tienen los mismos valores con lo que se comunican de forma diferente).
  • Dado que el chatbot interactúa con el usuario recogiendo datos de carácter personal. El chatbot debe proporcionar un procedimiento de oposición, revocación y modificación del uso y almacenamiento de sus datos personales tal como se establece en la ley GDPR.
  • Es recomendable que se establezca contractualmente las disposiciones de la relación entre empresa y usuario ante posibles daños y responsabilidades de la operativa del chatbot hacia aquellos. En especial los relacionados con el derecho al honor, la intimidad y la propia imagen,
  • En todo momento el usuario deberá saber que está conversando e interactuando con un chatbot y cuál será el uso de los datos que proporcione, así como las políticas de seguridad que salvaguardaran dichos datos.

Desde el punto de vista de la tecnología:

  • Se debe evaluar los algoritmos utilizados por el chatbot y desarrollar protocolos de actuación ante actuaciones no deseadas de los mismos.
  • Los procesos de IA se nutren de datos e información almacenada en sistemas externos. Al mismo tiempo, el trasvase de esta información a través de redes y la comunicación con otros procesos y sistemas suscita la necesidad de evaluar y desarrollar mediadas y políticas de seguridad que cumplan la legalidad vigente, creando mecanismos y políticas de acceso y manipulación a dicha información, ya bien por terceros o por los propios algoritmos. Del mismo modo, deben auditarse y certificarse la seguridad de los sistemas de almacenamiento y de todos aquellos sistemas externos a los cuales el chatbot se comunicará, así como el entorno de ejecución del mismo.
  • Antes de que el chatbot salga al mercado debe estar maduro. Se debe desarrollar procedimientos que detecten posibles errores de programación, identificando y evaluando toda la casuística posible. Es conveniente en ese caso, crear entornos de ensayo con un número reducido de usuarios de diferentes tipos que prueben el chatbot antes de sacarlo al mercado.
  • Se debe evitar la utilización de datos de entrenamientos sesgados, insuficientes o no adecuados para el cometido del chatbot.
  • Los presos de IA no deben ser opacos, la visibilidad y manipulación de los procesos desde sus inicios es un aspecto fundamental para la seguridad y confiabilidad del chatbot. Además este punto permite la flexibilidad de modificación y su escalabilidad.
  • El desarrollo de un chatbot no deja de ser un desarrollo de software y como tal, no puede descuidar la calidad de su modelo de desarrollo, cumpliendo alguno de los estándares de Ingeniería del Software. En el caso de que no existiese, antes de salir al mercado debería auditarse los procesos de su desarrollo encontrando en ellos posibles errores que se hayan cometido en el desarrollo y previniendo futuros fallos en el chatbot.
  • La empresa debe crear protocolos de evaluación periódicos tanto de la seguridad como de la fiabilidad del algoritmo a me dida que éste aprende de su experiencia.

Desde el punto de vista de la sociedad:

  • Los procesos de IA deben estar orientados en la mejora de la sociedad y ser sensibles al medio ambiente. En esta línea, la Comisión Europea ha redactado los ocho principios éticos del uso de la Inteligencia Artificial que deben cumplir las empresas desarrolladoras y prestadoras de servicios con IA en el territorio europeo. Del mismo modo, el estado español ha redactado su propia estrategia respecto a la IA y que debe tenerse en cuenta a la hora de abordar proyectos de IA.

BIBLIOGRAFIA

Allison, D. (2012). Chatbots in the library: is it time?. Library Hi Tech30(1), 95-107.

Brandtzaeg, P. B., & Følstad, A. (2017). Why people use chatbots. In International Conference on Internet Science(pp. 377-392). Springer, Cham

Íñiguez-Rueda, L., & Antaki, C. (1994). El análisis del discurso en psicología social. Boletín de psicología44, 63.

Jonke, A. W., & Volkwein, J. B. (2018). From Tweet to Chatbot–Content Management as a Core Competency for the Digital Evolution. In Digital Marketplaces Unleashed (pp. 275-285). Springer, Berlin, Heidelberg

Kerly, A., Ellis, R., & Bull, S. (2007). CALMsystem: a conversational agent for learner modelling. In International Conference on Innovative Techniques and Applications of Artificial Intelligence (pp. 89-102). Springer, London.

Radziwill, N. M., & Benton, M. C. (2017). Evaluating quality of chatbots and intelligent conversational agents. arXiv preprint arXiv:1704.04579..

Rahman, A. M., Al Mamun, A., & Islam, A. (2017). Programming challenges of chatbot: Current and future prospective. In 2017 IEEE Region 10 Humanitarian Technology Conference (R10-HTC) (pp. 75-78). IEEE.

Serban, I. V., Sankar, C., Germain, M., Zhang, S., Lin, Z., Subramanian, S., … & Rajeshwar, S. (2017). A deep reinforcement learning chatbot. arXiv preprint arXiv:1709.02349.

Shawar, B.A., & Atwell, E. (2007). Chatbots: Are they Really Useful? LDV Forum, 22, 29-49.

Watzlawick, P., Bavelas, J. B., & Jackson, D. D. (2011). Teoría de la comunicación humana: interacciones, patologías y paradojas. Herder Editorial.

Post a Comment

You don't have permission to register