Peritaje IA

Sistemas Toma de Decisión

DESGRANANDO LA INTELIGENCIA ARTIFICIAL I – Sistemas para la Toma de Decisión en la empresa

This post is also available in: Inglés

Si bien la Inteligencia Artificial (IA) es un concepto global donde concurren diferentes técnicas y tecnologías, se puede encontrar puntos en común a todos ellos, como por ejemplo la fase de Ciencia de Datos, necesario en todos los procesos y técnicas de la IA. Siendo en algunos casos la Ciencia de Datos el componente inteligente del sistema, dando cuenta del tratamiento inteligente que hacen éstas de los datos y su transformación a conocimiento. Siendo esta fase fundamental para la obtención de una alta fiabilidad en la toma de decisiones con o sin intervención humana. Esta nueva ciencia de datos y su evolución ha permitido el salto y la adopción de la IA por el tejido productivo dando la posibilidad de manejar y procesar grandes volúmenes de datos heterogéneos provenientes de diferentes fuentes. Este hecho ha permitido no tan sólo potenciar el uso de la IA en la empresa y con ello la mejora de su sistema productivo y la fiabilidad en la toma de decisiones. Sino la creación de nuevas carreras profesionales, investigaciones, patentes y startups predestinadas a transformar la sociedad y el mundo laboral tal y como lo conocemos.

Esta nueva Ciencia de Datos e IA surge en un momento clave donde confluyen varios aspectos destacados que favorecer su nacimiento y adopción por parte de las empresas. Por un lado, un nuevo cambio de pensamiento y paradigma estratégico empresarial donde el dato, la información y el conocimiento pasa a ser uno de los activos más importantes de las empresas en la toma de decisiones. La necesidad de la transformación digital para optimizar recursos, aprender de sus errores, gestionar los riesgos adelantándose a cualquier eventualidad y aprovecharse de las economías de escala para mejorar su posicionamiento en el mercado. Y por otro lado, las fuertes limitaciones de la tecnología convencional casi sin capacidad para gestionar el gran volumen de datos de una sociedad en red donde cada vez existen más dispositivos y sistemas electrónicos conectados. Dando pie al surgimiento de nuevas técnicas y tecnologías de procesamiento y transformación de datos a conocimiento que permiten a las empresas mejorar su sistema productivo y la toma de decisiones.

Para identificar donde se enmarca esta nueva Ciencia de Datos en las empresas y así poder visualizar el ciclo de vida de los nuevos proyectos de transformación digital junto a la IA podemos identificar qué tipos de sistemas de toma de decisiones persisten actualmente y cuál va a ser su evolución y tendencia.

En este sentido podemos encontrar por un lado los Sistemas Descriptivos los cuales nos proporcionan una fotografía veraz de lo que está ocurriendo en la actualidad y porqué y cómo se ha llegado a ese estado. En este tipo de sistemas, son el Business Intelligence (BI) y la Analítica Retrospectiva y Descriptiva las primeras técnicas empleadas para este cometido que han permitido la penetración de los sistemas inteligentes de toma de decisión en el seno de las compañías. Estas técnicas se encargan de proporcionar una instantánea actual de la empresa. Identifican que ha pasado y cuál es el estado actual de la empresa favoreciendo el estudio de las estrategias establecidas en el pasado y como han afectado a la consecución de los objetivos y metas marcadas. Nos facilitan un cuadro de mando donde se visualizan las variables estratégicas e indicadores clave dentro del negocio y cuál ha sido su evolución, dando visibilidad a lo que está ocurriendo.

Dentro de los sistemas de Business Intelligence, nos encontramos los Sistemas de Soporte a la toma de Decisiones (DSS), los Sistemas de Información Ejecutiva (EIS) o Cuadros de Mando Integral (BSC). Estos sistemas suelen utilizar BD más complejas como es el DatataWhereHouse (DWH) con datos estructurados y procesados provenientes de diferentes fuentes como CRM o ERPS. O base de datos más pequeñas y específicas para una línea de negocio concreta como es el DataMart, sobre las que se realizan agregaciones y cálculos estadísticos simples, como medias, modas etc. Suelen utilizarse para la visualización de los indicadores clave del negocio sobre la base de lo que ha pasado y está pasando, facilitando la toma de decisiones mediante sistemas OLTP y OLAP. Estos sistemas corresponden a más del 80% de los sistemas de toma de decisión presentes en la mayoría de las empresas y suelen ser las herramientas más utilizadas por los CEO´s para identificar si una determinada estrategia tuvo o no éxito y cuáles fueron las causas de su éxito o fracaso, aportando un gran soporte a la toma de decisiones. En estos sistemas, los datos, su captura, almacenamiento y procesado toma una gran relevancia y podemos identificarlo como el inicio de la Ciencia de Datos. Siendo el proceso de ETL (extract- transform-load) el cual marca las fases de tratamiento e integración de los datos en un único servidor DWH. Pero estos sistemas poseen grandes limitaciones a la hora de trabajar con grandes volúmenes de datos, aplicar analíticas avanzadas o visualizar dinámicas y tendencias de negocio futuro.

Podemos identificar la diferencia entre BI y Ciencia de datos no tan sólo por el volumen de datos con los que trabaja el último sino por la estrategia de análisis de datos. Donde, el BI se centra tan sólo en un análisis estático de situación retrospectivo o descriptivo obteniendo informes o cuadros de mando mientras que la Ciencia de Datos acoge lo que se denomina Data analytics o Business Analytics donde se utilizan algoritmos y modelos estadísticos dinámicos, creados por la ciencia de datos, para mostrar las tendencias y posibles situaciones futuras, denominándose analítica predictiva o prescriptiva con márgenes de error mucho menores al trabajar con grandes volúmenes de datos. Esta última estrategia suele también denominarse analíticas avanzadas respecto a la analíticas simples que utiliza el BI.  Si bien el BI está avanzando en la línea de aplicabilidad de los servicios en nube, permitiendo la descentralización y la democratización de los datos, la información y el conocimiento generado; la distribución de las cargas de trabajo; la posibilidad de integrar la analítica de forma instantánea en los procesos de análisis. No deja de ser un mero estudio de la situación del negocio sin identificar patrones, clasificaciones, segmentación o posibles conocimiento oculto entre los datos.

Por tanto, las tecnologías de Big Data y el uso inteligente de los datos mediante técnicas como Data Minning, Machine Learning o Deep Learning, pueden reconocerse como una evolución de los sistemas DDS y las herramientas de BI. Los cuales son capaces de trabajar con grandes volúmenes de datos de forma eficiente y rápida en espacios cortos de tiempo. Y utilizar este volumen de datos no tan sólo para describir y gestionar el conocimiento pasado o momento actual sino también poder diagnosticar el por qué ha ocurrido algo o predecir situaciones que enriquezcan la toma de decisiones sobre la base de qué podría pasar y que deberíamos hacer, donde los sistemas tradicionales Business Intelligence y DatataWhereHouse no eran capaces de actuar. Esta evolución ha permitido a las empresas mejorar sus estrategias y toma de decisiones, conocer mejorar a sus clientes y por tanto sus procesos de fidelización, las tendencias y peculiaridades de su negocio, optimizar sus recursos y procesos internos o aumentar la calidad de sus procesos de marketing, sus ventas y productos. Una de las particularidades que ha permitido su penetración en el mercado ha sido su alta capacidad de aprendizaje, pudiendo ser utilizados en prácticamente todos los tipos de negocio. La utilización de aprendizaje automático facilita la creación de herramientas genéricas, las cuales pueden ser utilizadas para resolver diferentes tipos de problemas en distintos ámbitos siempre que poseamos la cantidad y calidad de datos necesaria para su entrenamiento.

En el espectro de identificar el por qué ha ocurrido cierta situación e incluso poder llegar a predecir contingencias futuras, nos encontramos las técnicas de DataMining que se encargan de encontrar patrones, asociaciones y modelos sobre un gran volumen de datos históricos estructurados, en los cuales aplicar un determinado proceso de extracción y análisis de datos, mediante técnicas computacionales y algorítmicas o métodos de las matemáticas aplicadas como las técnicas estadísticas y de optimización, tal que podamos obtener e interpretar la información y el conocimiento relevante necesario que nos permita con cierta certeza identificar el porqué de ciertas situaciones, extrapolando sus conclusiones a posibles situaciones futuras e inferir diferentes actuaciones proclives y más realistas sobre los objetivos de negocio marcados. Dentro de los métodos o modelos más utilizados nos encontramos las técnicas de clustering (K-means o K-NN), de agrupaciones y reducción de variables mediante métodos de PCA, de clasificación mediante arboles de decisión, detección de anomalías mediante métodos de t-statistics, generación de reglas por detección de asociaciones y dependencias entre los datos, secuenciación mediante análisis de series temporales para identificar estados del proceso o extraer información de posibles desviaciones,  etc. Siendo los sistemas híbridos, los cuales actúan mediante la superposición de diferentes técnicas las que nos proporcionan una mejor fiabilidad de los resultados. Ejemplos de problemas donde suelen utilizarse estas técnicas y métodos es en la clasificación, tipificación o segmentación de clientes, análisis de riesgos, detección de fraude, mejorar las campañas de marketing, identificar los gustos y actuaciones de nuestros clientes favoreciendo y mejorando los productos y servicios ofertados e incluso encontrar nuevos nichos de negocio. Podemos identificar por ejemplo, el estado del paciente ateniendo a los análisis efectuado. También nos proporcionan mecanismos para el tratamiento y la gestión de stock de forma más eficiente, control de flotas de transporte y logística, mantenimiento preventivo de maquinaria. A nivel de la sociedad nos facilitan herramientas de estudio para identificar los hábitos de uso y consumo, por ejemplo los consumos eléctricos y su variabilidad, detección y previsión de plagas y enfermedades, etc. Estos sistemas predictivos, nos determinan que podría suceder con cierta certeza o probabilidad sino que nos ofrecen la información o conocimiento de cómo mejorar nuestra situación con posibles acciones para direccionar nuestra estrategia hacia una situación óptima, maximizando aquellos indicadores y variables relevantes del modelo que conduzcan a la consecución de nuestros objetivos. Por otro lado, también nos permite adelantarse a posibles fallos que el sistema infiere como probables mejorando de esta forma la eficacia y fiabilidad del sistema de IA.

Si bien, las técnicas avanzadas de DataMining pueden ser una buena aproximación de análisis de tendencia y perfeccionamiento de la misma, son las técnicas de Aprendizaje Automático o Machine Learning las que nos proporcionan todo el potencial necesario para inferir y crear nuevo conocimiento a partir de la información ya analizada. Por tanto, estas técnicas además de utilizar la información que tenemos almacenada y procesada, aprende a medida que se incluye un nuevo conjunto de datos, extrayendo conjeturas de las posibles actuaciones y modificaciones de estas tendencias en futuros inmediatos. Podemos identificar estas técnicas como una evolución por una parte de los sistemas expertos, en donde se utiliza el conocimiento de expertos humanos en un determinado dominio de negocio para crear el componente cognitivo (pautas de actuación o conocimiento procedural además del declarativo) del sistema, lo que les permite imitar el proceso de razonamiento humano de forma autónoma. Y por otro lado, de las técnicas de inferencia estadísticas, como son las técnicas heurísticas, las cuales tienen limitaciones intrínsecas a las propias restricciones de sus hipótesis de partida.

Entre las técnicas de Aprendizaje Automático más utilizadas nos encontramos: Árbol de decisiones de aprendizaje; Aprendizaje de reglas asociadas; Redes neuronales artificiales la cual ha generado una nueva técnica denominada Deep Learning que está desbancando al Machine Learning; Programación lógica inductiva; Agrupamiento; Redes bayesianas; Aprendizaje reforzado; Algoritmos genéticos; Aprendizaje automático basado en reglas; y el Aprendizaje de sistemas clasificadores. Dentro de estas técnicas podemos encontrar diferentes modelos predictivos como son: Método grupal de gestión de datos; Naïve Bayes; Árboles de Clasificación y Regresión; Redes neuronales; Mínimos cuadrados ordinarios; Modelos lineales generalizados; y/o Regresión logística.

 Estas técnicas de Machine Learning se pueden agrupar las técnicas de aprendizaje supervisado y no supervisado. Dentro del aprendizaje supervisado tenemos un conjunto de muestras sobre las que se conoce su respuesta. Atendiendo a este conjunto de muestras es capaz de dar solución a un conjunto de datos y nuevas situaciones. Suelen trabajar como algoritmos de clasificación (categóricas) y regresión (numéricas) como los mencionados anteriormente: clasificador bayesiano; regresión logística o por mínimos cuadrados; y Arboles de decisión. Dada su naturaleza en este tipo de aprendizaje es necesario la intervención de un experto para dar solución al conjunto de datos previo de entrenamiento. Por otro lado, el aprendizaje no supervisado no posee un conjunto de datos de muestra sino que por métodos exploratorios agrupa el conjunto de datos en busca de un conjunto de asociaciones u organización de los mismos entre los cuales existe un grado de correlación determinada.

Y por último se encuentran los sistemas prescriptivos, son aquellos en los que la toma de decisiones es automática y se ejecuta por medio de un sistema autónomo sin intervención humana. Suelen utilizarse modelos de optimización multivariable que buscan la solución óptima entre varias posibles. Por lo general suelen trabajar con técnicas de Deep Learning y redes neuronales que se reconfiguran cada vez que generan u obtienen nueva información y detectan posibles soluciones o fallas. Ejemplos de aplicación pueden ser los coches autónomos, las armas letales autónomas o dentro de la industria 4.0 los robots situados en la línea de montaje que toman sus propias decisiones acorde a las necesidades de calidad del producto o situaciones específicas previamente establecidas como por ejemplo evitar posibles colisiones con los brazos robots, predecir cuellos de botella, realizar parones de emergencia y tomar las actuaciones para evitar que ocurra. Por lo general, y dado los graves problemas éticos que están generando este tipo de sistemas, estos sistemas se aplican cuando sus actuaciones no afectan directamente sobre el ser humano. Tomándose como meros recomendadores de posibles actuaciones, siendo el experto humano el que decida en última instancia que actuación tomar y siendo este experto el responsable último de las consecuencias de dichas actuaciones. Es por ello por lo que los coches autónomos están en entredicho y soportados por una alta regularización que se está construyendo sobre la marcha, acorde a la evolución de dicha tecnología y las situaciones generadas en sus pruebas. Otro ejemplo es la actuación de estos tipos de sistemas en el ámbito judicial. Se están creando sistemas de soporte a los abogados y jueces, capaces de procesar rápidamente grandes cantidades de información de juicios y sentencias ya ejecutadas para la toma de decisiones.  Hoy por hoy es el abogado o el juez quien toma la decisión final dejándose aconsejar por estos sistemas que facilitan su labor y acortan los tiempos de respuesta.

info@peritaje.ai

911277300

Expertos en auditoria, peritaje y dirección de proyectos de inteligencia artificial.

Post a Comment

You don't have permission to register