Software analítico: valor de una elección adecuada


    Por Mario Lia

    La necesidad de analizar datos no es una novedad. La gente de las empresas y toda clase de organización ha estado haciéndolo por años. Para ello se han utilizado desde planillas de cálculo a herramientas de Business Intelligence (BI), paquetes de software estadístico y otros; algunos propietarios o de un proveedor determinado y otros que vienen del mundo Open Source.
    Las aplicaciones más frecuentes las vemos en los procesos de marketing, finanzas, prevención de fraude, estudios sociológicos y políticos, entre otros. En un principio, las organizaciones adquirieron o adoptaron soluciones puntuales para sus diferentes departamentos o procesos. Los conjuntos de datos utilizados, ya fueran de fuente interna como externa, eran acotados y su almacenamiento y exploración no representaba un gran desafío.
    Pero la situación ha cambiado drásticamente. En casi todos los sectores industriales el avance de la digitalización ha producido una explosión en el volumen y variedad de datos. Ya no alcanza con analizar conjuntos de datos que se quedan “quietos” mientras los exploramos. Los datos fluyen y aparecen cada vez más velozmente. Y se trata tanto de los datos que conocemos, como de datos completamente nuevos. Las herramientas de análisis ahora deben vérselas con datos en diferentes formatos, desde numéricos a imágenes e incluso sonidos, intensidad de señales y otros también complejos. Ha llegado Big Data con sus ríos de datos fluyendo sin parar y desde todos los ángulos imaginables. Y todo ha cambiado.

    Tecnología y recursos humanos

    Las organizaciones enfrentan mayor complejidad y mercados más volátiles, creciente automatización y una mayor dependencia en las decisiones que se toman utilizando datos. Los informes periódicos han quedado en el olvido. Hay que trabajar en tiempo casi real y enfrentar la incertidumbre conociendo cada vez mejor a la base de clientes, a los competidores y a los eventos de toda clase que pueden impactar en el negocio propio.
    Aquí es donde surge la necesidad de establecer un plan integral de mejores prácticas a la medida de cada organización. Habrá que trabajar en la creación de reservorios o “lagos” de datos eficientes.
    Para ello hará falta incorporar tecnología y recursos de almacenamiento como los basados en Hadoop (la más frecuentemente utilizada) u otras tecnologías de almacenamiento y acceso para Big Data. También harán falta herramientas de exploración y análisis, tanto aquellas inductivas operadas por personas como las más automatizadas. La representación de las demandas del negocio o de la organización se logrará con el trabajo de especialistas o científicos de datos. Estos escasos profesionales deberán crear algoritmos, diseñar modelos y aplicar técnicas estadísticas, entre otras funciones.
    Un tema central es la integración en toda la compañía u organización, ya sea a nivel de datos como de su utilización por parte de las personas. Será necesario en muchos casos construir interfaces estáticas y simples para algunas funciones. En otros, hará falta preparar enfoques analíticos capaces de informar indicadores y eventos más complejos e incluso inesperados. Muchas organizaciones iniciaron la adopción de analíticos en forma de islas, con diferentes productos, plataformas y tecnologías. Esas situaciones, si bien a veces se justifican, llevan a la disgregación de las curvas de conocimiento y a menudo al estancamiento respecto a la evolución que experimentan tanto la tecnología como las aplicaciones y prácticas.

    Los analíticos más utilizados

    Los tradicionales paquetes de BI han incorporado capacidades que acompañan, en mayor o menor medida, las actuales demandas en complejidad y volumen. Hasta el presente se han utilizado principalmente en el análisis descriptivo o de lo ya ocurrido. Eso es útil para comprender algunos comportamientos y también para hacer diagnósticos e identificar puntos de mejora o cambio.
    Algunos contienen recursos de análisis predictivo, basado en modelos predictivos, machine learning (aprendizaje de máquinas) y exploración de datos. El análisis predictivo ha ganado popularidad en áreas como marketing, atención de la salud, finanzas, seguros, viajes, telecomunicaciones y otros. Su misión es la de estudiar patrones que permiten inferir un comportamiento o tenencias futuras de determinadas variables. Establecer qué es lo que puede pasar.
    También tenemos al análisis prescriptivo. Basándose en las tendencias predichas y el historial de lo ocurrido, se pueden formular estructuras con aquello que deseamos que ocurra y desplegar el comportamiento que debieran conseguir las diferentes variables o componentes para que eso sea realidad.

     

    Algo de crítica a los analíticos predictivos

    Hasta hoy, los modelos o prácticas predictivas son bastante cuestionadas, como así también los modelos basados en masas de datos demasiado grandes y dinámicas en cuanto a cambios. Esos modelos predictivos que se utilizan tanto en marketing han sido estudiados en la Universidad de Harvard. Allí se ha llegado a la conclusión de que, para predecir el comportamiento de los consumidores es necesario conocer todas las variables influyentes a la perfección. Según el profesor Gary King, de Harvard, “los entornos de la gente cambian más rápidamente que la gente misma. Condiciones climáticas o la relación con los padres, por ejemplo, pueden cambiar la forma en que actúa y piensa una persona. Esas variables son impredecibles y la forma en que reaccionará una persona ante ellas, aún más. Una misma situación en un momento diferente puede llevar a una decisión completamente diferente.”

     

    IA y Deep Learning (DL)

    IA es sin duda una disciplina que, aunque existe desde hace muchos años, ha ganado popularidad en los últimos cuatro o cinco. Dentro de la inteligencia artificial, el mundo empresarial ha puesto especial atención a uno de sus componentes, Deep Learning (Aprendizaje en Profundidad). Según datos de Gartner, IA generará US$ 1200 billones en valor agregado a las empresas durante este año 2018. Eso es un 70% más que en el año anterior. Los avances en la potencia computacional, manejo del volumen, velocidad y variedad de datos, junto con los adelantos en DNNs (Deep Neural Networks), harán que las tecnologías de IA sean las más disruptivas en los próximos diez años.
    En los países más desarrollados, por ahora sólo un 28% de las empresas grandes y medianas utilizan DL aunque, según un informe de O’Reilly, un 92% de los entrevistados en su investigación cree que DL tendrá un papel central en sus proyectos. Un 54% definió a ese protagonismo como importante o esencial.
    Deep Learning es un subconjunto de lo que conocemos como aprendizaje de máquinas y que, a su vez, forma parte de IA. Hoy el aprendizaje de máquinas o Machine Learning se utiliza en actividades como detección de fraude, motores de recomendación, analítica de flujos o corrientes de datos, predicción de demanda y otras aplicaciones. Estas herramientas mejoran a medida que se les alimenta mayor volumen de datos y mejoran en su capacidad de detectar correlaciones y patrones en dichos datos.
    Deep Learning (DL) es una clase de machine learning y es “Deep” o profunda porque tiene la capacidad de procesar datos en diferentes capas. Por ejemplo, si se la usa para lograr que una computadora vea, primero se le enseña a reconocer los contornos de los objetos que aparecen en imágenes. Esa información se alimenta al siguiente nivel que reconocerá esquinas u otros elementos. Sigue en esa misma modalidad hasta que el sistema eventualmente desarrolla la capacidad de identificar imágenes o incluso reconocer caras.
    ¿Es Deep Learning, esa parte de IA, un analítico propiamente dicho? Si categorizamos a las aplicaciones de computación según su función primaria, posiblemente no. Pero la aparición de Big Data requiere de analíticos de nuevas capacidades y potencia. Machine Learning y específicamente Deep Learning, promete lograr que los analíticos prescriptivos consigan esa confiabilidad de la que aún carecen. También juega un papel en funciones como presupuesto, uno de los más frecuentes usos de analíticos. Deep Learning puede usarse para predecir demanda, problemas con la cadena de abastecimiento y márgenes de ganancias, entre otros. La medicina y el desarrollo de fármacos son áreas donde ya esta disciplina tiene gran impacto.
    La seguridad informática es otro de los campos en los que se utiliza DL en la evaluación del comportamiento de miles de millones de datos que viajan por la red. Es por esa razón que la traemos a este artículo. De otra manera nos quedaríamos con una visión ajena a la evolución del contexto general.

     

    Deloitte Digital: ir paso a paso

    Pablo González de Deloitte Digital, comenta que actualmente las empresas promedio no son capaces de procesar más de un 15% de la información que están generando. Solo un 20% ha logrado monetizar sus acciones para ganar dinero a través del dato. Hay otro 20% que ha decidido ser un “fast follower” e ir detrás de esos modelos logrados por otros sabiendo que están maduros.
    Otro 55% ha intentado y ha fracasado. Compraron la tecnología, contrataron los científicos de datos, pero sienten que no pueden avanzar. Muchas de ellas debido a la mala calidad del dato. Entendieron, equivocadamente, que el valor estaba en conseguir esa materia prima, en extraer y almacenar.
    “No es un tema de tecnología, es un tema de negocio. El que compite es el negocio. La importancia de tener los datos es poder hacer el Discovery de lo que los analistas necesitan para generar información para el negocio. Para comenzar rápidamente están recursos como Google, Amazon, Azure de Microsoft, Watson de IBM o Salesforce. Con esta clase de proveedores, la tecnología ya está gestionada y eso baja las barreras de ingreso e inversión.
    González recomienda adoptar Big Data y analíticos avanzados en un paso a paso, tomando una necesidad del negocio y resolviéndola en forma vertical, no de punta a punta en un modo “deme todo que veré que hago.” Es bueno ir resolviendo oportunidades del negocio y poniéndolas a disposición de quiénes las pueden utilizar. A medida que aparecen. De otra manera no se avanzará.

     

    Casos exitosos

    Dos bancos, Galicia y Santander Río han avanzado con Big Data y Analíticos utilizando plataformas de Oracle.

    Banco Galicia, se encontró con la necesidad de optimizar sus procesos para poder brindar ofertas en tiempo real de forma mucho más inteligente a los clientes y así mejorar las oportunidades de ventas en el canal home banking. A fin de lograrlo, sabían que debían incrementar las posibilidades de marketing llegando en tiempo y forma, mejorando la percepción del cliente frente a ofertas personalizadas. Para ello implementó RTD (Real Time Decision), lo que les permitió transformar la idea tradicional de llegar a los clientes en un entorno dinámico, en tiempo real, mediante una solución que se fuera adaptando según su nivel de aceptación. Gracias a esta implementación consiguieron mejorar el CTR (click through rate) del sitio, identificar perfiles de clientes valiosos, perfilar y llevar a cabo ofertas personalizadas y analizar su rendimiento en tiempo real.
    Banco Santander Río, por otro lado, implementó soluciones de Big Data de Oracle que le permitieron conocer en mayor profundidad a sus clientes, obteniendo el perfil para realizar microsegmentaciones y generando ofertas específicas en canales digitales (previendo las necesidades de los clientes con análisis y exploración que acompañen la dinámica de estos canales). Con el objetivo de comprender el recorrido completo del cliente y tener un análisis más profundo, explorando fuentes existentes y otras nuevas, se creó un “Laboratorio de Descubrimientos”. Lo que permitió al banco almacenar, descubrir, analizar y generar resultados analíticos a partir de la información de comportamiento del cliente, con el objetivo de tomar acciones de negocio. De esta forma, obtuvieron tanto un incremento en la venta de productos y servicios como también en la transaccionalidad de los clientes.