La promesa que ofrece la Inteligencia Artificial (IA) para tomar mejores y más rápidas decisiones está impulsando una rápida inversión en todos los sectores económicos. Sin embargo, con tantas soluciones soportadas en D&A comienzan a surgir preguntas importantes sobre la confianza que se depositan en los datos, el análisis y sus controles. La pregunta cae de maduro: ¿qué grado de confianza se tiene en los insights obtenidos?
En las organizaciones empresarias todavía hay desconfianza. Así surge del estudio “The Guardians of Trust” de KPMG, según el cual únicamente 35% de los ejecutivos encuestados confía en la manera en que su compañía utiliza el análisis de datos; más del 65% expresa reservas o desconfía plenamente de sus capacidades en Análisis de Datos; y un 92% se manifestó preocupado por el impacto negativo que puede tener en su reputación. Y la mayor parte de los directivos (62%) depositan la responsabilidad de los fallos tecnológicos o de algoritmos en las áreas tecnológicas, no en el equipo directivo.
Ante este panorama está surgiendo un nuevo enfoque en el tema “confianza”. A medida que los algoritmos comiencen a tomar más decisiones sobre (o en nombre de) las personas, la confianza se convertirá rápidamente en un factor definitorio de D&A.
El informe señala también que la creciente interrelación entre humanos y máquinas exige mayores responsabilidades a la alta dirección que a las funciones tecnológicas, así como un buen gobierno proactivo con controles estratégicos y operativos que garantice y mantenga la confianza. En este sentido, y a medida que las empresas realizan su transición a un entorno totalmente digital regido por la analítica de datos, la gestión de las máquinas se está volviendo tan importante como la de las personas. Se sabe que cuando los análisis y la IA se conviertan en recursos omnipresentes, será ineludible y más difícil gestionar la confianza. Con la rápida adopción de los análisis predictivos, se hace inevitable prepararse para introducir el buen gobierno apropiado de los algoritmos que debe convertirse en una parte esencial del buen gobierno del conjunto de la organización. La meta será equilibrar la potencia y el riesgo del análisis de datos con los conocimientos para utilizarlo correctamente.
¿Quién es responsable cuando existen fallos?
En lo relativo a los riesgos financieros y de la reputación, provocados por errores o el uso indebido del análisis de datos, los participantes del análisis señalan que no tienen bien en claro quién debe rendir cuentas en caso de que una mala decisión de negocio produjera una pérdida financiera o de clientes.
En este sentido, mientras que una mayoría manifiesta que la responsabilidad principal debe corresponder a las funciones tecnológicas de sus organizaciones, el 25% opina que es atribuible a la dirección de la compañía, y el 13% considera que debe recaer en las funciones regulatorias y de control.
En cuanto a las áreas que deben asumir la responsabilidad cuando los análisis de datos fallan, únicamente el 19% mencionan al CIO, el 13% al máximo responsable de datos, y tan sólo el 7% a los responsables de la toma de decisiones de la alta dirección, como por ejemplo el CEO.
También la encuesta muestra que existe una tendencia a eximir de responsabilidad a la dirección por las decisiones basadas en análisis de datos. Y ello parece ser comprensible ya que hay áreas de soporte de tecnología y expertos en la materia. Sin embargo, muchos profesionales de Tecnología de la Información carecen de los conocimientos especializados o de la capacidad requerida para garantizar la confianza en el análisis de datos. Entonces, queda claro que siempre la responsabilidad corresponde al equipo directivo.
Buen gobierno corporativo
La incertidumbre expresada en las repuestas de los encuestados acerca de a quién corresponde esta responsabilidad, suscita la pregunta de qué tipo de buen gobierno debe implantarse en la organización para garantizar y proteger el análisis de datos. A medida que las organizaciones empiezan a considerar el uso de las máquinas en paralelo al trabajo de las personas, deben plantearse, asimismo, nuevos modelos de buen gobierno para salvar la brecha de confianza que existe en el tándem humano–máquina.
En un primer nivel, la responsabilidad respecto al uso de las máquinas debe ser asumida firmemente por el CEO y los responsables directivos.
Teniendo en cuenta las recomendaciones de los directivos encuestados, se aprecian sólidos indicios de que el marco de buen gobierno debe incluir más normas y controles que abarquen ámbitos estratégicos, culturales y éticos, más allá de los puramente técnicos, y bajo la responsabilidad del equipo directivo. De sus respuestas se desprende cinco recomendaciones para generar confianza en una organización:
1) Crear políticas y procedimientos efectivos en el seno de la organización.
2) Mejorar y adaptar las normas para generar confianza en el Análisis de Datos.
3) Aumentar la transparencia de los algoritmos y las metodologías.
4) Crear códigos profesionales para científicos de datos.
5) Reforzar mecanismos de garantía internos y externos que validen e identifiquen áreas de debilidad.
Los cuatro anclajes de confianza
A medida que la analítica se vuelve más compleja, ¿cómo sabemos que un resultado es “correcto” o que las decisiones automatizadas están haciendo “lo correcto”? ¿Qué significa “correcto”? ¿Y en qué medida importa y quién es el juez? En el núcleo de la analítica confiable se encuentran los procesos rigurosos y sistemáticos que maximizan la confianza al generar confianza en los D&A de una organización. El estudio de KPMG cree que estos se basan en cuatro anclajes clave: Calidad, Efectividad, Integridad y Resiliencia.
Calidad: Para impulsar la calidad en D&A, las organizaciones deben asegurarse que tanto los insumos como los procesos de desarrollo para D&A cumplan con los estándares de calidad apropiados para el contexto en el que se utilizarán los análisis. Este es el problema más común citado por los tomadores de decisiones internos.
Efectividad: Se trata del rendimiento en el mundo real. Significa que los resultados de los modelos funcionan según lo previsto y brindan valor a la organización. Es la principal preocupación de quienes invierten en soluciones de D&A, tanto internas como externas a la organización.
Integridad: Con el poder viene la responsabilidad. El término se refiere al uso aceptable de D&A, desde el cumplimiento de las regulaciones y leyes como la privacidad de los datos hasta los problemas menos claros que rodean el uso ético de D&A. Es una preocupación principal de los consumidores y del público en general.
Resiliencia: Se trata de la optimización a largo plazo frente a los desafíos y los cambios. La seguridad cibernética es el problema más conocido aquí, pero la resiliencia es más amplia que la seguridad de la información. Es probable que las aplicaciones relacionadas al aprendizaje automático y que operan en un ecosistema complejo de D&A cambien su función, impacto y valor a lo largo de su vida operativa.