Se encuestaron 2.190 ejecutivos senior de 9 países. Ante la falta de confianza en el Análisis de Datos (D&A) y en la Inteligencia Artificial (IA), sólo 35% de los ejecutivos declara confiar en la forma en que la organización utiliza esa información. De hecho, existe gran preocupación en cuanto a los riesgos derivados del uso de D&A e IA: más de 65% de los ejecutivos tiene ciertas reservas o desconfianza en cuanto al uso de D&A, y 92% se preocupa por cómo los D&A podrían afectar negativamente la reputación de la empresa. Asimismo, el 62% indicó que las funciones tecnológicas son quienes asumen la responsabilidad cuando un equipo o un algoritmo se equivoca, no los directivos ni las áreas funcionales, según lo demuestran los resultados de una reciente encuesta de KPMG International.
El informe sugiere que la creciente interrelación entre los seres humanos y las máquinas requiere que sean los directivos quienes asuman la mayor responsabilidad, en lugar de las funciones tecnológicas, y que exista un gobierno corporativo proactivo con controles estratégicos y operacionales que ayuden a asegurar y mantener los niveles de confianza. La encuesta también afirma que a medida que las compañías se vuelven más digitales y se rigen cada vez más por el análisis de datos, la administración de las máquinas se vuelve tan importante como la administración del personal.
“Una vez que D&A y la IA se vuelvan omnipresentes, será imperativo, aunque más difícil, poder manejar la confianza”, explicó Thomas Erwin, Líder Global de KPMG Lighthouse – Centro de Excelencia para D&A y Automatización Inteligente. “Con la rápida aceptación de los análisis predictivos, nos deberíamos preparar ahora para poder manejar adecuadamente este Lejano Oeste de algoritmos. El gobierno de las máquinas debe ser parte esencial del gobierno de toda la organización, y el objetivo debe ser equiparar el poder y el riesgo de los D&A con la sabiduría necesaria para utilizarlos bien”, agregó.
El estudio también muestra que los Estados Unidos y el Reino Unido son los que menos confían en sus D&A y IA, con porcentajes de desconfianza del 42% y 43%, respectivamente. Por otra parte, sólo un pequeño porcentaje de ejecutivos no confía en Brasil (15%) e India (8%).
Para Walter Risi, Socio de IT Advisory KPMG Argentina, “la responsabilidad sobre las implicancias de una mala decisión derivada del uso de D&A o IA debe entenderse como un problema de múltiples partes. Existen aspectos como una incorrecta implementación técnica de algoritmos o plataformas que podrían entenderse como responsabilidad principal de IT, pero otros aspectos como las fuentes de datos utilizadas y la validación de los datos producidos por los algoritmos no son solamente responsabilidad de IT, sino que el negocio y el CDO (donde exista) tienen importante responsabilidad. Por otro lado, es tarea de la alta dirección y gobierno corporativo el definir y aceptar el riesgo asociado a automatizar un proceso o decisión, definiendo en cada caso el impacto y las medidas de mitigación acordes al apetito de riesgo de la compañía.”
¿Quién es el responsable cuando algo sale mal?
Incluso con los bajos niveles de confianza derivados del riesgo financiero y reputacional que provocan los análisis erróneos o el mal uso de datos, los encuestados no dejaron en claro a quién se debería responsabilizar por las pérdidas financieras o de clientes provocadas por una mala decisión de negocios. Además, del 62% que le asignó la principal responsabilidad a las funciones de IT dentro de las organizaciones, el 25% consideró que la responsabilidad le corresponde al negocio principal, mientras que el 13% se la asignó a las funciones regulatorias y de control. Al analizar más de cerca quiénes entre los altos directivos deberían asumir la responsabilidad cuando los análisis de datos se equivocan, la amplia variedad de respuestas obtenidas sugiere cierta falta de claridad en el tema: sólo el 19% mencionó al CIO, el 13% apuntó al CDO, y sólo el 7% culpó a los altos directivos encargados de tomar las decisiones como el CEO.
La incertidumbre de los encuestados respecto de a quién responsabilizar, hace preguntar qué tipo de gobierno corporativo proactivo se debería implementar para garantizar y proteger el uso de los datos analizados. “A medida que las organizaciones comienzan a considerar el comportamiento de las máquinas como algo paralelo al comportamiento de las personas, también deberían considerar nuevos modelos de gobierno corporativo que respalden la confianza que la mano de obra humana-mecánica necesita”, dijo Erwin. “Básicamente, la responsabilidad por las máquinas debe ser asumida por el CEO y los líderes funcionales.” Sobre la base de las recomendaciones de los encuestados, existen fuertes indicios de que cualquier marco de gobierno corporativo debería incluir estándares y controles más allá de las áreas técnicas, estratégicas, culturales y éticas, que son responsabilidad de los altos directivos.