Hasta hace poco el uso de la Inteligencia Artificial (IA) estaba siendo liderado por las grandes compañías del sector tecnológico, principalmente en determinadas tareas como el uso de robots en almacenes para despachar artículos comprados desde el móvil, o la aplicación de algoritmos con el objetivo de conocer el comportamiento de los consumidores.
Estos ejemplos han calado hondo en el resto de las empresas que ahora entienden que de no avanzar en el uso de tecnologías como la IA podrían quedarse atrás y que su negocio, en algún momento, corre el riesgo de quedar fagocitado por los grandes jinetes tecnológicos.
Sin embargo, la velocidad con las que las compañías incorporan la IA es comparable a la de un niño en triciclo: se hace cuesta arriba. Y esto es debido a dos motivos principales: por un lado, los ejecutivos no terminan de entender exactamente en qué consiste la IA y les cuesta encontrarle una aplicación práctica; por otro, es difícil poner nombre a los riesgos asociados a estas nuevas tecnologías, y eso provoca parálisis.
La única manera de tomar velocidad con la transformación parece ser entender mejor a la tecnología y los riesgos que representa. Sin este ejercicio, nadie en su sano juicio cometería la imprudencia de incorporar la IA de forma masiva en su negocio.
Algunos de estos riesgos asociados son:
Gestión incorrecta de los datos. A la hora de alimentar los algoritmos es necesario incorporar grandes sets de información (estructurada y no estructurada) y con distintos orígenes como imágenes, webs, sensores, redes sociales, etc. Gestionar toda esa información resulta complejo y las posibilidades de revelar (de manera intencionada o no) información sensible incumpliendo con el Reglamento General de Protección de Datos se multiplican.
Sesgo de los modelos. Los modelos son entrenados con una población inicial que ha de ser suficientemente representativa de todos los posibles casos a los que se enfrentará el algoritmo. Si la información de entrenamiento, la que sirve para calibrar el modelo, está sesgada, los resultados serán inestables, erróneos y/o incompletos. Adicionalmente, existe un factor ético, si la exclusión de cierto colectivo se hace de manera intencionada para manipular los resultados de los algoritmos.
Interacción física. Las aplicaciones de la IA en el sector del transporte o de las infraestructuras son múltiples. Sin embargo, en estos casos la interacción de elementos gobernados por la IA con personas puede poner en riesgo a éstas últimos.
Calibración dinámica. La Inteligencia Artificial, y en particular el Machine Learning, no son elementos estáticos. Los modelos modifican sus parámetros de manera dinámica para reflejar nuevos patrones. Esto altera el enfoque tradicional, dado que el control periódico de los riesgos deja de ser válido y es necesario buscar alternativas también dinámicas que den respuesta a los algoritmos.
Éstos son solo algunos ejemplos de riesgos iniciales que deben identificar las compañías si quieren aplicar la IA a sus negocios. El desafío es poder cambiar el triciclo por un vehículo más veloz, y ser autónomo. Y la única manera de acelerar ese proceso es conocer bien los peligros que implica y prepararse para superarlos sin miedos.

