Pero “eso” no fue lo que provocó las reacciones de Steven Ballmer (“¡Basura”, exclamó el CEO de Microsoft), Carleton Fiorina (“Totalmente equivocado”, sostuvo la jefa de Hewlett-Packard) o Craig Barrett (Intel): “TI importa, y un montón”, replicó. Un año más tarde, Carr publicó un libro, Does IT matter? (“¿TI importa?”). Como en el artículo, su tesis básica es muy directa: otrora, la tecnología informática (TI) era tan cara y difícil de manejar que las empresas ganaban mucho con sólo ser capaces de hacer funcionar los sistemas. IBM es el caso típico. Pero, al paso del tiempo, TI fue abaratándose y tornándose menos dificultosa hasta alcanzar la condición de insumo o servicio masivo. Contratar personal idóneo es más fácil hoy y las herramientas tecnológicas son más potentes que hace apenas unos años. La habilidad de manejar TI efectivamente ya no es una barrera. Por ende, tampoco es una ventaja competitiva de relieve (sostiene Carr). A su criterio, “preguntarse si TI importa es como preguntarse si la electricidad lo hace. En un sentido, ambas pesan. Pero la capacidad de gestión ya no es especialmente útil para la mayoría de las empresas: los recursos son tan baratos y comunes que no pueden ser fuente de ventajas para nadie”. Claro, lo escaso es rentable. Las compañías que ofrecen productos o servicios de los que otras no disponen siempre los cobrarán más caro. Pero, en la medida que más y más concurrentes ofrezcan lo mismo, la competencia irá bajando precios. No obstante, el “management de complejidades” todavía traba el ingreso a algunos sectores. Así, fabricar circuitos integrados es terriblemente complejo, por lo cual Barrett tiene razón: la TI aún es crítica en el segmento donde opera Intel. Cuando una tecnología es tan compleja que el único modo de trabajar es copiando lo que ya está en línea, existen ventajas competitivas. Pero “la mayoría de los negocios actuales –apunta el autor– ya no es tan compleja como la manufactura de chips. Por ende, lo que importa no es la TI en sí misma sino cómo se aplica”. No obstante, aun si pudiese tornarse en insumo generalizado (commodity) y dejara de significar ventajas únicas, quedaría otra pregunta clave: ¿el sector ha llegado o no a ese punto? TI, insumo relevante Normalización o conversión en insumo uniforme no siempre presuponen el fin del proceso innovador. Una vez que algo se transforma en insumo, todavía puede ser componente de una innovación ulterior. Las PC, los servidores de Internet, las bases de datos o el encriptado integran ya sistemas más amplios y complejos, donde se multiplican las oportunidades de innovar. Ahora bien, ¿esas innovaciones deparan “ventajas comparativas sustentables”? “Quizá sí, quizá no. Detectar ventajas reales es un lío. Por ejemplo, hacer algo mejor y más barato genera siempre una ventaja, aunque sea temporaria”. Así piensa Hal Varian, profesor de negocios y gestión informática en Berkeley. Ergo, parte interesada. Similar postura adoptan John Seely Brown (ex Xerox) y John Hagel (consultor independiente). Los tres cuestionan una observación de Carr: “Si hardware y software informáticos son ya meros insumos, invertir en el sector no comportará futuras ventajas competitivas de magnitud”. Por el contrario, el trío vislumbra una simbiosis entre dos tendencias tecnológicas diferentes, ambas dependientes de la TI como insumo (con lo cual asumen la tesis central de su oponente). La primera es la “computación en grillas”, proceso que integra un gran número de máquinas en una sola fuente de recursos informáticos. Durante los últimos 20 años, sus pautas técnicas han ido achicando diferencias en materia de hardware. Wintel (una grilla que liga el sistema operativo de Microsoft y los chips de Intel) o sistemas como Unix y Linux se han extendido por los dominios de la PC y el servidor. Las grillas convierten una forma de normalización en insumo efectivo, porque aprovechan mejor los recursos tecnológicos de la empresa, ampliándolos y haciéndolos más fácilmente disponibles. La modalidad saca partido de computadoras y sistemas de almacenamiento más baratos, aportando una cuota sin precedentes de potencia a precios de insumo básico. Dos novedades Emplear grandes conjuntos de computadoras chicas no es novedad. Sí lo son: a) el costo relativamente bajo que demandan hoy esos equipos, y b) las innovaciones en software desarrolladas para coordinar y manejar grandes conjuntos de hardware. Sin ambos factores, los costos de operar enjambres de máquinas baratas a menudo neutralizarían su menor precio. La segunda fuerza que promueve la normalización en TI involucra el software sobre el cual las compañías corren procesos de negocios. Muchos gerentes han llegado a sentirse presos de las actuales plataformas de aplicación: el costoso cablerío entre software y datos dificulta mucho modificar los mecanismos de gestión. La salida consiste en emplear modelos tecnológicos, llamados “servicios de Web”, para establecer vínculos más flexibles entre datos y aplicaciones. “Las empresas orientadas al futuro –señala Seely Brown– ya desarrollan formas de superar limitaciones físicas adoptando esquemas más modulares para desplegar el software”. Este modelo eventualmente transformará aplicaciones monolíticas e inflexibles según como vayan integrándose. En el proceso, facilitará la conmutación de “módulos” entre un elemento de software y otro. Al igual que sus equivalentes hard, ese soft irá pareciéndose a un insumo. “Estas conexiones flexibles y sueltas, en una red TI –afirma Hagel–, son baratas de desarrollar. Pero pueden absorber pesados recursos. Por ese motivo, la computación en grillas se relaciona estrechamente con el surgimiento de diseños más flexibles en software”. Ventajas |