¿El fin de la ley de Moore?

    En 1965, a pesar de que la industria de los microprocesadores todavía estaba en pañales (ni siquiera existía Intel), la revista Electronics le pidió a Gordon Moore ­entonces director de investigación de la pionera electrónica Fairchild Semiconductor­ que predijera el futuro del producto. Moore, quien no tenía demasiada información sobre el tema ­justamente por la poca experiencia general en la materia­ sostuvo que los ingenieros serían capaces de incluir un número cada vez mayor de dispositivos en los microchips. Es más, arriesgó que ese número se duplicaría cada año, y dio así nacimiento a lo que se conoce como “la ley de Moore”.


    Al principio, muy poca gente prestó atención a sus predicciones. Incluso él mismo admitió que no había hecho una profunda evaluación al respecto; simplemente había tratado de “dar a entender que ésta es una tecnología con futuro”. Pero los hechos le dieron la razón. Cuando Moore escribió ese artículo, el chip más complejo del mundo estaba en su laboratorio de Fairchild y tenía 64 transistores. El modelo Pentium III de Intel contiene 28 millones de transistores.


    El efecto de la ley de Moore en la vida cotidiana es evidente. Por eso una computadora personal que hoy vale US$ 2.000 se venderá a US$ 1.000 el año que viene y será obsoleta en el 2002, y los chicos que crecieron jugando al Pong en los locales de videojuegos hoy tienen hijos que crecen jugando Quake por Internet.


    Pero estos ejemplos, por llamativos que sean, no muestran la verdadera importancia que tiene la ley de Moore. Estados Unidos atraviesa el mayor boom económico de su historia. La actual combinación de crecimiento sostenido y baja inflación es tan inusualmente favorable que muchos economistas creen que la nación atraviesa un cambio fundamental. Y el factor más importante que facilita este cambio, dicen, es el aumento implacable del poder del chip. “Lo que a veces se llama el boom económico de Clinton ­dice Robert Gordon, un economista de la Northwestern University­ no es sino un reflejo de la ley de Moore”. De hecho, agrega, “por lo menos la mitad de las recientes ganancias de productividad se debe a las mejoras en la producción de computadoras”.


    Si Gordon tiene razón, es una lástima que, justo cuando los economistas empiezan a comprender la importancia de la ley de Moore, los ingenieros anuncien su caducidad.


    El génesis


    Suele decirse que la era de la electrónica digital comenzó en 1947, cuando un grupo de investigadores diseñó el primer transistor en los Laboratorios Bell. Pero la ley de Moore, la fuerza que impulsa la era digital, se asocia con otro hito menos conocido: la invención del circuito integrado. Por caminos paralelos, Jack Kilby ­ingeniero de Texas Instruments­ y Robert Noyce ­ingeniero de Fairchild, que luego abandonaría la compañía para fundar con Moore la mítica Intel­ llegaron al circuito en 1959. Ambas empresas solicitaron la patente, y sobrevinieron largos años de disputas legales que culminaron en un empate.


    Mientras los abogados discutían, ambas empresas se dedicaron a crear circuitos integrados ­chips, como se los conoció después­ cada vez más sofisticados. En 1964 algunos tenían 32 transistores; cuando Moore escribió su artículo en 1965, un chip de su laboratorio de IyD tenía el doble.


    “Un componente (1959), 32 (1964), 64 (1965)”, Moore anotó estas cifras en un gráfico y conectó los puntos con una línea. “La complejidad [de circuitos integrados que resultaban baratos] se incrementa en una proporción de aproximadamente un factor de dos por año”, escribió. Luego, con una regla trazó una línea hacia el futuro, que se alzó sobre los márgenes superiores de su gráfico y voló a la estratosfera. “A largo plazo” ­sostuvo Moore­ “no hay motivos para creer que la tasa de crecimiento no permanecerá constante por lo menos durante 10 años”. En otras palabras, las compañías que en ese momento luchaban para crear microchips con 64 componentes fabricarían microchips con más de 65.000 componentes en una década, lo que significaría un salto de más de tres órdenes de magnitud.


    La ley de Moore no era, por supuesto, una ley de la naturaleza. Era más una regla práctica de ingeniería que capturaba el patrón que Moore había descifrado de los primeros datos sobre la producción de microchips.


    En 1975 los ingenieros diseñaban y creaban chips mil veces más complejos que los que hubiesen sido posibles 10 años antes, como Moore lo había vaticinado. Pero ese año Moore admitió la dificultad creciente en el proceso de fabricación de chips, e introdujo una pequeña variación a su ley. Desde ese momento, dijo, el número de dispositivos de un chip se duplicaría cada dos años. Esta predicción también resultó ser cierta. Hoy, algunos expertos prefieren acortar este plazo y afirman que la complejidad del microchip se duplica en 18 meses; otros aplican libremente el término “ley de Moore” a todo aumento rápido en cualquier aspecto de la computación, como ancho de banda o capacidad de memoria.


    La travesía del desierto


    A pesar de las discusiones en torno a la ley de Moore, su esencia es indiscutible: los precios de las computadoras bajan mientras sus capacidades suben.


    En Estados Unidos, la inversión en computadoras aumentó a un ritmo anual de 24% durante las últimas dos décadas, lo que instaló una ley de Moore propia. En 1999, las compañías gastaron US$ 220.000 millones en hardware y periféricos, más que lo que se invirtió en fábricas, vehículos o cualquier otro tipo de bienes durables. Las computadoras se volvieron tan comunes y poderosas que empezó a hablarse de una revolución digital. La ley de Moore, sostienen algunos, creó una nueva economía.


    Pero durante la década de 1980 y principios de los ´90, la mayor parte de la inversión en tecnología digital parecía no obtener recompensa alguna; la ley de Moore terminó promoviendo las ganancias de los fabricantes de chips, pero de casi nadie más. “Vemos la era de la computación en todos lados menos en las estadísticas de productividad”, comentó en 1987 el Premio Nobel Robert M. Sollow, economista del MIT.


    Según Hal Varian, de la Universidad de California, lo que sucedió en la Comisión Federal de Comercio (FTC) es un ejemplo de lo que debería haber pasado en el resto del país. A mediados de la década de 1980, la FTC le dio una computadora personal a cada empleado del Bureau of Economics, su consejo interno de asesores económicos. “Las computadoras produjeron dos efectos”, recuerda un ex funcionario de la FTC. “Durante los primeros tres meses, los economistas se pasaban horas preocupándose por los tipos de letra”, es decir, trataban de hacer sus cartas y memos más lindos. “Seis meses más tarde, echaron a todos los taquígrafos”.


    Según los economistas, este es un claro ejemplo de productividad en aumento. “En cierto sentido”, dice Lester Thurow, “el único número importante que se necesita saber sobre una economía es el nivel y el índice de crecimiento de la productividad, porque es la base de todo lo demás”.


    Luego de la Segunda Guerra Mundial, la tasa promedio de crecimiento anual de la productividad en Estados Unidos durante décadas fue de 3%, suficiente para duplicar el nivel de vida en cada generación. En 1973, sin embargo, el crecimiento de la productividad cayó a 1,1%. Nadie sabe por qué.


    Los efectos de este retraso son muy conocidos. Con esa tasa más baja, el nivel de vida se duplica al cabo de tres generaciones y no de una. El resultado fue un estancamiento. Los asalariados seguían recibiendo aumentos, pero los empleadores, que no podían absorber los costos extras con una mayor productividad, transferían el aumento a los precios y así se eliminaba el beneficio de las mejoras salariales. No fue sorprendente, dicen los economistas, que las décadas improductivas de los ´70 y ´80 tuvieran inflación, recesión, desempleo, conflictos sociales y un enorme déficit presupuestario.


    Causas y azares


    En 1995, la productividad nuevamente cambió de rumbo. Sin previo aviso, abruptamente comenzó a subir a un promedio anual de 2,2%. Al principio, los investigadores consideraron este incremento como algo pasajero; pero gradualmente se convencieron de que iba a durar. “Es algo que discutimos mucho en las reuniones de la Reserva Federal”, dice Alice Rivlin, economista de Brookings que se alejó del organismo hace poco tiempo. “Nos preguntábamos si ese incremento era real. Me parece que actualmente la mayoría de los economistas cree que sí”. Aunque Rivlin trabaja en un estudio para determinar la causa del nuevo auge de la productividad, ella y muchos otros economistas creen que probablemente se deba a la informática. O sea que, finalmente, la ley de Moore puede estar dando resultados.


    Existen dos razones para creerlo, explica Alan S. Blinder, economista de la Universidad de Princeton. En primer lugar, la aceleración en la productividad ocurrió simultáneamente con una repentina caída adicional en el costo de las computadoras. Luego, el hecho de que la productividad creciera justo cuando la industria adoptó Internet “es una coincidencia demasiado grande para ignorarla”.


    A mediados de la década de 1990, dice Blinder, “la tasa de la deflación en las computadoras varió de ­10% a ­25%. Y aunque la industria de la computación representa sólo una pequeña fracción del PBI ­menos de 2%­ la caída en los costos ha sido tan notoria que afecta a una gran parte del índice de precios generales”.


    Esta explosión del poder de las computadoras se volvió tan importante para el futuro, dicen estos economistas, que todos deberían estar preocupados por los recientes informes que auguran el fin de la ley de Moore.


    ¿Apocalipsis o big bang?


    Ese final fue tantas veces anunciado que se convirtió en un chiste. Incluir cada vez más dispositivos dentro de un chip significa fabricar funciones cada vez más pequeñas. Los chips más nuevos de la industria contienen “pasos” tan pequeños que miden 180 nanómetros (milmillonésimas partes de un metro). Para armonizar con la ley de Moore, según la hoja de ruta que se preparó el año pasado para la Asociación de la Industria de Semiconductores, será necesario que los pasos se reduzcan a 150 nanómetros para el año 2001 y a 100 nanómetros para el 2005. Lamentablemente, la hoja de ruta admitía que para lograr estos niveles la industria tendría que superar problemas fundamentales para los que todavía no hay “soluciones conocidas”. Si estas soluciones no se encuentran pronto, sostuvo en septiembre pasado en la revista Science Paul A. Packan, un respetado investigador de Intel, la ley de Moore “correrá un serio peligro”.


    Packan mencionó tres desafíos principales. El primero se relacionaba con el uso de dopants, impurezas que se mezclan con el silicio para aumentar su capacidad de mantener áreas de carga eléctrica localizada. Aunque los transistores pueden llegar a reducirse, los dispositivos más pequeños deben mantener la misma carga. Para lograr esto, el silicio debe tener una mayor concentración de átomos dopants pero, si se supera un cierto límite, esos átomos comienzan a formar grupos que no son electrónicamente activos. “No se puede aumentar la concentración de dopants“, dice Packan, “porque todo lo extra termina ingresando a los grupos”. Los chips actuales, según su punto de vista, están muy cercanos al límite.


    En segundo lugar, las compuertas que controlan el flujo de electrones dentro de los chips resultan víctimas de extraños e indeseables efectos cuánticos. Los físicos saben, desde la década de 1920, que los electrones pueden filtrarse a través de barreras extremadamente pequeñas y que mágicamente aparecen del otro lado. Las compuertas actuales son más pequeñas que dos nanómetros, pero eso no es suficiente para impedir que los electrones se filtren a través de ellas incluso cuando están cerradas. Ya que las compuertas están diseñadas para bloquear los electrones, la mecánica cuántica puede hacer que los dispositivos de silicio más pequeños resulten inútiles. Como dice Packan, “la mecánica cuántica no es como cualquier otra dificultad en la fabricación; estamos en presencia de un obstáculo en el nivel más fundamental”.


    Por último, cree Packan, es posible encontrar soluciones de ingeniería y de procesamiento para atacar estos problemas. Pero la ley de Moore todavía deberá enfrentar su desafío más difícil: la Segunda Ley de Moore.


    En 1995, Moore examinó los avances del microchip en una conferencia de la International Society for Optical Engineering. Aunque Moore, al igual que Packan, veía obstáculos técnicos cada vez mayores para seguir el rumbo que predijo su ley, estaba realmente preocupado por otra cosa: el costo cada vez más alto que requiere la fabricación de chips.


    Cuando se fundó Intel en 1968, recuerda Moore, el equipamiento necesario costó aproximadamente US$ 12.000. “Hoy se requerirían cerca de US$ 12 millones, pero todavía no se logró fabricar un mayor número de placas por hora si comparamos esta cifra con la cantidad de 1968”. Intel debe invertir actualmente miles de millones de dólares para construir plantas de fabricación, y la inversión ascenderá a medida que los chips se tornen más complejos. “Los costos de capital suben mucho más rápidamente que los ingresos”, advirtió Moore. Según su opinión, “el progreso tecnológico pronto será controlado por la realidad financiera”. Algunas innovaciones técnicas pueden no ser económicamente realizables.


    En los últimos 100 años, ingenieros y científicos demostraron repetidamente cómo el ingenio humano puede esquivar las dificultades que imponen las leyes de la naturaleza. Pero tuvieron mucho menos éxito en burlar las leyes de la economía.


    Moore sostuvo que la única industria “remotamente comparable” con la del microchip, en cuanto a tasa de crecimiento, es la de la impresión. Antiguamente, los caracteres eran tallados cuidadosamente sobre piedra; ahora se imprimen a una gran velocidad y a un costo cercano a cero. La imprenta, señaló Moore, transformó completamente la sociedad, creando y resolviendo problemas en áreas que Gutenberg nunca podría haber imaginado. Impulsada por la ley de Moore, sugirió, la tecnología de la información también puede producir un impacto de igual magnitud. Si esto ocurriera, la solución definitiva a las limitaciones podría provenir de la misma explosión del poder de las computadoras: “del torbellino del conocimiento, métodos y procesos nuevos creados por las computadoras de ésta y de otras generaciones”.


    La idea parece extravagante. Pero también la ley de Moore parecía extravagante en 1965.