Por supuesto, la extraordinaria reducción de los chips es un factor decisivo. Por lo pronto, International Business Machines (IBM) ha creado un circuito cuyo tamaño es igual al de una molécula de carbono. Su capacidad actual es de apenas una operación, pero se trata del primer procesador lógico cien veces más pequeño que un pelo de la cabeza y, de todos modos, es apenas el comienzo de una nueva etapa.
En un futuro razonable, entonces, los circuitos y los “fierros” resultantes serán más chicos, ubicuos, rápidos y baratos. No sólo por obra de la Big Blue, sino de organizaciones aun más imaginativas como, por ejemplo, el Massachusetts Institute of Technology (MIT), cuyos laboratorios ya transforman bacterias en ordenadores orgánicos capaces, eventualmente, de funcionar como minifábricas de drogas, combustibles y plásticos.
De un modo u otro, en pocos años cualquier objeto podrá contener microprocesadores. A su vez, cada uno de ellos almacenará varias veces más capacidad que las PC del presente. En cuanto a aplicaciones, algún dispositivo universal convertirá una cámara fotográfica en grabadora, organizador manual y muchas herramientas más, gracias a chips reprogramables. Esta clase de microcomputadoras acumulará 10.000 veces más transistores en el espacio que ocupa un silicón convencional.
A juicio de Thomas Knight ( del MIT), los genes de una bacteria podrán activarse o desactivarse, tal como hoy los transistores de un ordenador se prenden o apagan, procesan opciones binarias tipo verdadero/falso o 1-0. Por ende, las ciberbacterias ejecutarán instrucciones de programa.
¿Habrá límites?
Pero el chip actual no dejará de expandir su capacidad vía nuevas técnicas, materiales y diseños de implante o microlitografía (uso de ondas lumínicas para grabar placas de silicio). Por consiguiente, seguirá cumpliéndose un pronóstico lanzado hace casi diez años: la capacidad computable se dobla cada 18 meses.
Naturalmente, todo tiene (o parece tener) un límite. Para achicar circuitos a menos del tamaño actual (0,13 micrones, 1/800 del cabello humano), los científicos emplean sistemas basados en rayos X “suaves” o radiaciones ultravioletas extremas. Según algunos expertos, los futuros circuitos fabricados por Intel que lleva invertidos más de US$ 250 millones en trece años- crearán computadoras a cuyo lado la Pentium III semejará un modelo T.
Malas noticias para las japonesas Nikon y Canon, que seguirán perdiendo participación de mercado a manos de la rival estadounidense. Para peor, hoy los suecos parecen haber tomado la delantera en materia de ordenadores de quinta generación, hasta no hace mucho dominio del Sol Naciente.
El lapso requerido por Intel subraya una tendencia heredada de los años 80: microprocesadores que asocien materiales de alto rendimiento y circuitos más baratos. Objetivo de fondo: reducir costos de los silicones especializados y aumentar su capacidad.
¡Vaya error!
Para azoramiento de la competencia, Motorola logró un avance inesperado… por error. Buscando crear un transistor tan delgado como para grabarlo sobre un chip cristalino, sus investigadores descubrieron la manera de combinar silicones comunes y baratos (usados en semiconductores) con arsénido de galio, material inestable y caro, empleado cuando la velocidad es clave.
Como resultado, la empresa produce circuitos muy veloces con la durabilidad del silicón y a una fracción del costo representado por el arsénido de galio: una placa de esta substancia vale US$ 400, contra 25 a 40 por una del nuevo compuesto. Esos circuitos alimentan ya teléfonos celulares, redes de fibra óptica, laser de usos médicos y aparatos DVD.
Entretanto, los circuitos integrados irán recortando drásticamente el costo de conectar redes ópticas de alta velocidad con Internet y sistemas en el hogar. Ello empalmará con nuevas tecnologías inalámbricas en evolución (la III generación, por supuesto), sistemas de radar interno para autos, etc. En síntesis, los chips del futuro transformarán casi cualquier dispositivo en una herramienta múltiple y reconfigurable.
Luz en chips
Finalmente, dos científicos financiados por el Pentágono lograron controlar la luz, cuya velocidad ronda los 360.000 km/seg. Desarrollando investigaciones iniciadas hace varios meses por el italiano Rodolfo Bonifacio (UCA Berkeley), a partir de un descubrimiento de Philip Hemmer (universidad A&M, Rejas), éste y Selim Shahriar (ambos del MIT) lograron bloquear y almacenar luz en un chip de computación.
La historia comienza en Harvard, febrero de 1999, cuando la científica danesa Lene Vestergaard Hau consigue reducir a “apenas” 60 km/hora la velocidad fotónica. Ello permite congelar y encerrar el rayo en una masa gaseosa.
Durante casi dos años, equipos en Berkeley, Milán, Harvard y el MIT se abocaron a la búsqueda de soluciones más radicales y, en el fondo, prácticas. Ya en 2001, Hemmer definió el modelo matemático para “inmovilizar” la luz muy cerca del 0 absoluto: 5 grados Kelvin, es decir 268 grados Celsius. Ahora, ese modelo se materializó en el laboratorio que la Fuerza Aérea opera en Hauscom, Massachussets.
¿Cómo se puede explicar el significado de estos avances? Simplemente como lo hace Bonifacio: “Una vez desarrollado, este silicón de luz conferirá completa seguridad y una capacidad de memoria difícil de imaginar. En un plazo razonable, la compresión de datos llevará a los ordenadores cuánticos”.
En otras palabras, la quinta generación informática puede estar a la vuelta de la esquina. Entre otras cosas, porque la computadora cuántica superará la dicotomía binaria clásica (0 y 1, combinables sólo de a pares) y tornará intercambiables los dos términos. ¿Alguien se imagina programas libres de interminables series 01010101…?
En lo económico, los costos de equipos, programas y sistemas podrían achatarse hasta lo increíble. Sobre todo, si las futuras opciones y aplicaciones combinasen el chip lumínico con la fibra de cristal fotónico y demás innovaciones tecnológicas atinentes a circuitos impresos, redes, etc.
