Aunque parezca que siempre hayan estado ahí, algunas de estas nuevas tecnologías –o quizás ya no tan nuevas– ni siquiera existían hace tan solo unas décadas. Su impacto en nuestra sociedad está produciendo una transformación sin precedentes en muchos de nuestros hábitos de vida.
Esta revolución digital no hubiese sido posible sin el desarrollo experimentado por la microelectrónica, cuyo principal exponente son los circuitos integrados o chips. Sin embargo, a pesar de su uso extendido, existe paradójicamente un desconocimiento por parte de la mayoría de los usuarios de lo que son los chips y del nanomundo que hay dentro de ellos.
El punto de partida de la microelectrónica se sitúa a mediados del siglo pasado. En 1947, los investigadores de la Bell Labs de AT&T, Walter Brattain, John Bardeen y William Schockley inventan el transistor, por lo que recibirían el premio Nobel de Física en 1956.
El transistor fue el primer dispositivo electrónico basado en materiales semiconductores que podía amplificar señales eléctricas. Aunque posteriormente tendría otras muchas funciones, la primera aplicación que popularizó al transistor fue el receptor de radio.
El uso de transistores en lugar de las válvulas (o tubos) de vacío permitió fabricar receptores portátiles y más baratos, como los primeros modelos comercializados por Texas Instruments, que costaban unos 50 dólares (unos 42 euros). Tal fue su éxito que aún hoy día hay personas que usan el término transistor para referirse a un receptor de radio.
Las válvulas de vacío eran dispositivos mucho más voluminosos, menos robustos y menos eficientes energéticamente que los transistores. Por este motivo, fueron reemplazándose en muchos sistemas electrónicos como los primeros ordenadores o mainframes, que ocupaban grandes superficies, muy lejos aún de los portátiles ultraligeros que utilizamos en la actualidad.
Es precisamente la tendencia hacia la miniaturización de los sistemas electrónicos lo que dio lugar al siguiente gran hito de la industria microelectrónica: el circuito integrado o chip, inventado en 1958 por Jack Kilby, físico e ingeniero de Texas Instruments, que sería galardonado con el premio Nobel de Física en 2000.
La idea de Kilby consistió en fabricar todos los componentes de un circuito electrónico –como resistores, condensadores, inductores y transistores– de forma integrada en un único sustrato común de material semiconductor. El resultado es la base de lo que hoy denominamos circuito integrado o chip.
El tamaño importa
Los chips han evolucionado en los últimos 50 años de una forma exponencial, como predijo Gordon Moore –cofundador de Fairchild e Intel– en 1965. Según esta predicción, conocida como ley de Moore, el número de componentes integrados en un chip se duplica cada dos años, incluso a veces cada menos tiempo.
El ritmo de evolución predicho por Moore se ha cumplido hasta la actualidad, pasando de los primeros chips formados por decenas de dispositivos a los chips actuales, que pueden contener decenas de miles de millones de componentes con dimensiones próximas a la escala atómica.
La reducción del tamaño de los componentes de un chip permite aumentar el nivel de integración, es decir, el número de elementos que se incluyen por unidad de área. Esto ofrece varias ventajas como la reducción del coste de fabricación (menos materia prima), mayor velocidad de procesamiento (las cargas eléctricas recorren menos espacio) y disminución del consumo energético por componente.
Todo esto hace posible aumentar el grado de complejidad de los sistemas integrados en los chips, dotados de una mayor funcionalidad y tamaño suficientemente pequeño como para que se puedan incorporar en nuestro entorno. Se puede añadir así una capa de digitalización al mismo con multitud de funcionalidades.
Como ejemplo de lo que ha supuesto el escalado de las tecnologías microelectrónicas, es ilustrativo comparar el sistema de computación utilizado por la NASA en la década de los 60 del siglo pasado en el programa Apolo, denominado AGC (de Apollo Guidance Computer) y un teléfono móvil de última generación, como por ejemplo el iPhone 12 de Apple, cuyo chip principal es el A14 Bionic. El AGC –que guió las naves que llevaron al hombre a la Luna– es del orden de mil veces menos potente y eficiente que el A14 Bionic, si los comparamos en términos de tamaño, peso, velocidad de procesamiento, memoria y consumo energético.
Otra consecuencia directa de la evolución de los chips es su imbricación cada vez mayor en objetos de uso cotidiano. Un buen ejemplo de ello es la internet de las cosas, que hace posible la interconexión de objetos (cosas) de forma autónoma mediante comunicación máquina-máquina. Se espera que en la próxima década haya un promedio de unos 40 ciberobjetos interconectados por cada habitante del planeta, lo que puede suponer del orden de 350 000 millones de estos dispositivos interconectados.
Más allá de la ley de Moore
Como explico en mi libro De la micro a la nanoelectrónica, publicado por CSIC-Catarata en la colección ¿Qué sabemos de?, lejos de frenarse, la evolución de las tecnologías de fabricación de chips continúa hacia escalas próximas al átomo.
El uso de nanomateriales, como el grafeno o los nanotubos de carbono, dispositivos emergentes como los memristores o los confinamientos cuánticos abren la puerta a nuevas aplicaciones que hubiesen sido consideradas ciencia ficción hace tan solo una década.
La computación neuronal, los ordenadores cuánticos, los móviles basados en radio cognitiva, las interfaces humano-máquina o los microprocesadores con inteligencia artificial son solo algunas tecnologías disruptivas que se harán realidad muy pronto gracias a la continua innovación científico-tecnológica de los chips, esos microingenios que hacen posible nuestra sociedad digital.
(*) Catedrático de Electrónica, Universidad de Sevilla.