• Tecnología informática
A mayor ritmo que en las últimas tres décadas, las computadoras siguen achicándose y, al mismo tiempo, tornándose ubicuas. O sea, la tecnología informática (TI) y sus manifestaciones están en todas partes; se vean o no. Por ejemplo, algunos intentan vincular en red sistemas de inventario y bases de datos contables y de clientes. Otros analizan tecnologías capaces de ampliar los alcances físicos de la Web, entre ellas microchips más eficientes y redes inalámbricas en banda ancha de mejor calidad.
Sin duda, los dispositivos informáticos en red irán invadiendo ámbito tras ámbito. Sólo que ya no se los verá como “computadoras”. Esto ya sucede, por ejemplo, en automóviles que contienen docenas de procesadores que nadie percibe como tales. Sistemas y computadoras están ahí, pero la gente no lo advierte.
Esta tendencia a incorporarse a todo y ser omnipresente no es nueva, pero actualmente muestra creciente dinámica. Gracias a recientes adelantos en técnicas básicas semiconductores, software en redes, el contexto abandona lo teórico, lo difuso e ingresa a los problemas técnicos.
A primera vista, parece que esa omnipresencia ya es una realidad. Después de todo, la World Wide Web ha transformado la Internet de feudo para científicos de biblioteca a la feria y la tribuna más grandes del planeta. Pero, en la nueva fase, quienes crean y diseñan programas están transformando la Red y la Web en un medio en conexión perpetua, donde navegantes y usuarios compartirán contenidos, accederán a recursos remotos, comprarán, venderán, operarán y se entretendrán. Todo cada vez más rápido.
Una “telaraña” peculiar
Al respecto, Justin Frankel, de AOL Time Warner, ha creado Gnutella, un ingenioso programa que permite a usuarios de PC conectarse vía disqueteras. Ello resulta en una “comunidad horizontal de música” tipo Napster, sin servidores ni bases de datos centrales, que puedan bloquear los titulares de derechos de reproducción. Pero la música es apenas una muestra de lo que podrían hacer esos programas “entre pares”. Así, una computadora con ese software emplea Internet para localizar otras máquinas con similares programas que, a su vez, se vinculan a otras.
Eventualmente, llegarían a formar vastas “telarañas” capaces de propagar archivos y pedidos de búsqueda. La capacidad de Gnutella, en cuanto a copiar y mover documentos por una red, facilitará el almacenamiento en cualquier espacio disponible del rígido y, además, permitirá estar un paso por delante de censores potenciales.
Sólo para gigantes
En el extremo opuesto a Gnutella, distintos investigadores preparan software para unificar supercomputadoras a escala mundial. Un antecedente de este proyecto puede encontrarse en Globus, un middleware (software intermediario) que crea un lenguaje apto para acceder a máquinas distantes, recolectores de datos y bases de datos científicas. Globus incluye herramientas para ubicar automáticamente el hardware y el software necesarios, autenticar usuarios en grilla y subdividir tareas informáticas entre instalaciones o sistemas con capacidad disponible.
Por ahora, Globus se destina principalmente para uso científico. Por el contrario, IBM, Microsoft y otras firmas avanzan hacia nuevos servicios en red, potencialmente más lucrativos.
“Ruteo inteligente” y otros chiches
En general, estas aplicaciones emplean protocolos Web recién normalizados, que brindan acceso a todo tipo de computadora en Internet y se hacen cargo de tareas densas en datos. Por ejemplo, gestión, programación y contabilización de inventarios. Además de las grandes empresas que ya están explorando este área, un nutrido número de compañías irá dedicándose a servicios en Web.
Así ocurre con una empresa californiana, Bang Networks. Reconociendo que el software distribuido por la Red podría encontrar cuellos de botella y sufrir pérdidas de paquetes, la firma ha desarrollo un “ruteo inteligente”, que preserva la seguridad en las comunicaciones. En el plano económico, “estos servicios business to business y business to consumer (B2B, B2C) seguirán dominando la informática ubicua durante algunos años”, cree Philippe Janson, perteneciente al laboratorio de IBM en Zürich, quien se encuentra abocado a generar un hardware en red que conforme una “trastienda” (back end) que viabilice esos servicios.
Concebir redes informáticas más veloces e inteligentes tiene sentido económico, sin duda. Pero tecnologías como comunidades entre pares, grillas o servicios en Web recién realizarán su potencial en pleno cuando ya no sea preciso atarse a la PC para aprovecharlas. Como decía Scott McNealy, alma máter de Sun Microsystems en Red Herring, “hasta que todo el mundo tenga acceso a contenidos en banda ancha, todo el tiempo y en todas partes, no nos sacaremos de encima las infraestructuras”.
Este problema no escapa a la atención de los investigadores en TI. Así, Vahid Tarokh, del Massachusetts Institute of Technology (MIT), ha inventado un método para que las señales inalámbricas no se diluyan al salir del transmisor emitiendo la misma señal desde varias antenas. Esta técnica, combinada con los nuevos sistemas para empacar más datos vía transmisiones radiales, podría extender la puja por servicios Web en banda ancha a celulares y otros dispositivos manuales.
Los fabricantes de microprocesadores apuestan a que esas novedades tecnológicas “abran” Internet y la tornen irresistible para negocios y consumidores. Así, desde septiembre, Intel pondrá en marcha un plan para reducir la cantidad de componentes en dispositivos móviles y conectados, lo cual bajará costos y precios. Entretanto, otra empresa, National Semiconductors, ha establecido una nueva división dedicada a microprocesadores de bajo consumo energético, pensados para terminales Web tamaño pastilla.
Ese tipo de semiconductores podría estimular el desarrollo de dispositivos informáticos portátiles. También generará sensores en red y otros medios de tantear, visualizar y controlar ambientes, espacios y personal.
• Biomedicina
¿Cuál es el estado actual de la medicina en el Primer Mundo? Un ejemplo favorito de Scott Manalis, también perteneciente al MIT, lo ilustra de la siguiente manera: alguien se aplasta un dedo haciendo trabajos caseros, va al médico, éste se lo revisa y le receta algo tan sencillo como la codeína. Este remedio calmará el dolor y permitirá que cure la leve luxación.
Pero si el paciente es uno de los 20 millones de norteamericanos que tiene una forma mutante de la enzima cyp2d6 que transforma codeína en morfina, el dolor no se calmará. “Lo malo explica el investigador es que esto recién se sabe al producirse los efectos. Esto significa que la medicina es todavía algo bastante relativo”.
Los médicos, entonces, pueden prescribir una droga basándose en los síntomas del paciente, pero existen factores ocultos en el código genético o molecular que tornan inútil el remedio. Sencillamente, porque las medicaciones actúan de manera diferente en pacientes diferentes. Peor aún, en casos de males como ciertos tumores o artritis, los síntomas no bastan para que el médico sepa qué anda mal, pues sutiles diferencias moleculares pueden ocultarse en manifestaciones externas aparentemente iguales.
Por ende, seleccionar drogas y tratamientos apropiados se torna azaroso. Ello explica por qué una concepción tan arraigada como la de un remedio para determinada enfermedad y válido en cualquier enfermo tiende a ceder ante la “medicación personalizada”. Sin las connotaciones que el término tiene en marketing, se trata de que los profesionales en general, especialistas puedan diagnosticar sobre una persona con precisión antes impensable y tratarla con drogas a medida no sólo del mal, sino del perfil genético o metabólico del enfermo. Es casi “medicina segmentada”, dado que el “mapa” de un paciente suele ser afín al del grupo familiar, subétnico, etcétera.
“La medicina está en vísperas de una revolución, sin la menor duda”, afirma Susan Lindquist, directora del Whitehead Institute for Biomedical Research (MIT, también). De hoy a 10 años, “uno irá al consultorio con su propio genoma en un chip y el médico podrá determinar a qué cuadros está expuesto el paciente, qué terapias precisa y qué drogas serán las más adecuadas o tendrán menos efectos colaterales no deseados”. A partir de cierto punto, “aun la forma de encarar enfermedades será distinta comenta Jeffrey Augen, director de estrategias científicas en IBM, porque los profesionales diagnosticarán basándose en genes y proteínas, no ya en muestras de tejidos”. De esa forma, en vez de una inflamación crónica o cáncer, una persona “tendrá” un desorden enzimático o una mutación celular de tipo específico.
Estos cambios se deben en gran medida a tecnologías todavía emergentes, que permiten identificar y analizar genes o proteína a increíble velocidad. Por tanto, es más fácil definir la naturaleza exacta de un mal o anticipar las reacciones de un individuo a la medicación. Incluso usando técnicas convencionales relativas al ácido desoxirribonucleico (ADN) y a las proteínas, los investigadores ya han dado los primeros pasos hacia la medicina personalizada o subsegmentada.
Por ejemplo, una mujer con cáncer mamario puede someterse a una prueba genética para revelar si el tumor responderá a determinadas drogas. Pero la clave reside en expandir estas aplicaciones iniciales y difundirlas en la práctica médica mediante microprocesadores, capaces de analizar simultáneamente miles de genes, proteínas y otras moléculas… en una sola gota de sangre.
Uno de los primeros triunfos de los biochips surgió de un estudio realizado en el año 2000, encabezado por los biólogos Patrick Brown, de la Universidad de Stanford, y Louis Staudt, del National Cancer Institute. Empleando micromatrices de ADN (obleas vítreas “sembradas” con miles de hebras ADN), los investigadores examinaron patrones de actividad entre genes relacionados con cierto tipo de cáncer, el linfoma no Hodgkins. Tras escrutar casi 18.000 genes, descubrieron que lo que se suponía una sola enfermedad era realmente dos. Además, la quimioterapia normalmente prescripta era mucho menos efectiva en pacientes con una de esas dos variantes.
Este hallazgo demuestra claramente que un mejor conocimiento a escala genética puede facilitar diagnósticos más exactos y tratamientos de mayor eficacia. En un futuro cercano, los chips ADN podrán “informar” a los médicos cómo recetar mejor los fármacos más comunes. Estos chips saldrán al mercado a principios de 2003.
Una siguiente generación de semiconductores más complejos permitirá leer rápidamente las “huellas digitales”de genes o enzimas directamente en el consultorio médico. Lo cierto es que los biochips actuales tienen un problema: los investigadores primero deben modificar la muestra de ADN, para que el microprocesador la detecte. Pero Manalis y sus equipos del Media Laboratory del MIT están haciendo un microchip de silicón potencialmente capaz de detectar secuencias específicas de genes en una muestra de sangre, que un sensor luego convertirá en señales eléctricas. La meta final de los experimentos es un biosensor simple, apto para diagnósticos ambulatorios.
A veces, no obstante, el ADN no cuenta todo. En esos casos, las proteínas “codificadas” en su secuencia son las que permiten detectar si alguien está enfermo o sano y si una droga es beneficiosa o tóxica. La gente del Whitehead Institute ha encontrado una forma de examinar la actividad real de las proteínas mediante matrices de células vivas inscriptas en chips cristalinos. El biólogo David Sabatini, de esa entidad, acaba de crear Akceli, una firma biocientífica destinada a comercializar desde mediados de 2003 esta tecnología entre firmas farmoquímicas.
Las posibilidades son amplias. Por ejemplo, será factible “equipar” cada célula del microprocesador con una variable diferente de enzimas corporales metabolizantes y exponerlo a una variedad de drogas. Al monitorear las reacciones celulares, podrá determinarse si un compuesto es peligroso o inofensivo para gente con ciertas variantes enzimáticas. Esto implicará crear perfiles de efectos colaterales a medida de los pacientes.
Todo permite inferir que durante cada año de esta década más drogas llegarán al mercado y, por ende, harán falta pruebas más certeras para seleccionar, entre ellas, las que sean aptas en casos determinados. Pero, al cabo de un tiempo razonable, nadie tendrá que tomarse una pastilla sin saber exactamente si surtirá efecto.
• Nanotecnologías
Poquísimos años atrás, conseguir fondos para emprendimientos nanotecnológicos era una tarea titánica. Ahora “el clima entre los inversores ha cambiado radicalmente”, afirma el químico James Tour, cofundador en 1999 de Molecular Electronics (ME), una de las primeras firmas que trata de incursionar comercialmente en ese campo.
Sólo durante 2001, un año durante el cual los avances se han sucedido uno tras otro, han ido apareciendo millones de dólares en capitales de riesgo y se han formado docenas de compañías nanotecnológicas. Por un lado, ME proyecta memorias moleculares para acumular datos; por el otro, algunas empresas apuntan a biosensores ultrasensibles, paneles ultrachatos o nanoláseres.
Por supuesto, estos esfuerzos comparten el mismo objetivo básico: usar componentes cuyo tamaño se expresa en nanómetros (1 (check) = un millonésimo de milímetro). La nanotecnología afectará cada año más áreas de la economía real. Los expertos creen que el máximo impacto previsible se traducirá en la nanoelectrónica, donde lo más chico, veloz y barato irá dejando atrás todo lo convencional, aunque se trata de la escala “micro”.
Progresos ha habido en llamativa sucesión. En 1998, los investigadores pugnaban en torno de un solo componente nanoelectrónico: una molécula que actuaba como conmutador rudimentario. En 2002, varios equipos ya conectan docenas de esos elementos y se orientan al nivel siguiente: cómo armar nanodispositivos enteros; por ejemplo, microprocesadores para memorias.
En la actualidad, los microsilicones contienen elementos cuyo tamaño alcanza apenas 130 (check). Pero seguir achicando escalas tiende a ser difícil y costoso y, en algún momento, el silicio ya no dará para más. Según opina John Rogers Bell Labs, Lucent Technologies “hará falta algo distinto; quizá transistores de tamaño molecular”. Aunque falten ocho a diez años para ponerlos en mercado, los chips que incorporen esos componentes son la apuesta clave de la industria, en cuanto a construir computadoras más veloces y baratas, cuya vigencia se mantenga hasta 2025-30.
“El tipo de nanoelectrónica en cuestión llevará un hardware que cabrá no en un reloj pulsera ni en un botón de camisa sino en una fibra de la camiseta”, suele pronosticar Phipil Kuekes, de Hewlett-Packard Laboratories. Su equipo trabaja en el diseño de circuitos a partir de grupos perpendiculares de nanoalambres, conectados en cada intersección mediante transistores moleculares. A mediados de este decenio, la empresa demostrará cómo opera un circuito lógico casi tan potente como lo era el de silicones hacia 1969.
La idea consiste en reinventar el circuito integrado, con su lógica y memoria, e integrarlo a un proceso de producción a escala molecular. Pero, antes de eso, las empresas empezarán a integrar componentes nanoelectrónicos, incluso nanocircuitos y memorias ultradensas, en dispositivos de silicón convencionales.
Científicos e investigadores aplican nanoelectrónica en el desarrollo de sensores biológicos y químicos de características imposibles para las tecnologías convencionales. En la Universidad de California (Berkeley), Peidong Yang experimenta con sensores a partir de nanocircuitos de silicón, en los cuales el contacto con una sola molécula modifica el estado electrónico del circuito. Esa alteración puede ser medida para identificar moléculas desconocidas con propósitos de diagnosis o detección de patógenos.
No obstante, explotar in extenso las posibilidades nanoelectrónicas exige remover varios obstáculos de consideración. Primero, hacen falta componentes robustos que operen tan bien como los silicones; tarea nada leve, dada la ventaja de 50 años que llevan los semiconductores. A mediados de 2001, en Bell Labs se hicieron progresos fabricando un transistor molecular que iguala a sus primos de sílice en un aspecto clave: amplificación de la corriente que pasa por él. Sin ese factor, la señal se desvanece rápidamente y los dispositivos múltiples no funcionan juntos como circuito lógicos complejos. El transistor de Bell Labs conmuta y amplifica la corriente, por lo cual es apto para armar bloques de circuitos más amplios.
Todo eso es apenas una parte de proceso, sostiene el Nobel de Química de 1996, Richard Smalley, “y todavía debemos desarrollar vías para que las piezas vayan por su cuenta adonde queramos”. Miles de millones, hasta billones de transistores moleculares podrían insertarse en un chip… demasiados para ordenarlos uno a uno. “Es necesario que el proceso sea tan automático como para que cualquiera pueda hacerlo”, añade el científico.
Una de las vías más prometedoras se conoce como “autoensamblaje” y remite a la biología. “La naturaleza hace ya maravillas ensamblando moléculas y otros nanocomponentes en patrones complejos”, recuerda Ángela Belcher, investigadora de la Universidad de Texas, dedicada a multiplicar generaciones de virus y bacterias, en busca de desenvolver rasgos tales como “asas proteínicas”, capaces de combinarse con nanotubos de carbono (moléculas muy apreciadas por su solidez y propiedades eléctricas) y depositarse en patrones útiles para la nanoelectrónica. “Esto tomará tiempo, pero mucho menos que el que esperábamos hace dos años”.
• Transportes
Así como la nanotecnología empieza a revolucionar la medicina con el empleo de ultrasensores, antes de 2010 los motores de aeronaves y vehículos de superficie podrán autodiagnosticarse y detectar problemas vía inalámbrica, sin intervención humana. De hecho, ya existen sistemas munidos de sensores que transmiten datos sobre funcionamiento o desempeño vía satélite a equipos de mantenimiento. Estos dispositivos monitorean leves cambios de presión, temperatura y flujos de combustibles pasibles de originar fallas mecánicas.
“El próximo paso consiste en llevar ese nivel de inteligencia a las unidades en sí”, señala Rusty Irving, del centro de investigaciones globales de General Electric. Este objetivo impulsa gran parte de la labor científica en materia de aviones, trenes y automóviles. Sensores más baratos, microprocesadores más veloces, la tercera generación de comunicaciones inalámbricas (los fracasos económicos de tantas empresas la han hecho tabú, pero sigue en marcha) y software en continua mejora.
Esta labor incluye también sistemas y programas destinados a señalización y dirección del tráfico por tierra, aire y espacio. Las presiones de infraestructuras existentes y la demanda de servicios aceleran una transición ya en proceso. Por ejemplo, en el caso de las toll tags, autoadhesivos (velcros) colocados en los coches, capaces de dar información al ser escaneados vía láser en los puestos de peaje.
Este tipo de sensores provee datos sobre cobro de la tasa, velocidad, frecuencia de paso, número de vehículos en movimiento y hasta seguridad de camiones en rutas interestaduales. En el sur de California, estos autoadhesivos inteligentes también se usan para cobrar a los clientes en locales de comida rápida y centros de compras camineros.
Precisamente, las toll tags están generando experiencias piloto. Por caso, ya se desarrollan bases de datos accesible vía sitios Web, que contienen registros de seguridad referidos a camiones. La información puede actualizarse casi en tiempo real desde posiciones federales o estaduales. Cuando un vehículo se para ante un puesto caminero, incluso ya al acercarse, estas bases de datos se franquean vía el número del velcro. El sistema va camino de expandirse y, de dos a cinco años, alcanzará los puntos más remotos de la red vial estadounidense.
Las toll tags son apenas una aplicación de tecnologías inalámbricas que van innovando los transportes. Más de dos millones de automovilistas emplean ya la telemática mezcla de comunicación inalámbrica, computación y tecnología satelital, llamada “localización global de posiciones” para navegar en la Red, ubicar servicios locales, consultar correo electrónico y hasta obtener diagnósticos a distancia de fallas mecánicas vía sensores instalados en el coche. Por ahora, esta franja está dominada por el servicio OnStar de General Motors.
Entretanto, las aplicaciones telemáticas orientadas a automotores implican reconocimiento de voz, una función clave para “discar sin dedos” y comunicarse, sobre todo en emergencias. Las automotrices, por su parte, compiten para incorporar “actuadores electrónicos”, que eventualmente reemplazarán a los sistemas convencionales de transmisión hidráulica y mecánica.