Una MegaInternet para 100 billones de archivos

    Según un extenso trabajo hecho en la Universidad de California (Berkeley), en general los 600 millones que están en Internet la emplean mayormente en las formas de correo electrónico, buscador, salas de conversación o debates y descarga de música e imágenes. En cuanto a negocios, se estima que ­en 2003­ habrán sumado alrededor de US$ 3,9 billones. O sea, 38% del PBI norteamericano. Por supuesto, los fondos mutuales, solos, acumulan siete billones.
    Fuentes allegadas al sector estiman que 72% de estadounidenses, 30% de chinos (incluyendo Taiwán) o 24% de brasileños visitan la Red por lo menos una vez al mes. A pesar de estos números, Internet todavía se parece a un motor 1973 ­año de su gestación como Arpanet­ metido en una carrocería que viene creciendo y rearmándose alrededor de la misma máquina.
    Pero, desde hace muy poco, un centenar de científicos e ingenieros informáticos, auspiciado por grandes firmas, trabaja en un modelo completamente nuevo de Internet. El proyecto se llama PlanetLab, es a tres años y sus objetivos básicos son:

    • Descartar computadoras portátiles (laptops) y discos rígidos, mediante un sistema que recree cualquier ciberespacio privado, programa por programa, en cualquier terminal enchufada a la Red.
    • Eludir trastornos causados por virus y gusanos (cada incidente costaba, en 2002, un promedio de US$ 80.000). La propia Red detectará y destruirá paquetes o subprogramas dañinos, sin darles tiempo para infectar terminales.
    • Bajar instantáneamente datos en banda ancha, sin importar cuántos usuarios estén compitiendo por el mismo material.
    • Archivar ­en forma segura e indestructible­ documentos de todo tipo, fotos digitales, videos y cualquier otro contenido que circule por Internet. Esto hará que los compactos o los DVD parezcan discos de 78 rpm.

    Esas innovaciones implican revolucionar la computación hogareña, el e-commerce y las prácticas informáticas en las organizaciones. La clave reside en que el equipo investigador ­gente de California-Berkeley, MIT, Princeton y otras cincuenta instituciones­ no ampliará la Red actual, sino que construirá otra por encima de ella. El planteo ha obtenido ya el apoyo de la National Science Foundation, Google, Hewlett-Packard, Intel y otras empresas de primera línea.

    Red = terminal

    PlanetLab arrancó en marzo de 2002 y, a fines de septiembre último, había conectado 175 nodos inteligentes en ochenta sitios de 13 países. Para 2006, se esperan 1.000 nódulos en la futura MegaInternet (o, como dicen en Alemania, Internet III).
    Como muchos inventos, este esquema parte de una idea por demás sencilla y nada nueva. En realidad, se originó en Sun Microsystems y propone sacar datos y funciones de la PC o los servidores para transladarlos a la red misma. Pero eso es imposible en la Internet actual, que consiste en motores básicos, los ruteadores, donde Cisco Systems es hegemónica. Ello implica emplear todavía protocolos de hace 25 años para abrir e-mails, páginas Web y otros archivos electrónicos que, luego, se reintegran en paquetes individuales y se remiten a otras máquinas.
    Más allá de esa función básica, los ruteadores son bobos e inflexibles. Simplemente, no fueron diseñados para operar en niveles tan complejos como los necesarios para reconocer o reaccionar a ataques de virus o cuellos de botella en la Red.
    Por su parte, los nodos inteligentes del futuro sistema son PC comunes, capaces de procesar softwares normales cargados por los usuarios. Copias de un programa pueden correr al mismo tiempo en muchos nódulos alrededor del planeta. Cada una se conecta directamente a un ruteador convencional, así puede intercambiar datos con otros nodos en la Red existente. Por eso, los científicos definen a PlanetLab como una red alrededor de la Red; algo así como una cáscara.
    Para manejar todo eso, cada nodo corre un software que divide los recursos de la máquina ­espacio en el rígido, potencia de procesamiento­ entre los usuarios del nuevo sistema. Las ventajas implícitas son enormes. Por ejemplo, estas redes inteligentes pueden crear una nueva generación de programas distribuidos que prevengan atascamientos y difundan al instante datos críticos. Ello mantendrá Internet segura mientras se procesan comunicaciones con mucha mayor velocidad y fiabilidad.
    Justamente, expandir esta red lo más rápido posible ­señala Lawrence Peterson, de Princeton­ permitirá volver a un espíritu emprendedor típico en los primeros tiempos de Internet. Pero el progreso no será fácil, porque ¿cómo diseminar un servicio tan innovador en miles de máquinas y, luego, ponerlo a prueba?.
    Hay un factor favorable: Internet ya no es el cubículo de laboratorio que fuera en su fase inicial. Es un espacio de servicios que todo programador puede usar y mejorar, opina Vinton Cerf, uno de los creadores de aquella Red, hoy vicepresidente primero de MCI (ex WorldCom).

    Gusanos y virus

    Sin duda, hoy el punto ciego de Internet es que se trata de un sistema basado en confianza. Pero, con el tiempo, la Red ha estallado en una nova cultural que desactualiza ideas fundacionales. De ahí la correntada de spams, virus, gusanos y errores que suelen costar carísimo.
    Aun sin llegar a la cadena de gusanos mutantes sufrida en el tercer trimestre de 2003, Red Code ­12/7/2002­ se contagió instantáneamente a 360.000 máquinas. Esas terminales fueron secuestradas en un intento de saturar el sitio Web de la Casa Blanca con datos sin sentido. Limpiar las computadoras afectadas costó US$ 2.600 millones.
    En el futuro, Netbait (un subprograma del proyecto PlanetLab) podrá consignar a la historia ese tipo de desastres. Veamos: las máquinas infectadas con Red Code, So Big y similares envían paquetes que tantean en pos de sistemas no protegidos, aptos para infectar. Los ruteadores bobos los transportan y nadie se da cuenta, hasta que se desencadena la ofensiva y los sistemas locales comienzan a caerse.

    En teoría, un programa adecuado corriendo por ruteadores inteligentes podría interceptar los tanteos, ubicar su origen y ayudar a rastrear ­o hasta bloquear­ un ataque general. Eso es justamente lo que hace Netbait (anzuelo en la Red), según fue diseñado por equipos de Intel y Berkeley.
    El cerebro de Netbait, Brent Chun, lo ha corrido en 90 nodos durante los primeros meses de 2003. A mediados de marzo, el subprograma detectó una mutación del gusano Red Code mediante más de 1.200 pruebas diarias. Esto es, un grado de sensibilidad muy superior al de cualquier ruteador normal aislado. Los datos captados por Netbait revelaron que la nueva forma de Red Code había empezado a desplazar la corriente.

    A criterio de Peterson, Netbait puede detectar patrones y advertir a los administradores de sistemas locales que ciertas máquinas de sus sitios están infectadas. Esto es absolutamente novedoso, pues hace factible que un subprograma llegue a funcionar como sistema de alerta temprano para toda Internet (¿adónde iría a parar el negocio de parches y antivirus?).

    Problemas de tráfico

    Así como no previeron defensas contra hordas de hackers, los arquitectos de Internet tampoco se imaginaron los atascamientos al instante. Es decir, cuando montones de usuarios visitan un mismo sitio al mismo tiempo y saturan el portal, su servidor o la Red misma. Así ocurrió, en 1999, cuando una marca de lencería lanzó una promoción por TV durante una final de béisbol y su sitio quedó sepultado por 1,5 millón de pedidos en pocas horas.
    Esa clase de sucesos y sus primos malos, los ataques que causan denegación de servicio, pueden tirar abajo sitios sin protección. Por ejemplo, la que ofrece una red tipo Akamai, que oculta copias de sitios clientes mediante servidores propios ampliamente distribuidos. Pero el problema es cuántas copias hacer. Si son pocas, la saturación continuará; si son demasiadas, atiborrarán los servidores de la propia Red.
    En un futuro no muy lejano, los nodos PlanetLab ajustarán sobre la marcha la cantidad de copias ocultas. Para ello, cada nodo dedicará una parte de tiempo y memoria del procesador a un subprograma diseñado por Vivek Pai (otro elemento de Princeton). Ese software monitoreará pedidos de páginas a bajar y, cuando detecte exceso de alta demanda, los copiará en el rígido del nodo (la PC) y el registro funcionará como la memoria de un servidor común.
    A medida que crezca la demanda, el programa insertará la página en nodos adicionales y dispersará la carga. De esa forma, ajustará constantemente la cantidad de réplicas a la popularidad de la página.
    La nueva herramienta, conocida como CoDeeN, ya opera a tiempo completo en la red de nodos PlanetLab. Cualquiera puede usarla rediseñando su buscador Web para enchufarse al nodo más próximo. Una vez superada la fase de pruebas y ajustes (estima Pai), este software sustentará una red con miles de nodos. Eventualmente, podría surgir una red Akamai pública y gratuita.

    670 trillones de domicilios

    Los ruteadores bobos no son la única limitación. En otro plano, hay creciente proliferación de elementos conectables a la Red: laptops, dispositivos manuales múltiples, aparatos electrónicos y, dentro de poco, sistemas de autos o aviones y hasta sensores remotos. Esta afluencia genera escasez de direcciones para protocolos en Internet (PI). Para peor, una inminente revisión del sistema quizá resulte en una cantidad casi inconcebible de domicilios digitales.
    En la actualidad, cualquier dispositivo que apele a Internet tiene una dirección de hasta 32 dígitos binarios. El esquema, creado a principios de los 80, admitía un máximo de 4.300 millones de direcciones diferentes. Eso ya no alcanza.
    Por tanto, la próxima versión de PI ­prevista para dentro de algunos años­ generará códigos de hasta 128 dígitos binarios. Ese número permite unos 670 trillones (670 +18 ceros) de direcciones por milímetro cuadrado de superficie terrestre. Eso debiera ser suficiente por un lapso razonable.

    Trabas estructurales

    Eliminar cuellos de botella o atascamientos instantáneos no solucionaría, de por sí, los retrasos estructurales de Internet. De ahí que otro software experimental encare un problema de fondo: la falta de un buen mapa que cubra la Red.
    Al paso de los años, Internet ha ido convirtiéndose en una densa urdimbre de ruteadores y vínculos troncales, propiedad de miles de prestadores de servicios (PSI). Los paquetes entran y salen, sin que haya visibilidad ni control de lo que ocurre en el medio, señala Thomas Anderson (Universidad de Washington, Seattle).
    Una solución sería el software Scriptroute, desarrollado por ese experto. Se trata de un programa distribuido que lanza nodos inteligentes a explorar regiones específicas del ciberespacio. Luego envían a la base los datos obtenidos en cada viaje.
    Esta información proyecta un mapa de vínculos activos dentro de cada PSI y, entre ellos, junto con mensura de los paquetes de tiempo necesarios para cruzar cada vínculo. Es como una vista aérea de una red carretera interurbana.

    Mantener los datos intactos

    Preservar datos puede ser tan problemático como transmitirlos. Eso lo sabe cualquiera que haya olvidado algún dispositivo personal en el tren o sufrido daños en el disco rígido de su PC. Lo que hace falta, sostiene John Kubiatowicz (Berkeley), es un método para diseminar datos, sin transportarlos físicamente, y tenerlos siempre a mano, invulnerables a daños, pérdidas e intrusos.
    Ésa es precisamente la meta de OceanStore, un sistema de almacenamiento distributivo, parte de la experiencia PlanetLab. Este software encripta archivos ­documentos, balances, fotos digitales, música, video­ y luego los divide en fragmentos yuxtapuestos. El sistema mueve continuamente esos fragmentos y los replica en nodos alrededor del mundo.
    El archivo original puede rearmarse a partir de cualquier subconjunto de piezas, por tanto es casi indestructible (aun si fallan nodos locales). Por ahora, éstos tienen memoria suficiente para que algunos cientos de personas acumulen archivos en OceanStore. Eventualmente, habrá millones de nodos disponibles. La idea de Kubiatowicz es generar software suficiente para manejar 100 billones de archivos: 16.667 por cada habitante actual del planeta.
    Para rastrear los datos distribuidos, el sistema asigna a los fragmentos de cada archivo específico su propio código. Es un número muy largo, conocido como identificador global único (IGU). Si el propietario quiere recobrarlo, su máquina le pedirá al nodo que lleva el programa, localizar las copias de fragmentos más cercanas con el mismo IGU y rearmarlas.

    Una Red en perpetua recreación

    La historia empezó en 1969 y tal vez nunca acabe. Ese año se hizo el primer intento de usar computadores en comunicaciones. Su banco de pruebas eventualmente originaría Internet. La experiencia era compartida por universidades y firmas tecnológicas, con fondos de la Agencia para Investigaciones Avanzadas, Departamento Federal de Defensa (Darpa = Defenses Advanced Research Projects Agency).
    Entre 1973 y 1983, fue desarrollándose una red de pequeñas redes, donde las máquinas intercambiaban paquetes de datos formateados y dirigidos según un doble código: protocolo para control de transporte y protocolo de Internet (TCP/IP en inglés). Concebido en 1973, diez años después sustituyó a los protocolos Arpanet.
    Aparece en 1992 la red troncal múltiple (Mbone, o sea multicast backbone), un sistema que permite a muchas personas ver la misma información en tiempo real ­por ejemplo, trasmisiones en video­ por la Red. Fue creada para superar limitaciones de los protocolos aplicados a Internet I (sólo podían enviar determinado paquete a una sola dirección). Cuatro años después, surge Internet II, cuando un consorcio de 200 universidades crea Abilene, una red de ruteadores de alto desempeño y vínculos de fibra óptica.
    Abilene puede transmitir una película DVD completa en 36 segundos, o sea 3.500 veces más rápido que cualquier línea de abonado digital o conexión por cable. También en 1996 aparece la Grilla, una trama de organizaciones públicas y privadas que emplean software desarrollado por el Departamento Federal de Energía y la Universidad de California meridional, para ligar supercomputadoras dispersas, instrumental científico y almacenes de datos. Esta grilla puede resolver problemas tan duros como tamizar moléculas farmoquímicas.
    El año 2000 trajo la red vertebral activa, Abone, capaz de probar la eficacia de las tramas. En ella, las redes quedan privadas casi totalmente de inteligencia (inclusive el software para mensajes básicos). Los paquetes de datos contienen todo el software y las instrucciones necesarias para transmitirse a sí mismos. Fundada por Darpa, fue generada por SRI International (entidad investigadora privada en Menlo Park) y la Universidad de California.

    160 dígitos binarios

    Privacía y seguridad están incorporadas desde el vamos. Un propietario que desee recobrar archivos deberá primero dar una clave, generada mediante métodos habituales de encriptado y almacenada en un área protegida de su PC. Esa clave contiene tantos dígitos que resulta imposible adivinarla y obtener acceso no autorizado.
    El password brinda acceso a los directorios de OceanStore que, a su vez, les asignan nombres legibles ­por ejemplo, internet.draft­ a los IGU fragmentarios. Luego, los códigos se emplean para buscar, vía el sistema, las copias más cercanas, reensamblarlas y desencriptarlas. Existe además otro nivel de protección: códigos identificatorios, generados a partir de los datos mientras éstos se guardan cubiertos por una función encriptadora segura.
    Al igual que las claves, esos códigos son tan largos (160 dígitos binarios) que ni la más avanzada supercomputadora actual podría penetrarlos. De modo que, si los datos recobrados de OceanStore no muestran identidad alterada, el propietario sabe que no han sido tocados.
    Los ingenieros quisieran que Ocean Store se convirtiese en un servicio similar a las líneas de abonados digitales (LAD) o a Internet por cable. Los usuarios pagarían un abono mensual de acceso. Esta opción y otras podrían estar disponibles en tres a cinco años. Pero, antes, debieran suceder dos cosas.
    Una, desarrollar versiones más robustas del código OceanStore. Otra, que alguien provea bastantes nodos como para expandir el sistema a una escala útil. Eso podría encararlo una empresa que buscase ingresar en el negocio del almacenamiento distribuido. Preveo que OceanStore tenga de primer cliente al Hotmail del futuro, suele decir Peterson.
    Amén de proveer multialmacenamiento seguro, OceanStore podría asimismo convertir cualquier PC en la máquina personal de cualquier abonado. En el siguiente nivel de desarrollo, el sistema guardaría todo el entorno informático del usuario ­PC, laptop, dispositivos más sus aplicaciones­, lo transportaría por la Red y lo rearmaría a pedido. Aunque el usuario opere desde una máquina en las antípodas. Esta aptitud le será muy útil al hombre de negocios que viaje mucho, al médico que de pronto precise revisar una historia clínica remota o al contratista de obra que haya dejado planos en otro lugar.
    Estas posibilidades interesan ya a varias firmas, que trabajan en cristalizarlas. Por ejemplo, Intel desarrolla Suspend/Resume y Sun ensaya diversos modelos de movilidad. Pero, hasta ahora, sólo PlanetLab puede aportar la infraestructura necesaria a esas tecnologías y ofrecer medios de administrar decenas de gigabitios en datos.

    Y después ¿qué?

    Los esquemas descriptos son apenas una parte de las posibilidades a mediano plazo. Parecen ideas muy radicales, pero no lo son más que el comercio electrónico hace diez años o los dispositivos inteligentes múltiples hace cinco. De hecho, comparando la primera película de la serie Matrix, hay efectos asombrosos que, en la tercera (Revolutions), ya se toman como normales. Pero, como ocurre con el pop vía MP3, los argumentos son cada vez menos imaginativos.
    Volviendo a PlanetLab ­que no revoluciona contenidos sino medios­, la pregunta clave es qué y cómo serán el Google o el Amazon de la futura MegaInternet inteligente. En teoría, el proyecto excluye el lucro, o sea los negocios (igual que Arpanet o la Internet inicial), pero las plataformas resultantes no podrán eludirlos.
    Aún no tenemos ideas concretas al respecto, pero nuestro objetivo es un espacio abierto donde circulen servicios durante mucho tiempo. En algún punto ­admiten Peterson y Kubiatowicz­, alguien querrá adoptarlos o replicarlos con fines comerciales. Algo así como lo que ya sucede con el sistema de fuente abierta Linux. La clave reside en que los experimentos en curso desarrollen métodos para que la futura red de nodos opere sin sobresaltos y dé lugar a una red inteligente estable.
    Los auspiciantes iniciales del proyecto ­Intel, HP y otros­ probablemente sean los primeros en explotar la futura cáscara de Internet. Por ejemplo, los laboratorios de HP instalaron en junio 30 nodos PlanetLab y piensan usar la Red para probar tecnologías sobre la marcha, con el objeto de acelerar su conversión en productos y servicios.
    Un caso es el software desarrollado para usar la red distribuidora CoDeeN-like, a fin de comprimir y transmitir videos de alta resolución a dispositivos móviles. La intención es no malgastar ancho de banda. Este sistema permitiría, verbigracia, comprimir un partido de fútbol en un solo nodo local que, luego, genere corrientes de datos aptos para resoluciones en pantallas diferentes (PC, inalámbricos, asistentes personales). HP o sus licenciatarios podrían poner en plaza este servicio en un par de años.

    Problemas siempre habrá

    En esencia, el proyecto PlanetLab experimenta con servicios y opciones que no existen todavía en Internet. Por eso mismo, los problemas no faltan ni faltarán.
    Hasta ahora, virus y gusanos siempre surgen de máquinas ubicadas a orillas del ciberespacio. No se necesita una proeza de imaginación para figurarse qué sucedería si esos ataques partiesen de un nodo fiable dentro de la propia Red. Al respecto, no existe aún en PlanetLab una autoridad centralizadora que obligue a todas las terminales a cumplir determinados cánones de seguridad, como los de Akamai y otras redes privadas.
    Los investigadores en Berkeley, Palo Alto, Princeton y otros grupos experimentales aseguran que ya se trabaja en métodos para evitar contingencias. Por supuesto, pueden surgir otros proyectos tipo PlanetLab y, con ellos, redes más inteligentes o nuevos paradigmas de servicios y negocios. No obstante, cualquier esquema deberá realizar potenciales inexplorados en acceso a banda ancha, seguridad, almacenamiento compartido y contenidos fiables.