Frente a nuevos desafíos

    Por Leandro Africano

    Un repaso por el negocio de los data centers en la Argentina permite observar que el sector está atravesado por varias disyuntivas. Por un lado la gran migración hacia cloud computing, por otro la posibilidad de contratar infraestructura como servicio y la disponibilidad, virtualización y replicación de la información. Entre todos estos temas el sector se pregunta además cuáles serán los nuevos requisitos de las empresas para le economía que se viene.
    Los data centers crecen en todo el mundo y existe una mayor oferta de estos servicios por parte de los proveedores. “En la Argentina, actualmente, se está consolidando el concepto de virtualización de infraestructura, por lo que muchas empresas ven una oportunidad y perciben importantes ventajas al implementar este tipo de servicios”, señala Ignacio Ardohain, gerente comercial de FiberCorp.
    Una de las principales ventajas se basa en la contratación de la infraestructura como servicio: las empresas ya no tienen que realizar grandes inversiones, todo el equipamiento necesario para el óptimo funcionamiento del servicio corre por parte del proveedor de virtualización. De esta forma, acceden a la más moderna tecnología mediante el pago de un abono mensual, sin realizar compra alguna de equipos y evitando la obsolescencia de los mismos. En FiberCorp trabajamos bajo esta modalidad, impulsando el crecimiento y la consolidación de la virtualización en el mercado local de IT.
    “La gran mayoría de las grandes empresas en la Argentina ha invertido en data centers modernos para una mayor agilidad y un mejor uso de los recursos, pero aún no han podido lograr una mayor disponibilidad dado que en la actualidad las soluciones no son capaces de soportar la disponibilidad continua porque las soluciones son demasiado caras, las soluciones de backup clásicas son demasiado lentas y la brecha de disponibilidad se caracteriza por problemas como la pérdida de datos, los tiempos de recuperación largos, protección de datos poco fiables”, señala a Mercado Martín Colombo, gerente regional para Latinoamérica de Veeam, compañía proveedora de soluciones en software para centro de datos.


    Ignacio Ardohain

    Requerimientos actuales

    Según datos del sector hoy las organizaciones con mayor volumen de negocios en la Argentina requieren objetivos de tiempo y punto de recuperación (RTPO, por sus siglas en inglés) de menos de 15 minutos y un acceso continuo a todas las aplicaciones y datos que pueden ser prestados por data centers modernos construidos en base a las últimas tecnologías, como la virtualización, el almacenamiento y la nube. En este contexto según Gartner, el “backup empresarial es una de las tareas más antiguas y más realizadas para los profesionales de TI”. En su informe establece que “para el año 2018, 40% de las organizaciones aumentará con productos adicionales o sustituirá su aplicación de backup actual” y “para el año 2016, 20% de las organizaciones, frente a 7% actual, empleará solo técnicas replicación, abandonando el backup/recuperación tradicionales.
    Desde hace unos años el mercado en general está siguiendo la misma dinámica. La mayoría de las grandes empresas tienen sus centros de datos con elevados niveles de ocupación y están buscando alternativas para mejorar su rentabilidad por metro cuadrado. Según Gustavo Bergoc, jefe de Desarrollo de Productos y Alianzas de Claro, con relación a este punto se observan dos escenarios posibles: por un lado brindar más valor agregado a los clientes enfocando las ofertas en servicios menos commoditizados (Servicios Profesionales, IT Outsourcing, Servicios Gestionados de Data center, etc.)”.
    Otra alternativa que destaca en el mercado es explorar modelos de provisión de servicios que permitan ofrecer más soluciones ocupando menos espacio físico. Cloud es un claro ejemplo de este enfoque, especialmente con la familia de SaaS (Soluciones como Servicio) que añaden mucho valor al negocio de los clientes. Asimismo, existe otro grupo de proveedores, en general entrantes, que ha construido o ampliado infraestructura y que aún tiene un foco mayor en los servicios básicos de arrendamiento de espacio físico (housing o colocation).
    Marcela Cueli, Product Marketing Manager Data Center de Level 3, apunta que la evolución del sector “ha sido positiva, los servicios de data center siguen ganado participación dentro de la inversión en IT de las empresas y protagonismo en las decisiones estratégicas”. Desde su mirada para que las empresas puedan crecer es “imprescindible que generen valor diferencial, tanto en cuanto a los productos y servicios como a los modelos de cobertura y atención a clientes”. Es así que “en contextos tan vertiginosos y competitivos como el actual muchas veces la única forma de viabilizar proyectos disruptivos e innovadores como los que se necesitan para ganar mercado, es a través de servicios de terceros que acorten los plazos y faciliten la incorporación del estado del arte en gestión de la información”, apunta la ejecutiva.
    Para entender este cuadro de situación hay que tener que cuenta, como explica Lautaro Spotorno, director de Comunicaciones de Sap Argentina, que hace apenas 10 años, la arquitectura del centro de datos se basaba en servidores independientes que contenían aplicaciones individuales. Esta disposición, por lo general, resultó en sistemas mal utilizados que se han configurado para cargas máximas y vieron poca acción el resto del tiempo. La tecnología clave que puede ayudar a eliminar estos problemas es la virtualización. Se basa en el principio de que el hardware se desacopla del sistema operativo y aplicaciones. Las máquinas virtuales (VM) se instalan en los servidores físicos y comparten el entorno de hardware. De esta manera, el hardware de las aplicaciones individuales ya no tiene que ser configurado para cargas específicas y todo el grupo de servidores y almacenamiento está disponible para todas las aplicaciones de la empresa.


    Martín Colombo

    Gestión en la nube y automatización

    Todos los especialistas en tecnología coinciden en que los servicios de infraestructura en la nube en general, se suman a los servicios in-house y a los servicios tercerizados dedicados, no los reemplazan. “En este sentido es esencial lograr en primer lugar un adecuado nivel de integración entre los distintos entornos. Es vital para poder asegurar la consistencia de los datos y la eficiencia en su gestión. El segundo aspecto a tener en cuenta es que los datos que son albergados dentro del entorno de nube puedan ser recuperados e interpretados en otro entorno, en caso que por algún motivo se decida cambiar de proveedor del servicio cloud”, sostiene Cueli de Level 3. Y luego agrega: el tercer tema a tener en cuenta es la factibilidad de validar que los procesos con los que se gestiona la infraestructura, la plataforma tecnológica y las estructuras de soporte estén en línea con las políticas de seguridad definidas por la compañía”.
    Los desafíos en torno a la gestión de la infraestructura cuando se decide implementar el procesamiento de los datos en cloud están basados en conocer si la virtualización de la infraestructura se gestiona de manera eficiente. En este contexto desde las innovaciones, Ardohain de FiberCorp destaca que en el plano de la infraestructura, “generamos sitios redundantes al realizar una expansión del data center en distintas zonas geográficas. Hoy contamos con dos data centers espejados que nos permitieron aumentar la confiabilidad y el SLA de los servicios. Esto fue un paso importante y requirió una gran inversión, tanto en conectividad como en infraestructura. Por ejemplo, si un cliente contrata un servicio, la redundancia permite que su información esté resguardada en otro sitio distinto y alternativo, brindando robustez y seguridad”.
    Para Bergoc, de la compañía Claro, el desafío más fuerte gira en torno al procesamiento de datos en cloud. “Tiene que ver con controlar que los usuarios de la línea del negocio utilicen aplicaciones seguras y confiables. A su vez, el poder mantener de forma ordenada y unificada toda la información de la infraestructura que se está operando, dónde está ubicada la información, cuál es el costo que representan la soluciones adquiridas y qué impacto tienen en el negocio. Además, la facilidad con la que se puede crecer y adquirir nuevas soluciones bajo este modelo hace que en medio del ritmo vertiginoso de los negocios de hoy en día, pueda perderse el control de la información fácilmente”.
    Los proveedores más avanzados tecnológicamente han venido incorporando, con un ritmo acelerado en los últimos años, sistemas de automatización y orquestación de procesos. Principalmente, herramientas que permiten que tareas como la implementación de servicios nuevos, el crecimiento de servicios existentes o los cambios de configuración, se puedan realizar automáticamente en poco tiempo y controlados por el cliente final de forma simple e intuitiva a través de una interfaz web.
    “Uno de nuestros clientes en el país, un importante banco de la Argentina, nos eligió para automatizar el backup de toda la plataforma virtualizada y la replicación al data center de respaldo y reducir más de 90% el tiempo de backups (de 48 horas a solo cuatro). Además, redujo en 70% el espacio requerido para almacenar los backups de su entorno virtual con Veeam Backup & Replication, los que impactaron positivamente en su negocio acelerando los procesos de negocio y reduciendo los costos”, explicó Colombo de Veeam.


    Gustavo Bergoc

    Oferta y demanda, limitadas

    Pero a la hora de ser realistas, la oferta y demanda de servicios de automatización para data centers es limitada, ya que el mercado aún está madurando en la adopción del concepto de uso por consumo. “En este sentido, el gran desafío para los proveedores es contar con herramientas que les faciliten a sus clientes utilizar los recursos en la medida que va cambiando su negocio. Desde FiberCorp estamos trabajando en esta línea y apuntamos a que nuestros clientes puedan obtener los servicios en forma automatizada a través de un portal. Para ello, además, estamos invirtiendo en la automatización dentro de nuestros propios data centers, paso fundamental para poder brindar herramientas de autogestión y administración”, agrega Ardohain.
    Sobre este tema las miradas no se ponen de acuerdo. Hoy la oferta en automatización para data center es muy amplia pero al mismo tiempo podríamos decir que es caótica. “La mayoría de los proveedores disponen de un porfolio de herramientas muy completa desde el punto de vista de la funcionalidad pero muy anárquica todavía desde el punto de vista de la integración. En general estos productos son el resultado de desarrollos de distintas empresas, que a través de la compra o fusión se han convertido en parte de la misma suite de productos”, señala Cueli, de Level 3.
    Otros de los avances tecnológicos que están ayudando a los data centers tienen que ver con la mejora en la eficiencia de los sistemas de distribución de energía y enfriamiento. Entre ellos se pueden destacar los sistemas de refrigeración sin consumo de energía, la refrigeración por agua y las nuevas tecnologías que permiten a los equipos trabajar a mayores temperaturas disminuyendo el consumo por refrigeración. Dado que el costo de la energía es cada vez más alto, la posibilidad de tener un consumo más eficiente es cada vez más buscada por los grandes centros de datos.
    Para Claro, en el mundo de la automatización, la gran disrupción de los últimos tiempos viene de la mano de la consolidación de OpenStack como alternativa válida para la orquestación de infraestructura. “OpenStack es un software libre (código abierto) de computación en la nube que permite proporcionar una infraestructura como servicio (IaaS). El mismo viene ganando aceleradamente un gran lugar en la actividad y varias empresas se encuentran realizando pruebas para implementarlo (con al menos algunos de los módulos). Esto hace que la oferta de software pago con el mismo objetivo se vea amenazada y tenga que reformularse para ofrecer diferenciales atractivos para las empresas”, concluye Bergoc.
    En el futuro inmediato los desafíos de infraestructura y gestión de la información de los data centers a partir de big data, cloud computing, la movilidad y social business está obligando a las empresas a renovar y adaptar sus políticas de seguridad de la información. Esto se traduce en un crecimiento explosivo del volumen de datos de los negocios, el auge de la ubicuidad de la información y la consolidación de las TI como un servicio, en donde las capacidades de cómputo, almacenamiento y de red son concebidas de manera flexible, con tecnologías virtualizadas que pueden estar físicamente en lugares remotos.

    Claves para la seguridad

    La administración y gestión de un data center implica un protocolo de seguridad. Este es el catálogo con las principales premisas:
    • Ponderar el valor que tiene el dato para la empresa, considerando que este puede cambiar a lo largo del tiempo.
    • Hacer un concienzudo análisis de las amenazas a la que se ven expuestos para poder identificar el riesgo existente
    • En base a los riesgos y al valor del dato determinar que solución/soluciones de seguridad, qué procesos y que estructuras de gestión son las más adecuadas para protegerlo.
    • Capacitar a los usuarios para evitar que se conviertan en una herramienta de los hackers.
    • Auditar las herramientas, los procesos y la capacitación de los usuarios.
    • Revisar periódicamente las premisas que determinaron el valor de los datos y los riesgos para adaptar los procesos, las soluciones y las estructuras a los cambios que pudieran haber tenido lugar.
    Fuente: Level 3

    Un nuevo reto

    Cloud computing se ha consolidado durante los últimos años, y ha pasado de ser una novedad a ser una de las transformaciones obligadas para cualquier compañía. Según datos de IDC, 64% de las empresas latinoamericanas ya utilizan soluciones en la nube. Y como si esto fuera poco, el índice de conformidad entre quienes lo utilizan alcanza 94%. La virtualización de servidores ayuda a optimizar y flexibilizar el uso de los recursos de TI y además contribuye con el ahorro de capital y gastos de funcionamiento, ya que consumen menos energía. Esto se traduce directamente en una reducción de presupuesto.
    Sin embargo, migrar por completo los Centros de Procesamiento de Datos (CPD) de una compañía hacia la nube también representa algunos desafíos. “No puede negarse la necesidad de migrar al cloud y sus ventajas, pero el proceso trae consigo una serie de desafíos en torno a la gestión de la infraestructura, que no se limitan solo a la tecnología, sino que también incluyen la falta de experiencia de virtualización”, explica Rosano Moraes, vicepresidente de Soluciones de Administración de CA Technologies en América Latina y agrega “gestionar centros de datos nunca ha sido fácil, pero durante los últimos años se ha hecho aún más difícil, debido a la complejidad de las tecnologías de virtualización y a los entornos de aplicaciones multinivel”.
    La tendencia de la migración de los CPD supone un conjunto de transformaciones que la acompañan. Por ejemplo, las empresas están buscando la forma de optimizar la relación de servidor a administración por medio de la automatización, así como el modo en que tecnologías como la virtualización y conceptos como nubes privadas pueden ayudar con estos retos.
    También se deben tener en cuenta las configuraciones de red y de almacenamiento a la hora de armar la totalidad del servicio que se está solicitando. Lo más importante es una orquestación coordinada de tareas automatizadas. Cuando se trataba de un único servidor se podía hacer manualmente, pero cuando se tiene que implementar un servicio en decenas de servidores, la única posibilidad de evitar el error humano es por medio de la automatización.
    El objetivo de los nuevos servicios de automatización para data centers no es solamente hacer las cosas mejor, más rápido y de modo más económico, sino modificar el modo en el que tradicionalmente se han usado y gestionado los centros de datos.