El tiempo de los grandes centros de proceso de datos llega a su fin. En un plazo breve serán reemplazados por sistemas de software de datos más baratos y arquitecturas basadas en chips ARM. Las ingentes cantidades de contenidos que se generan en la actualidad no podrán ser gestionadas de forma eficaz por los tradicionales sistemas de almacenamiento, por lo que estamos a las puertas de un nuevo modelo de manejo de la información. Sobre este particular reflexiona en Readwrite Brian Proffitt, experto en cloud computing y tecnología aplicada a la empresa.
En su artículo, comienza haciendo un repaso por los modelos (procesos transaccionales, bases de datos relacionales…) y las prioridades y usos (seguridad antes que velocidad, análisis de datos para definir estrategias de negocio…) que se fueron sucediendo en el ámbito de la empresa en lo que a las tecnologías de la información se refiere. Lo que hoy tenemos delante, según recoge Proffitt, es una verdadera ruptura en el manejo de datos.
Mike Hoskins, de Pervasive Software, pone un ejemplo muy ilustrativo para calibrar la dimensión de lo que estamos hablando: Facebok genera en una semana más cantidad de datos que toda la información de negocio almacenada por la cadena estadounidense Wal-Mart a lo largo de cuarenta años. Hoy, en el universo del comercio electrónico, los millones de “clics” que hacen los consumidores ponen en marcha transacciones con cantidades ingentes de datos, generando una carga de trabajo sobre el hardware que soporta estos procesos que excede la capacidad de un centro de datos tradicional. "Estamos llegando al final de la vida útil de nuestros centros de datos”, afirma Hoskins.
Porque incluso en el caso de que el software convencional pueda manejar estos volúmenes, ninguna empresa se lo podría permitir, y menos si añadimos los costes de adquisición del hardware y el gasto energético para hacerlo funcionar. Por ese lado, el del hardware, viene la principal innovación para reducir costes en el manejo de grandes volúmenes de contenidos: los servidores con procesadores ARM, que absorben hasta veinte veces menos energía que los procesadores tipo Intel.
En lo que respecta al software, la tendencia es manejar grandes volúmenes de datos con sistemas Hadoop, como el que Facebook utiliza para almacenar, gestionar y analizar datos. En el artículo de Proffitt leemos: “Desde hace décadas, las bases de datos relacionales han manejado datos de todas las formas y tamaños, pero ahora habrá un cierto volumen que la arquitectura del centro de datos tradicional simplemente no será capaz de manejar. Esto supone –algo que él considera positivo– la primera estratificación que se produce en los modelos de gestión de datos”. Se necesitarán por tanto nuevos tipos de infraestructuras para hacer frente a estas nuevas escalas. Las basadas en Hadoop son el primer paso hacia el futuro: arquitecturas de bajo coste armadas con servidores de bajo consumo energético, que integran los datos y las aplicaciones que los manejan lo más cerca posible unos de otras, con el fin de maximizar la eficiencia y la velocidad.
Hoskins dice que la tecnología de bases de datos relacionales ha tenido una buena racha, pero asegura que su presencia casi obligada en cualquier gran sistema de información va a ser cada vez más escasa, así como “una nueva clase de centros de proceso de datos será pronto a ser el nuevo sheriff de la ciudad”.