search
close-icon
Centros de Datos
PlatformDIGITAL®
Partners
Área de contenido
Acerca de Digital Realty
Language
Login
Contáctanos
banner
Artículos

Breve historia de los Centros de Datos

En un mundo de innumerables interacciones digitales, es fácil dar por sentada la perfecta conectividad entre personas, lugares y cosas. Sin embargo, son los centros de Datos los que hacen posible nuestro mundo moderno al permitir toda la conectividad, procesamiento y almacenamiento de los que dependemos a diario;

Por supuesto, los centros de datos no siempre han sido las instalaciones elegantes y eficientes que conocemos y amamos. Con esto en mente, echemos un vistazo a dónde empezaron los Centros de Datos, cómo han evolucionado y hacia dónde se dirigen en el futuro.

Los albores de los Datos

En los años 50 y 60, los centros de datos distaban mucho de sus primos modernos. De hecho, ni siquiera se llamaban centros de Datos, sino mainframes.

El CDC 6600, de Control Datos Corporation, se recuerda a menudo como el primer superordenador y presumía de una poderosa velocidad de procesamiento de 40MHz. Costando un dineral y fabricados a medida para usos empresariales específicos, estos ordenadores "Big Iron" eran escasos, inconstantes y requerían mucha mano de obra; mantenerlos operativos incluso durante días era toda una proeza

Sin conexión a la red, estos primeros mainframes eran islas de potencia informática en un mundo de papel y lápiz. Así es como Pitt Turner, Director Ejecutivo del Uptime Institute, recuerda el mainframe cercano de un gran banco regional: "Por la tarde, llegaban todos esos camiones... cargados de papel. Durante la noche, ese papel se procesaba, los datos se procesaban, se creaban nuevas impresiones y luego se enviaban los documentos a las sucursales bancarias para que pudieran abrir por la mañana";

A lo largo de los años 70 y 80, la Ley de Moore siguió tronando: la potencia de cálculo subía cada vez más y los ordenadores de sobremesa se convirtieron en algo habitual. Sin embargo, la evolución de los mainframes durante esta época no se centró principalmente en la potencia de procesamiento y la eficiencia, sino en la fiabilidad. La capacidad para garantizar la pureza de los Datos y evitar su corrupción no dejaba de aumentar, pero la potencia de cálculo seguía siendo costosa de gestionar, lo que llevó a muchas organizaciones a subcontratar sus necesidades en lugar de mantener "salas de máquinas" internas;

¿Le sirven?

En la década de 1990, todo cambió. Una tormenta perfecta arrasó con los mainframes tradicionales cuando el mundo presenció el boom de los microprocesadores, el nacimiento de Internet y el desarrollo de modelos informáticos cliente-servidor

De repente, la informática se volvió ágil: los retrasos y la burocracia dieron paso a la capacidad de aprovisionar e instalar aplicaciones empresariales mucho más rápidamente en un hardware relativamente barato. Las viejas salas de mainframes se llenaron de ordenadores con microprocesadores que actuaban como servidores, sentando las bases de los primeros centros de datos internos. Poco a poco, esta infraestructura se estandarizó tanto en diseño como en funcionamiento, y nacieron los racks modulares que conocemos hoy en día; Las cosas también estaban cambiando fuera de la empresa. A medida que la presencia permanente en Internet se hacía esencial, la Conectividad de red y los servicios de Colocation se convertían de repente en elementos críticos para las empresas. Los proveedores de Internet y las empresas de alojamiento empezaron a construir grandes instalaciones externas para prestar sus servicios, lo que desencadenó un frenesí de adopción de centros de datos;

Auge y caída

A medida que Internet maduraba a principios de los años noventa, los centros de datos pasaron a ocupar un lugar central. La inversión en TI se disparó y surgieron nuevas instalaciones en todo el mundo, mientras todo el mundo buscaba sacar provecho del boom de las puntocom

Cuando finalmente estalló la burbuja, el sector de los centros de datos quedó diezmado: 17 de los 27 operadores paneuropeos quebraron. Sin embargo, la recesión también dio el pistoletazo de salida a una revolución más silenciosa: la virtualización

En estos tiempos difíciles, la utilización del hardware, la energía, la refrigeración y la rentabilidad estaban a la orden del día, lo que permitió a las organizaciones reducir la huella de sus centros de datos y disminuir tanto el CapEx como el OpEx. El impacto de la virtualización fue espectacular: en última instancia, redujo las necesidades de energía, espacio y refrigeración de los centros de datos en torno a un 80%; Con la crisis financiera de 2008, el afán por reducir el gasto en TI, externalizar los requisitos y aprovechar el potencial de las economías de escala se afianzó. El mercado de Colocation experimentó un éxito arrollador, que continúa en la actualidad

De cara al futuro

Tendencias pujantes como la computación en nube, el Internet de las Cosas y el campo emergente de los Sistemas Ciberfísicos (también conocidos como Inteligencia Artificial) seguirán situando al centro de datos en el corazón de la economía digital.

Para satisfacer las estrictas exigencias de rendimiento, fiabilidad y Seguridad, las organizaciones optan cada vez más por abandonar las estrategias de centros de datos locales en favor de la colocación. Las instalaciones de Colocation actuales aprovechan toda la Conectividad, Sostenibilidad, Eficiencia, Resistencia y Experiencia que tanto ha costado conseguir en el último medio siglo. No es de extrañar, por tanto, que el negocio esté en auge; según Research and Markets, el sector de la Colocation está acelerando hacia un valor total de 55.310 millones de dólares a finales de 2021;

Por supuesto, es inevitable que se produzcan más cambios. Nadie sabe lo que nos depara el futuro, pero las instalaciones de Colocation de última generación ofrecen a las organizaciones la mejor oportunidad de estar preparadas para ello.

Tags