search
close-icon
Centros de Datos
PlatformDIGITAL®
Partners
Experiencia y recursos
Acerca de Digital Realty
Language
Login
banner
Artículo

La historia de internet en España (parte 2)

Autor invitado: Alvy (www.microsiervos.com)

En la primera parte de esta serie de dos artículos tratamos de los orígenes de internet antes de llegar a España (incluyendo la Arpanet original), cómo se inventaron los primeros protocolos (del TCP/IP al DNS y la WWW) y algo sobre la historia de RedIRIS en España. También se explicó cómo fue la llegada de la internet comercial, de InfoVía y el surgimiento de los puntos neutros (IX) como Espanix.

Esta segunda y última parte cubre el resto de la historia hasta nuestros días, centrándose en el crecimiento, las tecnologías como la virtualización, el paso del protocolo IPv4 a IPv6, los servicios en la nube y la inteligencia artificial. Naturalmente hubo otros fenómenos: las redes sociales, el e-commerce o los dispositivos móviles conectados, pero quedan fuera del ámbito tecnológico que busca esta cronología.

El crecimiento exponencial de internet en los 2000

El crash de las puntocom marcó el comienzo de siglo y pese a lo desastroso de aquel evento para muchos negocios de la red dejó también buenos posos sobre los que se edificaron nuevas compañías y proyectos. Las empresas de colocation, housing y hosting permitieron externalizar parte de esos nuevos negocios (tiendas, redes sociales, servicios de streaming) y dejarlos en manos de especialistas, algo a lo que también ayudó la expansión de la fibra óptica como alternativa al ADSL.

Uno de los eventos más significativos fue la liberalización del mercado de telecomunicaciones en 2003 (Ley 32/2003) que marcó un cambio significativo en la regulación de este sector en España. Esta ley eliminó la necesidad de autorizaciones y licencias individuales previas para prestar servicios, sustituyéndolas por un sistema de notificaciones a la Comisión del Mercado de las Telecomunicaciones (CMT), absorbida posteriormente por la Comisión Nacional de los Mercados y la Competencia. Con esto se fortalecieron los derechos de los usuarios y se introdujeron regulaciones más flexibles para supervisar el mercado y garantizar un servicio universal.

CNMC

A mediados de 2000 el crecimiento de la Web llevó al desarrollo de las Content Delivery Networks (CDN), que distribuidas geográficamente permiten entregar los contenidos de forma más eficiente. Akamai fue una de las empresas pioneras a finales de los 90 y principios de los 2000. Lo que comenzó siendo utilizado como un elaborado truco para reducir la latencia en las imágenes y vídeos pronto acabó evolucionando a la descarga de archivos y el streaming, un área de gran crecimiento.

Netflix, Spotify y las televisiones utilizan hoy en día las CDN como base de su presencia en la red. La llegada de la fibra óptica al hogar (FTTH) cambió un poco esta situación, aunque el aumento en paralelo del consumo de ancho de banda de los usuarios hizo que las CDN sean un componente vital para muchas empresas.

La transición de IPV4 a IPV6

La capacidad de Internet estaba originalmente limitada debido a las direcciones de 32 bits del protocolo de internet IPv4. Por esto desde principios de los 90 se comenzó a trabajar en una ampliación que permitiera un crecimiento más allá de las necesidades previsibles. De este modo nacieron en 1998 las direcciones IPv6 de 128 bits, que comenzarían a utilizarse en pruebas poco después.

En 2011 la Internet Assigned Numbers Authority (IANA) anunció oficialmente la asignación de los últimos bloques de IPv4 a los Registros Regionales. Desde entonces las compañías globales de telecomunicaciones y los proveedores comenzaron a promover la IPv6 de forma más insistente entre sus clientes.

Aunque fue un proceso gradual, en 2017 el 20% de los usuarios accedía a Google desde direcciones IPv6 y en 2023 ya era entre el 40 y 60% según las regiones. En España era alrededor del 4% en 2022 y el 9,5% en 2023. Vamos lento, pero la previsión es que con la eliminación de algunos de los últimos problemas de «traducción» de IPv4 a IPv6 esta cifra mejore sustancialmente en los próximos años.

Más virtualización en los centros de datos

La virtualización crea versiones virtuales de recursos físicos, como son los servidores, el almacenamiento o las redes. Utilizar un mismo hardware para ejecutar varios servidores virtuales permite reducir las necesidades de energía, espacio y refrigeración de los centros de datos en torno a un 80%. Aunque IBM ya había sido pionera de esta tecnología en los años 60, hasta los 90 pasó un poco sin pena ni gloria debido al auge de los PC. Sin embargo en 2001 VMware lanzó VMware ESX, para la virtualización de servidores a nivel empresarial, lo que marcó un hito significativo. A esto siguieron los hipervisores de Xen en 2003 y el Microsoft Virtual Server en 2004-2005.

En 2006 surgió algo inesperado, propio solo de compañías con poderío y experiencia en gestionar gigantescos centros de datos. Amazon lanzó sus Amazon Web Services (AWS) con EC2 (Elastic Cloud 2), popularizando de este modo los VPS (servidores privados virtuales) y el uso comercial de la virtualización en la nube, algo que llegó gradualmente a España hacia 2010. La popularidad de Amazon, su capacidad para gestionar cuentas de clientes y sus titánicos centros de datos le dieron una gran ventaja en su momento.

Del mismo modo, Google había lanzado hacia 2004 su correo Gmail, demostrando que era posible gestionar aplicaciones gigantescas para millones de usuarios con almacenamiento de dimensiones colosales y una disponibilidad a prueba de bombas. Eran los comienzos de la nube.

La llegada de la nube

Aunque el término "cloud computing" surgió en 1997, no fue algo verdaderamente práctico hasta que en 1999 empresas como Salesforce comenzaron a ofrecerlo para vender los famosos «software como servicio» (SaaS). A esto siguieron el AWS de Amazon, Gmail de Google y ya en 2006 Amazon lanzó su Elastic Compute Cloud (EC2) donde cualquier cliente podía alquilar servidores virtuales por horas, escalándolos según sus necesidades en un tiempo récord.

cloud computing

Además de los avances de Google y otras compañías, Microsoft comenzó a competir entre 2008 y 2010 con los servicios de infraestructura y plataforma de Azure, que llegaría a España en 2014. A lo que Google, IBM y VMware estuvieron haciendo se añadieron otros proyectos como como Docker o Kubernetes que se convirtieron en estándares de facto para gestionar aplicaciones en contenedores a gran escala, ya hacia 2017.

En 2018 comenzó a aplicarse el Reglamento General de Protección de Datos (GDPR), lo cual tuvo impacto en la forma en la que grandes empresas gestionaban la información personal de sus usuarios, cómo interactuaban con ellos y cómo los trabajadores gestionaban esos datos. La seguridad se convirtió en una prioridad en muchos proyectos, especialmente los que manejaban datos de carácter personal o confidencial, o relacionados con servicios públicos (Hacienda o Seguridad Social).

En 2020, la pandemia marcó un antes y un después de la adopción del cloud computing, dado que muchas empresas tuvieron que confiar en aplicaciones remotas para sus empleados, que teletrabajaban desde casa. Fue una aceleración inesperada que permitió el surgimiento de nuevos negocios, muchos de ellos en el sector más profesional y que dependían de aplicaciones y de la nube y servidores disponibles en sitios de confianza.

data gravity index

Más allá del cloud

Los servicios que van más allá del concepto original del cloud han evolucionado notablemente en la última época. Desde 2020 tenemos los servicios multi-cloud y las nubes híbridas, las clouds públicas y privadas. También están los accesos locales a la nube para reducir latencias (incluyendo AWS, Azure, Google, Oracle, IBM y Alibaba), el edge-computing y los efectos del data gravity o forma en que la “fuerza de atracción” de los datos generados por empresas, usuarios y ciudades "atraen" a más datos alojados en servidores de todo el mundo.

La optimización y las energías limpias

La eficiencia energética preocupa a las grandes empresas desde mediados de los años 2000 y es actualmente una prioridad. Telefónica fue en 2008 una de las empresas pioneras en optimizar sus sistemas de refrigeración y gestión de la energía. Tan pronto como se popularizó el concepto de la reducción de la huella de carbono hacia 2013 y 2014, los primeros centros de datos trataron de reducirla todo lo posible.

En 2018 España lanzó el llamado Pacto por una Economía Circular que implicaba a operadores y otras empresas tecnológicas, promoviendo las inversiones en energía limpias. Poco después, en 2020, Digital Realty ponía en marcha un nuevo centro de datos en Madrid con 100% energía renovable e integrada con la red eléctrica para mejorar la eficiencia energética.

Más recientemente Microsoft abrió en 2021 primera región con energía 100% renovable. Desde entonces, diversos informes como los de la Asociación Española de Data Centers sitúan entre un 55% y un 60% el uso de las energías renovables certificadas en los centros de datos de nuestra región. Entre las últimas tendencias: la refrigeración líquida, las baterías de respaldo (que sustituirían el uso de generadores diésel) y el uso de inteligencia artificial para mejorar la gestión energética.

La inteligencia artificial y los nuevos retos

La irrupción de diversas tecnologías relacionadas con la inteligencia artificial también llegó a los centros de datos y a España. Si entre 2014 y 2016 eran Google, Microsoft e IBM quienes lanzaban proyectos como DeepMind aplicado a los centros de datos, Brainwave para acelerar los datos en la nube y AI Ops para predecir fallos críticos, en nuestro país hubo desarrollos paralelos en esa línea.

A partir de 2017 operadores locales comenzaron a implementar IA para gestionar algunos de sus centros de datos, optimizando las cargas de trabajos y reduciendo el consumo energético. Más adelante, se incorporaron sistemas inteligentes de monitorización. También se incrementó la seguridad con la IA para fortalecer la protección en los momentos más críticos, especialmente durante la pandemia.

inteligencia artificial y data gravity

La aplicación de tecnologías de IA para la gestión de centros de datos ha sido una experiencia muy positiva en varias áreas. Estos avances agilizan operaciones y transforman aspectos de la gestión diaria de las instalaciones, proporcionando mayor conocimiento y agilidad a la hora de coordinar tareas, recursos y requerimientos. Hay usos muy específicos surgidos recientemente, entre los que destacamos:

  • Gestión energética: los algoritmos pueden distribuir tareas informáticas en función de la disponibilidad de energía y garantizar el uso equilibrado de energía en el centro de datos. Puede predecir el uso de energía y trasladar tareas no críticas a horarios donde se evite el consumo excesivo y se reduzcan costes. La IA, además, recopila y analiza datos sobre patrones de consumo de energía, lo que proporciona información muy útil sobre cómo se utiliza la energía y dónde se puede mejorar la eficiencia.
  • Mantenimiento predictivo: es un enfoque más preventivo de la operación del centro de datos mediante el uso de IA para predecir qué parte de las instalaciones necesita reparación. El mantenimiento predictivo puede aumentar la productividad empresarial, reducir las incidencias y averías y contribuir a la disminución de costes de mantenimiento si se compara con el mantenimiento tradicional.
  • Refrigeración inteligente: la IA y la computación de alto rendimiento han aumentado la demanda de energía en los centros de datos. Esto ha aumentado mucho las necesidades de refrigeración, lo que ha traído el desarrollo de soluciones inteligentes. con la aplicación de IA y aprendizaje automático se ajustan los parámetros de refrigeración, que a diferencia de la refrigeración tradicional por aire y líquido se basa en configuraciones predefinidas y ajustes manuales. Se optimiza el consumo eléctrico al predecir las condiciones y responder en tiempo real. Se adapta asimismo a los cambios en las cargas de trabajo y a las condiciones ambientales de forma automática, una ventaja frente a sistemas tradicionales.

Tags