Es por lejos el sector que experimenta periódicamente importantes evoluciones en sus planteamientos de infraestructura. La industria informática no se concibe sin cambios cada vez más rápidos y que dejan atrás todo lo que se consideraba como nuevo o lo último. Un artículo de Gartner sostiene que el inicio de este eterno proceso fue el paso de los mainframes a los miniordenadores en los años 70; siguiendo con la adopción de la arquitectura cliente/servidor basada en hardware y software estándar del sector en los años 80-90 y el auge de las máquinas virtuales a principios de los 2000.
Gartner define a grandes rasgos el término “nativo de la nube” como algo creado para permitir o aprovechar las características de la nube. La infraestructura nativa de la nube se utiliza para ofrecer plataformas con una agilidad que refleja los procesos ágiles para ofrecer aplicaciones nativas de la nube. Por lo tanto, la infraestructura nativa de la nube debe ser programable, resistente, inmutable, modular, elástica y declarativa (PRIMED).
Existen diferentes formas de desplegar una infraestructura nativa en la nube, pero en la práctica, las iniciativas nativas a gran escala se basarán probablemente en contenedores y Kubernetes. A medida que Kubernetes se convierte en la base de un número creciente de aplicaciones, tanto desarrolladas internamente como suministradas por ISV, se convierte de hecho en la “infraestructura” sobre la que se despliegan estas aplicaciones.
En comparación con la infraestructura virtual centrada en la máquina, la infraestructura nativa de la nube está fundamentalmente centrada en la aplicación. Cuando se basa en Kubernetes, la infraestructura nativa de la nube introduce algunos cambios prácticos, como que los pods se convierten efectivamente en las CPU; las reclamaciones de volumen persistente (PVC) se convierten en los dispositivos de almacenamiento de datos, y las capas de conectividad de servicios, como las mallas de servicios, se convierten en la red.
La infraestructura nativa de la nube también explotará la evolución de la tecnología de computación, almacenamiento y redes en los niveles inferiores de la infraestructura, como la ejecución de contenedores en servidores de metal desnudo; la descarga de tareas a tarjetas aceleradoras de funciones especializadas (FAC); el uso de procesadores basados en arquitecturas como ARM, y la ejecución de código con enfoques de micro-VM como WebAssembly (Wasm).
Y lo que es más importante, a diferencia de anteriores oleadas de evolución de la infraestructura, la introducción de la infraestructura Cloud requerirá algo más que la adopción de nuevos principios de arquitectura y tecnología. Las nuevas prácticas operativas como GitOps, que aprovechan el plano de control activo de Kubernetes y su configuración declarativa, y los modelos basados en el consumo para el aprovisionamiento de infraestructuras también son fundamentales para su implantación.
Eso sí, para alcanzar todo el potencial de la infraestructura nativa de la nube estos tres aspectos deben abordarse de forma holística.
El objetivo de desplegar una infraestructura nativa en la nube es respaldar una plataforma de autoservicio para desarrollar y/o entregar aplicaciones basadas en una arquitectura nativa en la nube. Kubernetes suele ser el núcleo de la infraestructura Cloud hoy en día, pero con el tiempo será menos visible a medida que se entregue cada vez más con una experiencia sin servidor, incluso cuando se empuje más hacia el extremo. En última instancia, los equipos de productos esperarán trabajar en un entorno en el que los recursos informáticos, de almacenamiento y de red de bajo nivel se restrinjan.