El crecimiento de la containerización promueve la implementación de Kubernetes

Categories: Spanish |

Containerization Growth Positions Kubernetes for Wider Deployment

Hace tres años, Google, junto con Microsoft, IBM y Red Hat, introdujo ante el mundo de la tecnología empresarial a Kubernetes, un sistema de código abierto para gestionar contenedores. El beneficio central de Kubernetes reside en su capacidad para distribuir cargas de trabajo entre las computadoras de una red, incluso cuando dichas redes abarcan nubes públicas y privadas.

La containerización se deshace eficazmente de ciertas partes de los servidores para las aplicaciones, y rompe el código de programación en los componentes estándar, por lo que las cargas de trabajo pueden automatizarse. Los contenedores se utilizan y reutilizan, y se optimizan sin tener que esperar la actualización del sistema. La transición a los contenedores aumenta la implementación de Kubernetes por el sistema empresarial. El uso de Kubernetes para la gestión de contenedores ofrece la posibilidad de escala hacia arriba y hacia abajo de las aplicaciones, basándose en comandos sencillos, utilizando la interfaz de usuario (UI, por sus siglas en inglés), o de lo contrario, la escala se puede realizar automáticamente basándose en el uso de la interfaz de programación de aplicaciones (API, por sus siglas en inglés).

Sin embargo, el anuncio generó sorprendentemente poca reacción en el 2014. En primera instancia, fue una sorpresa dada la importancia de los patrocinadores y la revelación de Google de que había utilizado la tecnología subyacente Borg para soportar la operación de cerca de dos mil millones de contenedores a la semana para su servicio.

En parte, esto se debió a que Kubernetes fue introducido en medio de un replanteamiento de toda la industria en la arquitectura de la TI. Después de años de luchar con sistemas sobrecargados por la demanda, la industria del software acababa de establecerse en la virtualización como una forma de lograr la eficiencia, reasignando el trabajo a los servidores con capacidad libre. El modelo de virtualización aún mostraba ganancias de eficiencia, mientras que las preguntas fundamentales relacionadas con la seguridad tenían prioridad sobre la implementación de nuevos modelos. Por otra parte, los primeros usuarios lucharon para automatizar las infraestructuras, con dificultades en las gestiones entre contenedores y auto-escala, y otras características que deberían haber derivado ganancias.

En este entorno, la adopción de Kubernetes ha ocurrido dentro de la tendencia más amplia de microservicios. Las empresas suelen encontrar microservicios en un momento en que ya buscan reescribir el código para la nube. Tal como se explica en la Guía de un Ejecutivo de Software para Microservicios de Belatrix, disponible como descarga gratuita: “A veces tiene sentido usar la oportunidad de implementar microservicios, ya que luego se puede hacer una transición gradual de la aplicación a la nube, en lugar de emprender una migración más arriesgada y compleja”.

Desde entonces, Google ha actualizado Kubernetes, ahora en la versión 1.7, sobre una base estable. Una actualización especialmente dramática en el 2016, Kubernetes 1.4, no sólo simplificó la instalación y bootstrapping, sino que también ofreció una serie de mejoras de seguridad. (Para un análisis detallado sobre las características individuales de seguridad en Kubernetes 1.4, consulte el artículo de Swapnil Bhartiya sobre CIO, aquí). Además, las actualizaciones se han inspirado en las opiniones dadas en las conferencias de los desarrolladores.

Sin embargo, el ritmo de implementación puede acelerar muy pronto. Por un lado, la containerización ha demostrado ganancias impresionantes cuando se trata de la capacidad de la empresa para sincronizar datos, alinear las fases de prueba con implementaciones e introducir rápidamente las actualizaciones. Como señaló Mike Johnson en un post en Supergiant, la containerización está pasando por alto el choque de ingeniería a nivel de servidor que ralentizó la capacidad del desarrollador de automatizar. Cada vez más, los desarrolladores son capaces de desarrollar y probar aplicaciones dentro de un contenedor, y debido a que el equipo de ingeniería no necesita tener una visión totalmente integrada de cómo funciona la aplicación en el contenedor, sino sólo de que se ejecuta, los equipos están acelerando la velocidad al mercado.

Además, aunque existe una serie de contenedores y sistemas de gestión para elegir, en los últimos 12-18 meses, las empresas están eligiendo entre dos opciones principales, Kubernetes y Docker Swarm. Cada uno tiene sus méritos, y cada vez más, empresas como IBM parecen inclinarse al uso de Kubernetes / Docker como base para la implementación híbrida de la nube. De hecho, según una encuesta realizada a principios de este año por 451 Research y CoreOS, entre las empresas que ya utilizan contenedores, el 71% utilizaba Kubernetes para aumentar la eficiencia y productividad de su implementación en la nube.

Todo esto sugiere que la containerización está llegando al punto en el que las implementaciones  se están volviendo suficientemente frecuentes para lograr grandes ganancias de eficiencia. Esto, junto con la variedad de opciones para la gestión de contenedores, ofrece una implementación más amplia de Kubernetes.

 

Leave a comment