Cuando ampliamos por primera vez la plataforma de datos de Qumulo a la nube pública, nuestra tesis era clara. Creíamos que las empresas utilizarían la nube como una extensión natural de sus centros de datos, principalmente para dos cargas de trabajo de baja intensidad: el respaldo de datos no estructurados en un modelo híbrido y el archivado a largo plazo mediante servicios como Glacier Instant Retrieval, en combinación con el nivel frío de Qumulo nativo de la nube, para ofrecer una forma altamente duradera y rentable de mantener los datos siempre en línea. La premisa era que la nube sería una red de seguridad económica y resiliente para los tipos de datos empresariales menos críticos.
La realidad que emergió ha sido la contraria a esa expectativa. Hoy en día, más de la mitad de nuestros clientes de la nube no comienzan con cargas de trabajo de respaldo o archivo. Empiezan con el nivel de acceso prioritario: sus datos más valiosos, sensibles al rendimiento y críticos para el negocio. Estos son los conjuntos de datos de los que dependen las empresas para la innovación, el análisis y el razonamiento de la IA. La razón es simple: en la nube, los datos no son solo almacenamiento inerte, sino el combustible para la computación. La nube pública ofrece un modelo de utilidad de capacidad computacional disponible al instante, distribuida globalmente e infinitamente elástica. En lugar de esperar meses para implementar infraestructura especializada (centros de datos, redes y configuraciones de computación exóticas), los clientes pueden transferir sus datos más valiosos a la nube y colocarlos directamente junto a clústeres de GPU, aceleradores de IA y motores analíticos de hiperescala disponibles bajo demanda.
Esta inversión de comportamiento ha transformado la forma en que las empresas conciben las estrategias híbridas y multicloud. Observamos que nuestros clientes utilizan Cloud Data Fabric para transmitir datos de forma activa desde sus centros de datos locales a tres o cuatro nubes públicas distintas simultáneamente. No lo hacen por redundancia, sino para aprovechar selectivamente las fortalezas computacionales diferenciadas de cada proveedor de nube. Una empresa de servicios financieros puede elegir Azure para análisis regulatorios, AWS para entrenamiento de IA, GCP para flujos de trabajo de ciencia de datos y OCI para HPC, todo a la vez, porque Qumulo puede poner sus datos al alcance de cada uno de estos entornos sin que la empresa pierda soberanía ni control.
Esta perspectiva contrasta marcadamente con voces como la de Michael Dell, quien en 2018 afirmó que "hasta el 80 por ciento de los clientes en todos los segmentos... informan que están repatriando cargas de trabajo a sistemas locales debido al costo, el rendimiento y la seguridad". Si bien esa afirmación puede haber tenido poder retórico en la ola inicial de adopción de la nube, caracteriza erróneamente la naturaleza de lo que realmente se está repatriando. En nuestras conversaciones con clientes y colegas de la industria, las cargas de trabajo que tienden a regresar a los entornos locales no son los conjuntos de datos calientes y computacionalmente intensivos. Son copias de seguridad. Por diseño, las copias de seguridad son frías, estáticas y computacionalmente inertes: intensivas en almacenamiento, pero no en rendimiento. Retirar esas cargas de trabajo es, en el mejor de los casos, un ejercicio de optimización de costos, no evidencia de un éxodo masivo de la innovación empresarial de la nube pública.
Más recientemente, Dell ha argumentado que «la inferencia de IA local, donde ya se encuentra el 83 % de los datos, es un 75 % más rentable que depender de la nube pública de otro». El problema con esta afirmación es que confunde la ubicación de los datos almacenados con el lugar donde realmente se crea valor. Las empresas no están trasladando sus conjuntos de datos más valiosos a la nube para reducir sus costes de almacenamiento; lo están haciendo para desbloquear el acceso inmediato a la computación elástica a escala global. La nube se ha convertido en el lugar donde residen las cargas de trabajo más innovadoras precisamente porque la computación, no el almacenamiento, es el recurso escaso y diferenciador. La rentabilidad no se puede reducir a centavos por gigabyte; debe medirse por la velocidad a la que las empresas pueden razonar sobre sus datos y actuar.
La inversión de nuestra tesis original subraya una profunda verdad del mercado: la nube no es simplemente un punto final de almacenamiento. Es una frontera computacional. Los datos más importantes migrarán a donde se pueda actuar sobre ellos con mayor eficacia. Por eso, la arquitectura de Qumulo —cualquier dato, cualquier ubicación, control total— tiene tanta repercusión en todos los sectores. Nuestros clientes no consideran la nube frente a las instalaciones locales como una opción binaria. Están adoptando una estructura de datos fluida donde las cargas de trabajo de alto valor fluyen a las nubes que mejor se adaptan a ellas, mientras que los archivos sensibles a los costos encuentran un hogar duradero en entornos híbridos o locales.
Esta es la nueva forma de la TI empresarial. El futuro no reside en silos de datos estáticos, sino en estructuras de datos universales donde los conjuntos de datos activos se mueven al ritmo de la innovación, la computación se consume como un servicio público y los datos más valiosos residen donde las empresas pueden extraer el máximo provecho. Ese futuro ya está aquí, y Qumulo se enorgullece de ser la plataforma que lo hace posible.


