Hasta hace poco, la economía mundial estaba impulsada principalmente por los combustibles fósiles. Durante los últimos 80 años, ha surgido una infraestructura global para permitir la extracción, transporte y refinación de petróleo. Hoy, un nuevo "petróleo" está tomando la delantera en el impulso de nuestra economía global: los datos. Y al igual que el petróleo, la infraestructura para extraer, mover y transformar estos datos está creciendo más rápido que nunca.
Al igual que el petróleo, lo que comienza como datos sin procesar debe recopilarse, procesarse y transformarse para que sea valioso para una empresa. Al igual que el petróleo, gran parte de ese valor solo se puede obtener si los datos se pueden mover: desde IoT y dispositivos de borde como escáneres CT y vehículos autónomos, hasta flujos de trabajo y lagos de datos heredados en las instalaciones, hasta motores de IA y aplicaciones de transcodificación en la nube.
Durante las últimas dos décadas, los nuevos casos de uso que dependen de los datos continuaron creciendo, lo que generó tanto una tendencia como un desafío para nosotros, los profesionales del almacenamiento: el crecimiento exponencial de los datos. A nivel local, una organización que poseía y administraba 10 TB de datos de archivos en 2002 podría tener 10 PB ahora. ¡Eso es literalmente 1,000 veces más de lo que tenían hace 20 años!
Con todo ese crecimiento en los datos no estructurados viene una serie de desafíos asociados, la mayoría de los cuales ni siquiera estaban en el radar hace tan solo 10 años:
- Más allá de almacenarse, los datos actuales también deben analizarse, monitorearse y priorizarse
- Debe ser visto por las personas adecuadas, accesible para los flujos de trabajo correctos y entregado a los destinos correctos, de manera confiable y a tiempo, especialmente a escala.
- Los datos de hoy deben conservarse, a veces durante años y, a veces, indefinidamente, todo mientras crece hasta alcanzar un tamaño de exabyte y más.
Y eso no es todo lo que ha cambiado en los últimos 20 años. En la economía moderna, las organizaciones de todo tipo dependen cada vez más de las fuerzas de trabajo remotas y en el extranjero que necesitan acceso a datos de baja latencia. Incluso las organizaciones de un solo sitio pueden tener un alcance global donde los datos deben trasladarse a donde está la fuerza laboral. En el frente doméstico, las restricciones del centro de datos están empujando incluso las cargas de trabajo heredadas a la nube. Y si bien la nube promete un rendimiento y una capacidad ilimitados, depende de usted descubrir cómo obtener y sacar todos esos datos nuevos y valiosos antes de que pueda cumplir esa promesa.
No puede empeorar, ¿verdad? Por supuesto que puede: la mayoría de las opciones de almacenamiento en la nube no incluyen soporte nativo para aplicaciones y flujos de trabajo basados en archivos y, si lo hacen, son propiedad de una sola plataforma en la nube. La mayoría de estas plataformas no escalan a la capacidad que necesitan sus aplicaciones y probablemente no se integren fácilmente con su almacenamiento local. Si necesita ejecutar aplicaciones heredadas en la nube, prepárese para hacer una gran cantidad de reescrituras tediosas y costosas de estas aplicaciones.
Más datos, más problemas
Ya no basta con poder escalar la capacidad de almacenamiento. Los datos han cambiado, su entorno ha cambiado, sus aplicaciones han cambiado y su fuerza laboral ha cambiado. Para todos los problemas que vienen con cantidades masivas de datos, agregar más capacidad resuelve solo uno de ellos.
Al igual que la infraestructura para refinar el petróleo, ahora necesitamos una infraestructura centrada en los datos para recopilarlos, almacenarlos, transportarlos, transformarlos y archivarlos.
¿Qué pasaría si pudiera obtener todo lo que necesita, sin compromisos? ¿Qué pasaría si pudiera implementar una única solución de almacenamiento que, además de escalabilidad ilimitada, también le permitiera:
- ¿Implementarlo en cualquier lugar? En el entorno actual, es posible que necesite servicios de datos a gran escala en el hardware de su centro de datos, en máquinas virtuales basadas en el perímetro y en cualquier nube pública: AWS, Azure y/o GCP.
- ¿Elija su proveedor y modelo de hardware para implementaciones locales? No todas las cargas de trabajo se crean por igual. Necesita la flexibilidad para usar el hardware de su proveedor preferido y desea personalizar su sistema para satisfacer las necesidades específicas de rendimiento y capacidad de sus cargas de trabajo.
- ¿Mover sus datos de cualquier lugar a otro lugar? La gestión moderna del ciclo de vida de los datos también requiere movilidad de los datos: del borde al núcleo, del núcleo a la nube; a veces entre el archivo y el almacenamiento de objetos.
- ¿Poner sus datos a disposición de cualquier tipo de cliente y carga de trabajo? Para las empresas con cargas de trabajo mixtas de archivos y objetos, la capacidad de compartir datos entre todas las cargas de trabajo y clientes (NFS, SMB y S3) puede ser fundamental para maximizar el valor.
- ¿Usar un solo runbook para automatizar la administración de instancias locales y basadas en la nube? Cada implementación, en cualquier lugar, debe incluir las mismas funciones y la misma biblioteca de API para que no tenga que modificar sus scripts ni renunciar a sus funciones críticas.
¿Qué pasaría si pudieras tener la escalabilidad para crecer tanto como necesites? la flexibilidad para implementar en las instalaciones o en cualquier nube pública; el poder de poner cualquier cantidad de datos en cualquier lugar en cualquier línea de tiempo; y la versatilidad para proporcionar servicios de archivos y objetos a cualquier carga de trabajo?
Tendrías Qumulo.
Escale en cualquier lugar: según sus términos
Diseñado específicamente para las necesidades de los datos y las aplicaciones actuales, solo Qumulo ofrece la flexibilidad que requiere la empresa moderna: cualquier tamaño, cualquier flujo de trabajo; cualquier ubicación. Solo Qumulo ofrece los mismos servicios de datos no estructurados en la nube y en el perímetro que en las instalaciones: una solución de alto rendimiento independiente del hardware y la plataforma capaz de almacenar y mover cantidades masivas de datos de manera simple y confiable, ya sea en su centro de datos , en AWS, Azure, GCP o en su entorno perimetral.
Y ahora, con nuestro Lanzamiento de Scale Anywhere este mes, Qumulo agrega nuevas funciones a nuestra solución, lo que le permite aprovechar el poder y el valor de sus datos a medida que crecen, se mueven y se transforman:
- Si bien siempre le hemos ofrecido una opción de hardware de proveedor para sus flujos de trabajo locales, le brindamos más opciones para satisfacer sus necesidades. Puede usar nodos all-flash para cargas de trabajo de alto rendimiento o nodos híbridos de flash y disco para cargas de trabajo de datos intensivos. Ahora, estamos agregando nuevos nodos híbridos basados en NVMe de HPE, Supermicro y Arrow, cualquiera de los cuales brindará el rendimiento de flash al precio del disco.
- También le brindamos la capacidad de escalar sus implementaciones locales a niveles completamente nuevos, con soporte ahora para más de 200 nodos en un solo clúster de Qumulo. Con densidades que se acercan a los 500 TB en las familias de nodos actuales, ahora se puede lograr la capacidad de escalar a casi 100 PB en un solo espacio de nombres.
- También verá más funciones y capacidades para aprovechar sus datos de manera más efectiva, con la adición de compatibilidad con S3 como protocolo estándar en todos los clústeres. Siempre hemos ofrecido acceso multiprotocolo a sus datos y ahora ofrecemos S3 como parte de ese paquete. Puede compartir sin problemas los mismos datos entre sus aplicaciones y clientes basados en archivos y objetos.
Para los clientes SMB, estamos agregando dos nuevas funciones a nuestra pila de protocolos, que brindarán un rendimiento mejorado y una visibilidad de datos más efectiva en entornos a gran escala:
- SMB Change Notify permitirá a los clientes SMB detectar y mostrar cambios en el sistema de archivos de manera más eficaz. Por ejemplo, los archivos nuevos y modificados se mostrarán automáticamente en las funciones de Windows File Explorer y Windows Search, y los clientes ahora pueden ver carpetas específicas y cargas de trabajo basadas en ingesta para identificar fácilmente los cambios de datos.
- SMB multicanal permite a los clientes de múltiples NIC utilizar todas las rutas de red disponibles para datos SMB, ya sea para ancho de banda adicional o para agregar tolerancia a fallas en caso de falla en la ruta principal. Esta función permitirá la edición de video nativo de 8K en instancias de Qumulo basadas en AWS y brindará un mejor rendimiento para las cargas de trabajo de PACS en el sector de la salud.
Plataforma de datos 100% definida por software de Qumulo le brinda simplicidad a escala y más opciones y flexibilidad que cualquier otro sistema de archivos cuando se trata de cómo y dónde administra sus datos.
Los problemas modernos requieren soluciones modernas
Solo con Qumulo, las organizaciones de hoy en día pueden administrar el crecimiento de los datos, garantizar que se cumplan los objetivos de rendimiento y garantizar que los datos críticos se entreguen en cualquier parte del mundo a tiempo. E incluso en los entornos operativos complejos de la actualidad, solo Qumulo es tan simple que un solo administrador de almacenamiento puede administrar fácilmente petabytes de datos en múltiples entornos.
Con Qumulo, puede almacenar, administrar y transformar sus datos prácticamente a cualquier escala, en cualquier entorno, sin compromiso ni complejidad adicional. Entre todas las soluciones de datos de archivos empresariales, solo Qumulo le brinda la escala que necesita, en cualquier hardware y plataforma en la nube que desee, junto con la movilidad de datos para que todo sea posible, sin sacrificar la funcionalidad, la simplicidad o el valor.
Obtenga más información sobre nuestra plataforma Scale Anywhere.
James Walkenhorst es el ingeniero técnico de marketing sénior del equipo de productos de Qumulo. Ha estado trabajando en y alrededor de plataformas NAS y entornos de demostración práctica durante 15 años, y pasó los 10 años anteriores en operaciones de TI como ingeniero y gerente.