Azure Native Qumulo ahora disponible en la UE, el Reino Unido y Canadá: Más información

Administre sus datos, no su almacenamiento: sobreviviendo al ataque de datos de máquinas de hoy

Escrito por:

Por david bailey

Hoy vamos a hablar sobre el multiplicador de datos de la máquina o la tercera edad de los datos. Pero primero, una lección de historia sobre la explosión de datos empresariales en las últimas décadas.

Los primeros días: 1990s de mediados a finales
Cuando piensa en los sistemas de almacenamiento y en lo que fueron creados para los 1990 de mediados a finales, realmente se hicieron para procesar datos comerciales. Los sistemas se enfocaron principalmente para servir como bases de datos o para manejar el procesamiento de transacciones en línea. En ese entonces, recuerde que los sistemas de almacenamiento eran muy grandes, gigantes del tamaño de un refrigerador, y admitían uno o dos sistemas de mainframe pequeños (y, a veces, sistemas de mainframe muy grandes, también). Pero estos también fueron los días en que, si una base de datos era 200 GB o incluso una TB, se consideraba una muy grande Base de datos y una gran cantidad de almacenamiento para gestionar.

Además, es posible que estos primeros sistemas solo tuvieran más de controladores 12 para adjuntar sistemas. Así que los administradores no estaban administrando una tonelada de servidores que generaban los datos, porque no tenías muchas conexiones con los servidores para administrar.

Y así, a finales de los 1990, comienza a ver el invento de las SAN o redes de área de almacenamiento, donde tenía más y más sistemas que quería conectar al mismo sistema de almacenamiento, ya fuera para servidores de correo electrónico u otras cosas. El advenimiento de las SAN realmente mejoró la cantidad de conexiones totales que podía hacer con esos sistemas de almacenamiento, ya sea desde una perspectiva de rendimiento o simplemente por el gran volumen de servidores que se estaban desarrollando.

La aparición del "contenido empresarial humano": correos electrónicos, hojas de cálculo y fotografías digitales
Esto llevó a que se generara la siguiente generación de datos. Clasificamos esto como "contenido empresarial humano" que viene de muchas fuentes externas. Se trata de datos de archivos no estructurados generados por usuarios individuales, de fuentes como correos electrónicos, documentos de Word, hojas de cálculo de Excel, etc. Algunas de las nuevas redes sociales comenzaron a lanzarse: MySpaces of the world, y otras. Compañías como NetApp e Isilon comenzaron a ganar una gran posición en el mercado.

La otra fuente de datos importante en este momento (¡creando un crecimiento 10x!), Provino del auge de la fotografía digital. Las cámaras digitales comenzaron a producirse en serie durante los últimos 1990 y principios de 2000, y los consumidores se dieron cuenta de que necesitaban un lugar para almacenar sus fotos, ya que las primeras cámaras digitales no tenían mucho espacio de almacenamiento. Los usuarios también querían poder imprimir esas fotos. Esto llevó al auge de compañías como Ofoto y Shutterfly que se materializaron para que los consumidores pudieran cargar sus fotos digitales en sus sistemas.

Finalmente, en los primeros 2000, había compañías como RealNetworks que en ese momento transmitían juegos de béisbol y NFL y otros tipos de contenido de video. Claro, en aquel entonces era un contenido de video pequeño, con el tamaño de un sello postal, pero era solo el comienzo de lo que se ve ahora en términos de contenido de video en línea a medida que más compañías comenzaron a colocar datos en tiempo real en las redes para que los usuarios puedan ver.

Ingresando la edad de los datos generados por la máquina.
Y esto nos lleva al día de hoy. Todavía vemos el aumento de datos de archivos no estructurados, pero gran parte de ellos ahora son generados por máquinas. Ejemplos de esto incluyen imágenes de satélite o datos de sensores que recopilan información sobre automóviles que pasan por puentes y carreteras de peaje. También se generan grandes cantidades de datos con respecto a los registros web: registros que provienen de servidores de archivos, registros que provienen de interruptores para ver quién está usando estos recursos desde una perspectiva de auditoría.

Otra fuente de datos generados por máquinas, en algunos casos, petabytes de datos, proviene del lado bioinformático de la casa, donde cosas como los analizadores genéticos realizan análisis para estudios de cáncer, etc. ¡Estos volúmenes de datos se multiplican por 100!

Y aquí es donde Qumulo se ha posicionado a la perfección para manejar esos enormes volúmenes, de modo que nuestros clientes puedan ver cómo están creciendo sus datos, comprender cómo se utilizan, y al mismo tiempo simplificar la administración de los datos en el futuro.

Uno de los problemas que vemos con los datos generados por la máquina y el manejo de estas vastas cantidades de información, ya sean 100 de terabytes o petabytes de tamaño, es la ceguera de los datos. Esto se produce cuando se generan vastas cantidades de datos muy rápidamente desde muchos orígenes de datos de máquinas diferentes. Ser capaz de entender cómo crecen esos datos, y lo que realmente contienen esos datos es primordial para la forma en que los administras. Para muchas empresas, no es infrecuente ver que la TB de datos 5-10 crece cada día en estos sistemas de almacenamiento. Comprender esa escala y cómo gestionar cómo crecen los datos es muy importante.

La otra cosa que debemos tener en cuenta con los datos generados por la máquina son las metodologías de implementación o los componentes de afluencia. ¿Con los datos almacenados localmente, en la nube o en una combinación de ambos? ¿Tiene que administrar datos a través de diferentes plataformas o máquinas de proveedores?

Libere el poder de sus datos basados ​​en archivos con Qumulo
La misión de Qumulo es ayudar a las empresas a liberar el poder de sus datos basados ​​en archivos. Creemos que estos datos son el motor de la innovación de hoy. Las empresas en todas partes están luchando con la inmensa escala de los datos que están creando, curando, analizando o simplemente pidiendo que administren. De terabytes a petabytes, este desafío crece cada día y la carga de no poder derivar Inteligencia de esos datos complica aún más el problema.

Es fundamental que los usuarios puedan almacenar, administrar y comprender sus datos de manera efectiva para tomar decisiones estratégicas y de acciones.

¿Desea obtener más información sobre la tercera era de datos y si su infraestructura de almacenamiento actual puede hacer frente al creciente diluvio de datos? Contáctenos para más información. esta página.

Artículos Relacionados

Ir al Inicio