Avatar

Sergio Ramos

5 de septiembre de 2024

Big Data y los desafíos de democratizar el procesamiento de datos

Esta semana Elon Musk anunció la puesta en marcha de la nueva supercomputadora Colossus de xAI, que sería el sistema de entrenamiento de IA más avanzado hasta ahora. La máquina ejecuta 100.000 unidades de procesamiento gráfico (GPU) Nvidia H100 y su construcción total tardó solo 122 días. Teniendo en cuenta que cada GPU de esa referencia tiene un valor que ronda los $30.000 dólares, la inversión asciende a miles de millones de dólares. 

Con las demandas actuales de la inteligencia artificial y la gran cantidad de datos que se deben analizar, el análisis y procesamiento de Big Data puede llegar a ser bastante costoso, demostrando que todavía quedan varios desafíos por resolver para que más empresas puedan desbloquear el poder de los datos. 

Durante las últimas décadas, la era digital ha traído consigo una generación de datos sin precedentes. Tras varias etapas, hemos llegado a un punto en el que el Big Data y la IA son las principales herramientas para la evolución de las industrias.

En el mundo actual cada detalle es valioso. Un clic, el scroll, el tiempo que te quedas mirando la pantalla, o cada búsqueda deja un rastro digital. Esto sumado a los datos que registramos fuera de la virtualidad, deja como resultado una vasta base de datos en continua expansión que se multiplica cada vez más; lo que hoy conocemos como Big Data.

Sin embargo, el reto para las empresas precisamente radica en acceder a esa información valiosa que brindan los datos, lo que requiere recursos humanos capacitados, así como herramientas de hardware y software avanzados, dando como resultado un alto costo que muchas empresas que están deseando aprovechar el Big Data no pueden costear.

Innovando en la análitica de datos en la nube

Si bien algunas soluciones ofrecen mejoras incrementales, recientemente la plataforma SQream Blue destacó en los benchmarks de rendimiento al superar las cifras actuales en tareas de procesamiento. De acuerdo con los resultados, la herramienta fue capaz de manejar 30 TB de datos tres veces más rápido que el motor Photon SQL basado en Spark de Databricks. Esto a su vez demostró que la enorme reducción en el tiempo de procesamiento generó grandes ahorros de costos, reduciendo los costos a un tercio del precio estándar del mercado. 

El tiempo de ejecución total de SQream Blue fue de 2462,6 segundos, y el costo total del procesamiento de los datos de extremo a extremo fue de $26,94 dólares. Esto en comparación con la plataforma referencia del sector, Databricks, cuyos resultados en la comparación evidenciaron un tiempo de ejecución total de 8332,4 segundos, dando como resultado un costo de $76,94 dólares.

Para las empresas que apuestan por la transformación digital, contar con este tipo de innovaciones para el análisis de datos representa una oportunidad valiosa que desbloquea nuevas posibilidades, proporcionando acceso a los patrones, tendencias y conocimientos profundos que van desde los puntos de mejora a nivel interno hasta la comprensión más amplia de su mercado, siendo la fuente principal para la transformación de todo tipo de industrias.

Avatar

Sergio Ramos

Editor en Social Geek, y contribuidor en Entrepreneur y Forbes en Español. Experto en temas de tecnología que disfruta aprendiendo sobre startups, emprendimiento e innovación.

Relacionados