Evolución temporal Big Data

2003 – Google File System 2004 – MapReduce: Procesamiento simplificado de grandes clusters. 2005 – Doug Cutting comienza a desarrollar Hadoop 2006 – Yahoo comienza a trabajar en Hadoop 2008 – Hadoop sale a producción 2009 – Yahoo...

Optimizar Spark

Broadcast Hash Join Si se quiere unir una tabla grande con una pequeña, lo más eficiente es enviar la tabla pequeña por broadcast a la memoria de los Worker, así evitaremos que la grande ser esté enviando constantemente por red cada vez que se la necesita. Si se...

Arquitectura Spark

Spark context SparkContext es el contexto básico de Spark, desde donde se crean el resto de variables. En la shell de Spark viene directamente instancia en la variable «sc», aunque en otros entornos hay que instanciarlo explícitamente. Problema que solo se puede...

Apache Spark

Definición de Spark Apache Spark es un sistema de computación distribuida de software libre, que permite procesar grandes conjuntos de datos sobre un conjunto de máquinas de forma simultánea, proporcionando escalabilidad horizontal y la tolerancia a fallos. Para...