por Diego Calvo | Sep 6, 2018 | Big data, Scala, Spark
Prerequisitos Limpiar todos los hdfs generados, utilizando la linea de comandos hdfs dfs -rm -r /streaming hdfs dfs -mkdir /streaming hdfs dfs -ls /streaming Generar datos usados para iniciar el análisis Se genera una serie de datos en formato json que se almacenan en... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Definición de Spark Streaming Apache Spark Streaming es una extensión de la API core de Spark, que da respuesta al procesamiento de datos en tiempo real de forma escalable, con alto rendimiento y tolerancia a fallos. Spark Sreaming fue desarrollado por la Universidad... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Los frameworks de procesamiento de datos ecosistemas Big Data se clasifican en los siguientes bloques: Batch – procesamiento por lotes Hadoop Map-reduce: motor de procesamiento batch o por lotes. Streaming – procesamiento en tiempo real Apache Storm...