Foro | Los últimos tutoriales de desarrollo web
 

Apache Flume Tutorial


Canal de flujo es una herramienta estándar, sencillo, robusto, flexible y extensible para la ingestión de datos de varios productores de datos (servidores web) en Hadoop. En este tutorial, vamos a utilizar ejemplo sencillo e ilustrativo para explicar los fundamentos de Apache Canal de flujo y la forma de utilizarlo en la práctica.


Audiencia

Este tutorial está destinado a todos aquellos profesionales que quieran aprender el proceso de transferencia de datos de registro y transmisión de varios servidores web a HDFS o HBase utilizando Apache Canal de flujo.


Requisitos previos

Para aprovechar al máximo este tutorial, usted debe tener una buena comprensión de los conceptos básicos de los comandos de Hadoop y HDFS.