Neueste Web-Entwicklung Tutorials
 

Apache Flume Lernprogramm


Flume ist ein Standard, einfache, robuste, flexible und erweiterbare Werkzeug für die Daten Einnahme von verschiedenen Datenproduzenten (webservers) in Hadoop. In diesem Tutorial werden wir mit einfachen und anschaulichen Beispiel sein, die Grundlagen der Apache Flume zu erklären, und wie es in der Praxis zu verwenden.


Publikum

Dieses Tutorial ist für all jene Profis gedacht, die den Prozess der Übertragung von Log-und Streaming-Daten aus verschiedenen Web-Servern zu HDFS oder HBase mit Apache Flume lernen möchten.


Voraussetzungen

Um das Beste aus dieser Übung zu machen, sollten Sie ein gutes Verständnis der Grundlagen von Hadoop und HDFS-Befehle haben.