大数据学习
bigdata learning
Toggle navigation
大数据学习
主页
openGauss数据库
Flume
MongoDB
Hadoop
数据库实验
Kafka
Zookeeper
Hbase
Manual
Spark
Neo4j
InfluxDB
RabbitMQ
Flink
About Me
归档
标签
01-Flume概述
Flume
2022-09-27 17:15:04
47
0
0
bigdata
Flume
# Flume 概述 ## 1 Flume 定义 Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传 输的系统。 Flume 基于流式架构,灵活简单。  Flume最主要的作用就是,实时读取服务器本地磁盘的数据,将数据写入到HDFS。 ## 2 Flume 基础架构 Flume 组成架构如图所示  下面我们来详细介绍一下 Flume 架构中的组件: ### 2.1 Agent Agent 是一个 JVM 进程,它以事件的形式将数据从源头送至目的。 Agent 主要有 3 个部分组成, Source、 Channel、 Sink。 ### 2.2 Source Source 是负责接收数据到 Flume Agent 的组件。 Source 组件可以处理各种类型、各种 格式的日志数据,包括 avro、 thrift、 exec、 jms、 spooling directory、 netcat、 sequence、generator、 syslog、 http、 legacy。 ### 2.3 Sink Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储 或索引系统、或者被发送到另一个 Flume Agent。 Sink 组件目的地包括 hdfs、 logger、 avro、 thrift、 ipc、 file、 HBase、 solr、自定 义。 ### 2.4 Channel Channel 是位于 Source 和 Sink 之间的缓冲区。因此, Channel 允许 Source 和 Sink 运作在不同的速率上。 Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个Sink 的读取操作。 Flume 自带两种 Channel: Memory Channel 和 File Channel 以及 Kafka Channel。 Memory Channel 是内存中的队列。 Memory Channel 在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。 File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。 ### 2.5 Event 传输单元, Flume 数据传输的基本单元,以 Event 的形式将数据从源头送至目的地。Event 由 Header 和 Body 两部分组成, Header 用来存放该 event 的一些属性,为 K-V 结构,Body 用来存放该条数据,形式为字节数组。 
上一篇:
01-Flink下载安装
下一篇:
01-HBase安装
文档导航