2024-04-09 15:51:40
16
0
0
认证和授权
认证
InfluxDB的HTTP API和命令行界面(CLI),包括简单的基于用户凭据的内置认证。当开启认证时,InfluxDB只会执行发送中带有有效证书的HTTP请求。
注意:认证只发生在HTTP请求范围内。插件目前不具备认证请求的能力,(例如Graphite、collectd等)是没有认证的。
创建认证
1. 至少创建一个admin用户
如果你开启了认证但是没有用户,那么InfluxDB将不会开启认证,而且只有在创建了一个admin用户之后才会接受外部请求。
当创建一个admin用户后,InfluxDB才能开启认证。
2024-04-09 15:51:40
26
0
0
运行influxdb
1、 开启服务器中influxdb:
在nbubigdata里创建influxdb的项目:
cd ~/bigdatamkdir influxcd influx
创建maven项目
2、 创建对应的maven项目:
创建后代码项目结构如下:
我们修改App.java的内容,App.java修改后内容如下:
3、添加influxdb数据库依赖
在App.java中引用了influxdb相关的jar包,所以需要在pom.xml中添加influxdb驱动依赖来下载相关的jar包,修改pom.xml,修改后的内容如
2024-04-09 15:51:40
34
0
0
InfluxDB是一个用于存储和分析时间序列数据的开源数据库。
主要特性有:内置HTTP接口,使用方便,直接调用接口实现对数据库的读写
一、进入数据库查看要操作的表:
1、进入influxdb,查看数据库:
2、 查看mydb数据库中的measurements,并查看“cpu”表里的内容:
二、利用http api接口(get操作)实现数据库的读操作:
1、 新建maven项目:
nbu@ecs:~/bigdata/influx$ mvn archetype:generate -DgroupId=org.nbubigdata.influxdb -Da
2024-04-09 20:17:43
30
0
0
TICK Stack 是一个由四个开源工具组成的软件堆栈
用于处理时间序列数据。以下是 TICK Stack 中每个组件的简要介绍:
Telegraf: Telegraf 是一个轻量级的代理程序,用于从各种不同的数据源收集指标数据,并将其发送到指定的目标。它支持多种输入插件,包括系统指标、应用程序指标、日志文件、API等。Telegraf 还支持多种输出插件,包括 InfluxDB、Prometheus、Kafka 等。
InfluxDB: InfluxDB是一个开源的时序数据库,专门用于存储时间序列数据。它被设计用来处理高度时间相关的数据,如监控数据、传感器数据等。InfluxDB提
2024-04-13 13:50:02
19
0
0
使用 DataSet API 处理有界数据流
Written by 黄俊仁,2024/04/13
这个程序是一个基于 Apache Flink DataSet API 的简单示例,展示了如何进行单词计数。它首先从一组静态字符串创建一个数据集,然后使用自定义的 flatMap 函数将文本分割成单词,并为每个单词生成一个包含单词及其出现次数(初始化为1)的元组。通过分组和求和操作,程序计算出每个单词在整个数据集中的总出现次数。
package org.nbubigdata.flink;import org.apache.flink.api.common.functions
2024-04-13 13:52:22
23
0
0
使用DataStream API处理无界数据流
Written by 黄俊仁,2024/04/13
首先需要自定义一个无界数据源。在Flink中可以通过继承SourceFunction接口,对run()方法和cancel()方法进行重写来实现自定义数据源。
package org.nbubigdata.flink;import org.apache.flink.streaming.api.functions.source.SourceFunction;import java.util.ArrayList;import java.util.List;import jav
2024-04-13 13:54:06
25
0
0
使用 ProcessFunction 实现计数器
Written by 黄俊仁,2024/04/13
这个程序利用 Apache Flink 的流处理能力,通过自定义数据源 NBUSource 生成一个不断变化的字符串流,并使用 ProcessFunction 对每个接收到的字符串进行计数。它在处理每个元素时递增计数器,并将当前的计数值输出到控制台。
package org.nbubigdata.flink;import org.apache.flink.streaming.api.datastream.DataStream;import org.apache.fli
2024-04-13 13:54:43
28
0
0
使用 RichFunction 实现累计字符串长度
Written by 黄俊仁,2024/04/13
如下代码示例是一个使用 Apache Flink 编写的流处理应用,其主要功能是从自定义数据源 NBUSource 中实时接收字符串流,并通过使用RichFunction来实现累加器的功能,计算自程序启动以来接收到的所有字符串的总长度。
package org.nbubigdata.flink;import org.apache.flink.api.common.functions.RichMapFunction;import org.apache.flink.st
2024-04-13 13:55:30
15
0
0
使用SQL处理无界数据流
Written by 黄俊仁,2024/04/13
下面的程序演示了在 Apache Flink 中结合使用流处理环境和表及 SQL API 来处理实时数据流。程序首先通过自定义的 NBUSource 生成一个包含字符串的数据流,然后将这个数据流转换为表,并执行一个 SQL 查询以选取包含字母 't' 的所有字符串。最后,查询结果被转换回 DataStream<Row> 并输出。
package org.nbubigdata.flink;import org.apache.flink.streaming.api.datastrea
2024-04-13 13:56:41
25
0
0