No.8 - 时序数据库随笔 - InfluxDB 多条时序数据联合分析

网友投稿 1016 2023-06-09

No.8 - 时序数据库随笔 - InfluxDB 多条时序数据联合分析

No.8 - 时序数据库随笔 - InfluxDB 多条时序数据联合分析

01 问题

正文本篇我们要解决 ​​No​6,​No7提到的网友问题,如下:

​简单说就是如何处理两条时间线的数值计算?上面例子是一个 “+” 加法。

02 数据准备

我们首先利用InfluxDB解决上述问题,首先进行数据准备,建立一个测试的bucket,建立之前先检查一下现有的bucket。

启动InfluxDB实例,如下:

启动之后,我们查看一下现有的bucket,如下:

influxdb git:(master) bin/$(uname -s | tr '[:upper:]' '[:lower:]')/influx bucket list ID Name Retention Shard group duration Organization ID98e86f05543f5866 _monitoring 168h0m0s 24h0m0s 56b35f89025991c8b9b9609ae3e08b97 _tasks 72h0m0s 24h0m0s 56b35f89025991c8

创建名为iot的bucket,如下命令:

执行成功之后会显示如下:

我们用命令查看一下:

➜ influxdb git:(master) bin/$(uname -s | tr '[:upper:]' '[:lower:]')/influx bucket listID Name Retention Shard group duration Organization IDc05283f56bf9cead 2021iotdb 1h0m0s 1h0m0s 0b1ad4c0cd4db9cae70f5bb2fdaa5dd2 _monitoring 168h0m0s 24h0m0s 0b1ad4c0cd4db9ca56241b01789c1a1b _tasks 72h0m0s 24h0m0s 0b1ad4c0cd4db9ca

插入两条时间线数据,如下:

➜ influxdb git:(master) bin/$(uname -s | tr '[:upper:]' '[:lower:]')/influx write --bucket 2021iotdb --precision s "m1 vm=3333 $(date +%s)"➜ influxdb git:(master) bin/$(uname -s | tr '[:upper:]' '[:lower:]')/influx write --bucket 2021iotdb --precision s "m2 vn=4444 $(date +%s)"

我们插入两条时间线数据,m1的vm=3333,m2的vn=4444,我们的需求是vm + vn。

03 JOIN查询

我们看一下JOIN的功能定义:

语法:join(tables: {key1: table1, key2: table2}, on: ["_time", "_field"], method: "inner")

这个和我们标准数据库的JOIN语义基本一致,我们先查看一下用于测试的数据,我们既可以用influxCLI,如下:

我们发现数据已经插入成功。也可以用fluxCLI,InlfuxDB社区更推进用flux,我们打开一个flux repl。细节可以查阅 前面一篇No6。我用IDE打开如下:

> from(bucket:"2021iotdb") |> range(start:-1h)Result: _resultError: unauthorized access

如图,我们在IDE里面执行查询时候,提示我们需要token,那么influx query为啥不需要呢,IDE没有默认去读取配置文件,我们可以配置环境变量也可以直接添加token,查询语句如下:

> from(bucket:"2021iotdb", org:"org", token:"iot_test_token") |> range(start:-1h)Result: _resultTable: keys: [_start, _stop, _field, _measurement] _start:time _stop:time _field:string _measurement:string _time:time _value:float ------------------------------ ------------------------------ ---------------------- ---------------------- ------------------------------ ---------------------------- 2021-04-06T05:36:50.079542000Z 2021-04-06T06:36:50.079542000Z vm m1 2021-04-06T06:23:16.000000000Z 3333 Table: keys: [_start, _stop, _field, _measurement] _start:time _stop:time _field:string _measurement:string _time:time _value:float ------------------------------ ------------------------------ ---------------------- ---------------------- ------------------------------ ---------------------------- 2021-04-06T05:36:50.079542000Z 2021-04-06T06:36:50.079542000Z

好的,一切都还算顺利,我们看看如果计算 vm + vn呢?如果我们把 m1和m2两个时间序列看成是两个流(表),那么我们要进行两个表的操作,第一想到的应该是两个表进行JOIN将两个表的数据合并成一个宽表,然后在进行列求值,如下:

tab1 = from(bucket:"2021iotdb", org:"org", token:"iot_test_token") |> range(start:-1h) |> filter(fn:(r) => r._measurement == "m1")tab2 = from(bucket:"2021iotdb", org:"org", token:"iot_test_token") |> range(start:-1h) |> filter(fn:(r) => r._measurement == "m2")

得到两个表之后我们在进行JOIN操作,查询语句如下:

join(tables: {m1:tab1, m2:tab2}, on: ["_time"]) |> map(fn:(r) => ({_time: r._time, _value: r._value_m1 + r._value_m2}))

上面的on表示JOIN的条件,但是我们发现,tab1和tab2中时间字段并不相同,如下:

所以我们需要再快速的插入两条数据,使得时间字段相同,我们才能拿到结果,插入之后数据如下:

这样我们再进行查询:

join(tables: {m1:tab1, m2:tab2}, on: ["_time"]) |> map(fn:(r) => ({_time: r._time, _value: r._value_m1 + r._value_m2}))

如上我们完成了查询需求。哈哈,那是不是在InfluxDB里面进行这类查询都是用JOIN的方式吗?是否有更简单的方式?看下面部分:)

03 PIOVT查询

我们看一下PIVOT的功能定义:

The pivot() function collects values stored ***lly (column-wise) in a table and aligns them horizontally (row-wise) into logical sets.

语法:pivot(rowKey:["_time"], columnKey: ["_field"], valueColumn: "_value")

其实在标准数据库里面也有PIVOT,在InfluxDB里面pivot可以将行转换为列,进而将两个时序数据值变成一个Table中的两个列,这个内置也可以为用户进行内部优化处理。我们看看如何操作:

> from(bucket:"2021iotdb", org:"org", token:"iot_test_token") |> range(start:-1h) |> pivot(rowKey:["_time"], columnKey: ["_measurement","_field"],valueColumn: "_value")

如上语句执行结果如下:

我们发现m1的vm和m2的vn都变成一个表的某一列了,这样pivot就完美的将两个时序数据合并成宽表的列了。我们再加上具体的过滤条件,如下:

接下来我们再进行计算,如下:

from(bucket:"2021iotdb", org:"org", token:"iot_test_token") |> range(start:-1h) |> filter(fn:(r) => r._measurement == "m1" or r._measurement == "m2")|> pivot(rowKey:["_time"], columnKey: ["_measurement","_field"],valueColumn: "_value")|> map(fn:(r) => ({_time: r._time, _value:r.m1_vm + r.m2_vn}))

OK, 大家是不是赶紧PIVOT非常方便?:)

04 问题

最后,留个问题给大家,大家知道标准数据库里面PIVOT和UNPIVOT的使用场景吗?或者Flink&Spark如何支持PIVOT?或者知道Apache IoTDB里面如何处理多条时序数据分析梳理吗?我们下一篇见。

作者介绍

孙金城,51CTO社区编辑,Apache Flink PMC 成员,Apache Beam Committer,Apache IoTDB PMC 成员,ALC Beijing 成员,Apache ShenYu 导师,Apache 软件基金会成员。关注技术领域流计算和时序数据存储

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:No.9 - 时序数据库随笔 - Apache IoTDB 多条时序数据联合分析
下一篇:数据治理≠数据管理≠数据资产管理,落地时才发现全理解错了……
相关文章