文档文档

JoinNode

join 节点用于连接来自任意数量节点的. 每次从父节点接收到一个数据点时,它将与来自其他父节点的具有匹配时间戳的下一个数据点配对. 每个父节点最多为每个连接点贡献一个点. 可以提供一个容差来连接时间戳不完全对齐的点. 任何落在容差范围内的点都将根据其时间戳进行连接. 如果多个点落在同一容差窗口内,则它们将按到达顺序进行连接.

别名用于为来自相应节点的.前缀所有字段.

连接可以是内连接或外连接,请参阅 JoinNode.Fill 属性.

示例:连接两个测量值

在下面的示例中,将 errorsrequests 流连接起来并进行转换,以计算一个组合字段.

var errors = stream
  |from()
    .measurement('errors')
var requests = stream
  |from()
    .measurement('requests')
// Join the errors and requests streams
errors
  |join(requests)
    // Provide prefix names for the fields of the data points.
    .as('errors', 'requests')
    // points that are within 1 second are considered the same time.
    .tolerance(1s)
    // fill missing values with 0, implies outer join.
    .fill(0.0)
    // name the resulting stream
    .streamName('error_rate')
    // treat a delete from one side of the join as a delete to all sides
    .deleteAll(TRUE)
  // Both the "value" fields from each parent have been prefixed
  // with the respective names 'errors' and 'requests'.
  |eval(lambda: "errors.value" / "requests.value")
    .as('rate')
  ...

示例:连接三个或更多测量值

在下面的示例中,将 errorsmissing_page_errorsserver_errors 连接起来并进行转换,以计算两个组合字段:404_rate500_rate.

var errors = stream
|from()
  .measurement('errors')

var missing_page_errors = stream
|from()
  .measurement('errors')
  .where(lambda: "type" == '404')

var server_errors = stream
|from()
  .measurement('errors')
  .where(lambda: "type" == '500')

// Join the errors, missing_page_errors, and server_errors streams
errors
  |join(missing_page_errors, server_errors)
    // Provide prefix names for the fields of the data points.
    .as('errors', '404', '500')
    // points that are within 1 second are considered the same time.
    .tolerance(1s)
    // fill missing values with 0, implies outer join.
    .fill(0.0)
    // name the resulting stream
    .streamName('error_rates')
  // The "value" fields from each parent have been prefixed
  // with the respective names 'errors', 'missing_page_errors', 'and server_errors'.
  // Calculate the percentage of 404 errors
  |eval(lambda: "404.value" / "errors.value")
    .as('404_rate')
    // Calculate the percentage of 500 errors
  |eval(lambda: "500.value" / "errors.value")
    .as('500_rate')
  ...

构造函数

链式方法描述
join(others ...Node)将此节点与其他节点连接。数据按时间戳连接。

属性方法

Setter 方法描述
as(names ...string)为来自相应节点的.所有字段.前缀名称.来自父节点的每个字段都将以提供的名称和一个 .. 作为前缀. 请参阅下面的示例.
delimiter(value string)字段名.前缀的分隔符.可以是空字符串.
deleteAll(value bool)删除连接的双方,无论哪一方收到删除消息.
fill(value interface{})填充数据. fill 选项意味着连接的类型:内连接或全外连接.
on(dims ...string)基于一组分组维度进行连接. 这是一种特殊情况,您希望一个父节点的一个点与另一个父节点的多个点连接.
quiet()抑制此节点的所有错误日志事件。
streamName(value string)这个新的连接数据流的名称. 如果为空,则使用左父节点的名称.
tolerance(value time.Duration)两个 incoming points 之间最大的时间间隔,在此间隔内它们仍被视为时间相等。joined data point 的时间将舍入到最近的 tolerance duration 的倍数。

链式方法

Alert, Barrier, Bottom, ChangeDetect, Combine, Count, CumulativeSum, Deadman, Default, Delete, Derivative, Difference, Distinct, Ec2Autoscale, Elapsed, Eval, First, Flatten, GroupBy, HoltWinters, HoltWintersWithFit, HttpOut, HttpPost, InfluxDBOut, Join, K8sAutoscale, KapacitorLoopback, Last, Log, Max, Mean, Median, Min, Mode, MovingAverage, Percentile, Sample, Shift, Sideload, Spread, StateCount, StateDuration, Stats, Stddev, Sum, SwarmAutoscale, Top, Trickle, Union, Where, Window


属性

属性方法会修改调用节点的状态。它们不会向管道添加新节点,并且始终返回对调用节点的引用。属性方法使用 . 运算符标记。

As

为来自相应节点的.所有字段.前缀名称.来自父节点的每个字段都将以提供的名称和一个 ‘.’. 作为前缀. 请参阅上面的示例.

名称不能包含点 ‘.’ 字符.

join.as(names ...string)

Delimiter

字段名.前缀的分隔符.可以是空字符串.

join.delimiter(value string)

DeleteAll

删除连接的双方,无论哪一方收到删除消息.

join.deleteAll(value bool)

Fill

填充数据. fill 选项意味着连接的类型:内连接或全外连接. 选项是

  • none - (默认) 跳过点缺失的行,内连接.
  • null - 用 null 填充缺失的点,全外连接.
  • 任何数值 - 用给定值填充字段,全外连接.

当使用数值或 null 填充时,字段名是通过复制另一个点中的字段名来确定的. 当不同的源具有不同的字段名时,此方法效果不佳. 如果需要,请使用 DefaultNodeDeleteNode 来完成填充操作.

join.fill(value interface{})

示例

    var maintlock = stream
        |from()
            .measurement('maintlock')
            .groupBy('service')
    var requests = stream
        |from()
            .measurement('requests')
            .groupBy('service')
    // Join the maintlock and requests streams
    // The intent it to drop any points in maintenance mode.
    maintlock
        |join(requests)
            // Provide prefix names for the fields of the data points.
            .as('maintlock', 'requests')
            // points that are within 1 second are considered the same time.
            .tolerance(1s)
            // fill missing fields with null, implies outer join.
            // a better default per field will be set later.
            .fill('null')
            // name the resulting stream.
            .streamName('requests')
        |default()
            // default maintenance mode to false, overwriting the null value if present.
            .field('maintlock.mode', false)
            // default the requests to 0, again overwriting the null value if present.
            .field('requests.value', 0.0)
        // drop any points that are in maintenance mode.
        |where(lambda: "maintlock.mode")
        |...

处理外连接中的 null 填充值

当使用 Kapacitor 执行外连接时,为连接和填充操作产生的 null 字段设置默认值非常重要. 这是通过 DefaultNode 完成的,它用指定的默认值替换特定字段键的 null 值. 否则可能会导致无效的行协议(因为 null 并不是所有字段类型的合适值),从而导致连接失败.

source1
  |join(source2)
    .as('source1', 'source2')
    .fill('null')
  |default()
    // .field('field-key', default-value)

    // Define a default for an integer field type
    .field('source1.rounded', 0)
    // Define a default for a float field type
    .field('source1.value', 0.0)
    // Define a default for a string field type
    .field('source2.location', '')
    // Define a default for a boolean field type
    .field('source2.maintenance', false)

使用此方法时,您必须了解连接产生的所有字段和字段类型,并提供适当的默认值.

您还可以使用 DeleteNode 删除连接产生的无关字段或标签.

source1
  |join(source2)
    .as('source1', 'source2')
    .fill('null')
  |default()
    .field('source1.mode', false)
    .field('source2.value', 0.0)
  |delete()
    .field('source1.anon')
    .tag('host')

On

基于一组分组维度进行连接. 这是一种特殊情况,您希望一个父节点的一个点与另一个父节点的多个点连接.

例如,给定两个测量值

  1. building_power (单个值):按 building 标记,值为 building 的总功耗.
  2. floor_power (多个值):按 building 和 floor 标记,值为每个 floor 的总功耗.

您想计算每个 floor 消耗的 building 总功耗的百分比. 由于每个 building 只有一个点,您需要它与每个 floor 的点连接多次. 通过将 on 维度定义为 building,我们表示我们想要仅具有 building 标签的点与具有更多标签(在此情况下为 floor 标签)的更具体点进行连接. 换句话说,虽然我们有点同时具有 building 和 floor 标签,但我们只希望根据 building 标签进行连接.

示例

    var building = stream
        |from()
            .measurement('building_power')
            .groupBy('building')
    var floor = stream
        |from()
            .measurement('floor_power')
            .groupBy('building', 'floor')
    building
        |join(floor)
            .as('building', 'floor')
            .on('building')
        |eval(lambda: "floor.value" / "building.value")
            ... // Values here are grouped by 'building' and 'floor'
join.on(dims ...string)

Quiet

抑制此节点的所有错误日志事件。

join.quiet()

StreamName

这个新的连接数据流的名称. 如果为空,则使用左父节点的名称.

join.streamName(value string)

Tolerance

两个 incoming points 之间最大的时间间隔,在此间隔内它们仍被视为时间相等。joined data point 的时间将舍入到最近的 tolerance duration 的倍数。

join.tolerance(value time.Duration)

链式方法

链式方法在管道中创建一个新的节点作为调用节点的子节点。它们不会修改调用节点。链式方法使用 | 运算符标记。

警报(Alert)

创建一个警报节点,可以触发警报。

join|alert()

返回:AlertNode

Barrier

创建一个新的 Barrier 节点,该节点会定期发出 BarrierMessage。

每个 period duration 将发出一个 BarrierMessage。

join|barrier()

返回:BarrierNode

Bottom

选择 field 的底部 num 个点,并按任何额外的标签或字段排序。

join|bottom(num int64, field string, fieldsAndTags ...string)

返回:InfluxQLNode

ChangeDetect

创建一个新的节点,仅在新点与前一个点不同时才发出新点.

join|changeDetect(field string)

返回:ChangeDetectNode

Combine

将此节点与自身合并。数据按时间戳合并。

join|combine(expressions ...ast.LambdaNode)

返回:CombineNode

Count

计算点的数量。

join|count(field string)

返回:InfluxQLNode

CumulativeSum

计算接收到的每个点的累积总和。对于收集到的每个点都会发出一个点。

join|cumulativeSum(field string)

返回:InfluxQLNode

死人开关(Deadman)

用于创建低吞吐量警报(即死人开关)的辅助函数。

  • 阈值:如果吞吐量低于每 points/interval 的点数,则触发警报。
  • 间隔:检查吞吐量的频率。
  • 表达式:可选的表达式列表,也用于评估。对于按时警报很有用。

示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    data
        |deadman(100.0, 10s)
    //Do normal processing of data
    data...

以上等同于以下示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    data
        |stats(10s)
            .align()
        |derivative('emitted')
            .unit(10s)
            .nonNegative()
        |alert()
            .id('node \'stream0\' in task \'{{ .TaskName }}\'')
            .message('{{ .ID }} is {{ if eq .Level "OK" }}alive{{ else }}dead{{ end }}: {{ index .Fields "emitted" | printf "%0.3f" }} points/10s.')
            .crit(lambda: "emitted" <= 100.0)
    //Do normal processing of data
    data...

idmessage 警报属性可以通过 'deadman' 配置部分全局配置。

由于 AlertNode 是最后一个组件,因此可以像往常一样对其进行进一步修改。示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    data
        |deadman(100.0, 10s)
            .slack()
            .channel('#dead_tasks')
    //Do normal processing of data
    data...

您可以指定额外的 lambda 表达式来进一步限制死人开关的触发时间。示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    // Only trigger the alert if the time of day is between 8am-5pm.
    data
        |deadman(100.0, 10s, lambda: hour("time") >= 8 AND hour("time") <= 17)
    //Do normal processing of data
    data...
join|deadman(threshold float64, interval time.Duration, expr ...ast.LambdaNode)

返回:AlertNode

默认

创建一个可以为缺失的标签或字段设置默认值的节点。

join|default()

返回:DefaultNode

删除

创建一个可以删除标签或字段的节点。

join|delete()

返回:DeleteNode

导数

创建一个新节点,该节点计算相邻点的导数。

join|derivative(field string)

返回:DerivativeNode

Difference

计算点之间的差异,与经过的时间无关。

join|difference(field string)

返回:InfluxQLNode

Distinct

生成仅包含不同点的批次。

join|distinct(field string)

返回:InfluxQLNode

Ec2Autoscale

创建一个可以为 ec2 自动伸缩组触发自动伸缩事件的节点。

join|ec2Autoscale()

返回:Ec2AutoscaleNode

Elapsed

计算点之间经过的时间。

join|elapsed(field string, unit time.Duration)

返回:InfluxQLNode

Eval

创建一个 eval 节点,该节点将评估给定的转换函数到每个数据点。可以提供表达式列表,并将按给定顺序评估它们。结果可供后续表达式使用。

join|eval(expressions ...ast.LambdaNode)

返回:EvalNode

First

选择第一个点。

join|first(field string)

返回:InfluxQLNode

Flatten

将具有相似时间戳的点展平为单个点。

join|flatten()

返回:FlattenNode

GroupBy

按标签集对数据进行分组。

可以传递字面值 * 来按所有维度分组。示例

    |groupBy(*)
join|groupBy(tag ...interface{})

返回:GroupByNode

HoltWinters

计算 Holt-Winters (/influxdb/v1/query_language/functions/#holt-winters) 数据集的预测。

join|holtWinters(field string, h int64, m int64, interval time.Duration)

返回:InfluxQLNode

HoltWintersWithFit

计算 Holt-Winters (/influxdb/v1/query_language/functions/#holt-winters) 数据集的预测。此方法除了预测数据外,还会输出用于拟合数据的所有点。

join|holtWintersWithFit(field string, h int64, m int64, interval time.Duration)

返回:InfluxQLNode

HttpOut

创建一个 HTTP 输出节点,该节点缓存它接收到的最新数据。缓存的数据可在给定端点处获得。端点是运行任务的 API 端点的相对路径。例如,如果任务端点位于 /kapacitor/v1/tasks/<task_id> 且端点为 top10,则可以从 /kapacitor/v1/tasks/<task_id>/top10 请求数据。

join|httpOut(endpoint string)

返回:HTTPOutNode

HttpPost

创建一个 HTTP Post 节点,该节点将接收到的数据 POST 到提供的 HTTP 端点。HttpPost 期望 0 个或 1 个参数。如果提供 0 个参数,则必须指定一个 endpoint 属性方法。

join|httpPost(url ...string)

返回:HTTPPostNode

InfluxDBOut

创建一个 influxdb 输出节点,该节点会将传入的数据存储到 InfluxDB 中。

join|influxDBOut()

返回:InfluxDBOutNode

Join

将此节点与其他节点连接。数据按时间戳连接。

join|join(others ...Node)

返回:JoinNode

K8sAutoscale

创建一个可以为 kubernetes 集群触发自动伸缩事件的节点。

join|k8sAutoscale()

返回:K8sAutoscaleNode

KapacitorLoopback

创建一个 kapacitor 回送节点,该节点会将数据作为流重新发送到 Kapacitor 中。

join|kapacitorLoopback()

返回:KapacitorLoopbackNode

Last

选择最后一个点。

join|last(field string)

返回:InfluxQLNode

Log

创建一个记录其接收的所有数据的节点。

join|log()

返回:LogNode

Max

选择最大点。

join|max(field string)

返回:InfluxQLNode

平均值

计算数据的平均值。

join|mean(field string)

返回:InfluxQLNode

Median

计算数据的中位数。

注意:此方法不是选择器。如果需要中位数点,请使用 .percentile(field, 50.0)

join|median(field string)

返回:InfluxQLNode

Min

选择最小点。

join|min(field string)

返回:InfluxQLNode

Mode

计算数据的众数。

join|mode(field string)

返回:InfluxQLNode

MovingAverage

计算最后 window 个点的移动平均值。直到窗口填满才会发出点。

join|movingAverage(field string, window int64)

返回:InfluxQLNode

Percentile

选择给定百分位数的点。这是一个选择器函数,不会在点之间进行插值。

join|percentile(field string, percentile float64)

返回:InfluxQLNode

Sample

创建一个新节点,该节点对传入的点或批次进行采样。

将发出一个点,每隔指定的 count 或 duration。

join|sample(rate interface{})

返回:SampleNode

Shift

创建一个新节点,该节点将传入的点或批次在时间上进行移位。

join|shift(shift time.Duration)

返回:ShiftNode

Sideload

创建一个可以从外部源加载数据的节点。

join|sideload()

返回:SideloadNode

Spread

计算 minmax 点之间的差值。

join|spread(field string)

返回:InfluxQLNode

StateCount

创建一个节点,该节点跟踪给定状态下的连续点数。

join|stateCount(expression ast.LambdaNode)

返回:StateCountNode

StateDuration

创建一个节点,该节点跟踪给定状态下的持续时间。

join|stateDuration(expression ast.LambdaNode)

返回:StateDurationNode

Stats

创建一个新的数据流,其中包含节点的内部统计信息。interval 表示基于实际时间发出统计信息的频率。这意味着 interval 时间与源节点接收的数据点的时间无关。

join|stats(interval time.Duration)

返回:StatsNode

Stddev

计算标准偏差。

join|stddev(field string)

返回:InfluxQLNode

Sum

计算所有值的总和。

join|sum(field string)

返回:InfluxQLNode

SwarmAutoscale

创建一个可以为 Docker swarm 集群触发自动伸缩事件的节点。

join|swarmAutoscale()

返回:SwarmAutoscaleNode

Top

选择 field 的顶部 num 个点,并按任何额外的标签或字段排序。

join|top(num int64, field string, fieldsAndTags ...string)

返回:InfluxQLNode

Trickle

创建一个新节点,该节点将批处理数据转换为流数据。

join|trickle()

返回:TrickleNode

Union

执行此节点与所有其他给定节点的并集。

join|union(node ...Node)

返回:UnionNode

Where

创建一个新节点,该节点根据给定表达式过滤数据流。

join|where(expression ast.LambdaNode)

返回:WhereNode

窗口

创建一个新节点,该节点按时间对流进行窗口化。

注意:Window 只能应用于流边缘。

join|window()

返回:WindowNode


此页面是否有帮助?

感谢您的反馈!


InfluxDB 3.8 新特性

InfluxDB 3.8 和 InfluxDB 3 Explorer 1.6 的主要增强功能。

查看博客文章

InfluxDB 3.8 现已适用于 Core 和 Enterprise 版本,同时发布了 InfluxDB 3 Explorer UI 的 1.6 版本。本次发布着重于操作成熟度,以及如何更轻松地部署、管理和可靠地运行 InfluxDB。

更多信息,请查看

InfluxDB Docker 的 latest 标签将指向 InfluxDB 3 Core

在 **2026 年 2 月 3 日**,InfluxDB Docker 镜像的 latest 标签将指向 InfluxDB 3 Core。为避免意外升级,请在您的 Docker 部署中使用特定的版本标签。

如果使用 Docker 来安装和运行 InfluxDB,latest 标签将指向 InfluxDB 3 Core。为避免意外升级,请在您的 Docker 部署中使用特定的版本标签。例如,如果使用 Docker 运行 InfluxDB v2,请将 latest 版本标签替换为 Docker pull 命令中的特定版本标签 — 例如

docker pull influxdb:2