TrickleNode
trickle
节点将 from
批处理边转换为流边。 trickle
的子节点被视为在流中。
示例
将批处理数据转换为流数据
var errors = batch
|query('SELECT value FROM errors')
|trickle()
将窗口化数据转换为流数据
var errors = stream
|from()
|window()
.period(10m)
.every(5m)
|trickle()
构造函数
链式方法 | 描述 |
---|---|
trickle() | 创建一个新节点,将批处理数据转换为流数据。 |
属性方法
设置器 | 描述 |
---|---|
quiet( ) | 阻止来自此节点的所有错误日志事件。 |
链式方法
Alert, Barrier, Bottom, ChangeDetect, Combine, Count, CumulativeSum, Deadman, Default, Delete, Derivative, Difference, Distinct, Ec2Autoscale, Elapsed, Eval, First, Flatten, GroupBy, HoltWinters, HoltWintersWithFit, HttpOut, HttpPost, InfluxDBOut, Join, K8sAutoscale, KapacitorLoopback, Last, Log, Max, Mean, Median, Min, Mode, MovingAverage, Percentile, Sample, Shift, Sideload, Spread, StateCount, StateDuration, Stats, Stddev, Sum, SwarmAutoscale, Top, Union, Where, Window
属性
Quiet
阻止来自此节点的所有错误日志事件。
trickle.quiet()
链式方法
链式方法在管道中创建一个新节点作为调用节点的子节点。 它们不会修改调用节点。 链式方法使用 |
运算符标记。
Alert
创建一个警报节点,可以触发警报。
trickle|alert()
返回: AlertNode
Barrier
创建一个新的 Barrier 节点,定期发出 BarrierMessage。
每个周期持续时间将发出一个 BarrierMessage。
trickle|barrier()
返回: BarrierNode
Bottom
选择 field
的底部 num
个数据点,并按任何额外的标签或字段排序。
trickle|bottom(num int64, field string, fieldsAndTags ...string)
返回: InfluxQLNode
ChangeDetect
创建一个新节点,仅在前一个数据点不同时发出新数据点。
trickle|changeDetect(field string)
返回: ChangeDetectNode
Combine
将此节点与其自身组合。 数据基于时间戳组合。
trickle|combine(expressions ...ast.LambdaNode)
返回: CombineNode
Count
计算数据点数量。
trickle|count(field string)
返回: InfluxQLNode
CumulativeSum
计算收到的每个数据点的累积总和。 为收集的每个数据点发出一个数据点。
trickle|cumulativeSum(field string)
返回: InfluxQLNode
Deadman
用于在低吞吐量时创建警报的辅助函数,又名死亡开关。
- 阈值:如果吞吐量在数据点/间隔中降至阈值以下,则触发警报。
- 间隔:检查吞吐量的频率。
- 表达式:可选的表达式列表,也用于评估。 适用于一天中特定时间的警报。
示例
var data = stream
|from()...
// Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
data
|deadman(100.0, 10s)
//Do normal processing of data
data...
以上示例等同于此示例
var data = stream
|from()...
// Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
data
|stats(10s)
.align()
|derivative('emitted')
.unit(10s)
.nonNegative()
|alert()
.id('node \'stream0\' in task \'{{ .TaskName }}\'')
.message('{{ .ID }} is {{ if eq .Level "OK" }}alive{{ else }}dead{{ end }}: {{ index .Fields "emitted" | printf "%0.3f" }} points/10s.')
.crit(lambda: "emitted" <= 100.0)
//Do normal processing of data
data...
id
和 message
警报属性可以通过“deadman”配置部分全局配置。
由于 AlertNode 是最后一部分,因此可以像往常一样进一步修改。 示例
var data = stream
|from()...
// Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
data
|deadman(100.0, 10s)
.slack()
.channel('#dead_tasks')
//Do normal processing of data
data...
您可以指定额外的 lambda 表达式来进一步约束何时触发死亡开关。 示例
var data = stream
|from()...
// Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
// Only trigger the alert if the time of day is between 8am-5pm.
data
|deadman(100.0, 10s, lambda: hour("time") >= 8 AND hour("time") <= 17)
//Do normal processing of data
data...
trickle|deadman(threshold float64, interval time.Duration, expr ...ast.LambdaNode)
返回: AlertNode
Default
创建一个节点,可以为缺失的标签或字段设置默认值。
trickle|default()
返回: DefaultNode
Delete
创建一个节点,可以删除标签或字段。
trickle|delete()
返回: DeleteNode
Derivative
创建一个新节点,计算相邻数据点的导数。
trickle|derivative(field string)
返回: DerivativeNode
Difference
计算数据点之间的差异,与经过的时间无关。
trickle|difference(field string)
返回: InfluxQLNode
Distinct
生成仅包含不同数据点的批处理。
trickle|distinct(field string)
返回: InfluxQLNode
Ec2Autoscale
创建一个节点,可以为 ec2 自动扩缩容组触发自动扩缩容事件。
trickle|ec2Autoscale()
返回: Ec2AutoscaleNode
Elapsed
计算数据点之间经过的时间。
trickle|elapsed(field string, unit time.Duration)
返回: InfluxQLNode
Eval
创建一个 eval 节点,该节点将评估给定的转换函数以应用于每个数据点。 可以提供表达式列表,并将按照给定的顺序进行评估。 结果可用于后续表达式。
trickle|eval(expressions ...ast.LambdaNode)
返回: EvalNode
First
选择第一个数据点。
trickle|first(field string)
返回: InfluxQLNode
Flatten
将时间相似的数据点展平为单个数据点。
trickle|flatten()
返回: FlattenNode
GroupBy
按一组标签对数据进行分组。
可以传递字面量 * 以按所有维度分组。 示例
|groupBy(*)
trickle|groupBy(tag ...interface{})
返回: GroupByNode
HoltWinters
计算数据集的 Holt-Winters (/influxdb/v1/query_language/functions/#holt-winters) 预测。
trickle|holtWinters(field string, h int64, m int64, interval time.Duration)
返回: InfluxQLNode
HoltWintersWithFit
计算数据集的 Holt-Winters (/influxdb/v1/query_language/functions/#holt-winters) 预测。 除了预测数据外,此方法还输出用于拟合数据的所有数据点。
trickle|holtWintersWithFit(field string, h int64, m int64, interval time.Duration)
返回: InfluxQLNode
HttpOut
创建一个 HTTP 输出节点,该节点缓存它收到的最新数据。 缓存的数据在给定端点可用。 端点是正在运行的任务的 API 端点的相对路径。 例如,如果任务端点位于 /kapacitor/v1/tasks/<task_id>
且端点为 top10
,则可以从 /kapacitor/v1/tasks/<task_id>/top10
请求数据。
trickle|httpOut(endpoint string)
返回: HTTPOutNode
HttpPost
创建一个 HTTP Post 节点,该节点将接收到的数据 POST 到提供的 HTTP 端点。 HttpPost 期望 0 或 1 个参数。 如果提供 0 个参数,则必须指定一个端点属性方法。
trickle|httpPost(url ...string)
返回: HTTPPostNode
InfluxDBOut
创建一个 influxdb 输出节点,该节点将传入数据存储到 InfluxDB 中。
trickle|influxDBOut()
返回: InfluxDBOutNode
Join
将此节点与其他节点连接。 数据基于时间戳连接。
trickle|join(others ...Node)
返回: JoinNode
K8sAutoscale
创建一个节点,可以为 kubernetes 集群触发自动扩缩容事件。
trickle|k8sAutoscale()
返回: K8sAutoscaleNode
KapacitorLoopback
创建一个 kapacitor 回环节点,该节点将数据作为流发送回 Kapacitor。
trickle|kapacitorLoopback()
Last
选择最后一个数据点。
trickle|last(field string)
返回: InfluxQLNode
Log
创建一个节点,记录它接收到的所有数据。
trickle|log()
返回: LogNode
Max
选择最大数据点。
trickle|max(field string)
返回: InfluxQLNode
Mean
计算数据的平均值。
trickle|mean(field string)
返回: InfluxQLNode
Median
计算数据的中位数。
注意: 此方法不是选择器。 如果您想要中位数点,请使用
.percentile(field, 50.0)
。
trickle|median(field string)
返回: InfluxQLNode
Min
选择最小数据点。
trickle|min(field string)
返回: InfluxQLNode
Mode
计算数据的众数。
trickle|mode(field string)
返回: InfluxQLNode
MovingAverage
计算最后窗口数据点的移动平均值。 在窗口满之前不会发出任何数据点。
trickle|movingAverage(field string, window int64)
返回: InfluxQLNode
Percentile
选择给定百分位数的数据点。 这是一个选择器函数,数据点之间不执行插值。
trickle|percentile(field string, percentile float64)
返回: InfluxQLNode
Sample
创建一个新节点,采样传入的数据点或批处理。
将按照指定的计数或持续时间发出一个数据点。
trickle|sample(rate interface{})
返回: SampleNode
Shift
创建一个新节点,在时间上移动传入的数据点或批处理。
trickle|shift(shift time.Duration)
返回: ShiftNode
Sideload
创建一个节点,可以从外部源加载数据。
trickle|sideload()
返回: SideloadNode
Spread
计算 min
和 max
数据点之间的差异。
trickle|spread(field string)
返回: InfluxQLNode
StateCount
创建一个节点,跟踪给定状态下连续数据点的数量。
trickle|stateCount(expression ast.LambdaNode)
返回: StateCountNode
StateDuration
创建一个节点,跟踪给定状态下的持续时间。
trickle|stateDuration(expression ast.LambdaNode)
Stats
创建一个新的数据流,其中包含节点的内部统计信息。 间隔表示基于实时发出统计信息的频率。 这意味着间隔时间独立于源节点正在接收的数据点的时间。
trickle|stats(interval time.Duration)
返回: StatsNode
Stddev
计算标准差。
trickle|stddev(field string)
返回: InfluxQLNode
Sum
计算所有值的总和。
trickle|sum(field string)
返回: InfluxQLNode
SwarmAutoscale
创建一个节点,可以为 Docker swarm 集群触发自动扩缩容事件。
trickle|swarmAutoscale()
Top
选择 field
的顶部 num
个数据点,并按任何额外的标签或字段排序。
trickle|top(num int64, field string, fieldsAndTags ...string)
返回: InfluxQLNode
Union
执行此节点和所有其他给定节点的并集。
trickle|union(node ...Node)
返回: UnionNode
Where
创建一个新节点,通过给定的表达式过滤数据流。
trickle|where(expression ast.LambdaNode)
返回: WhereNode
Window
创建一个新节点,按时间窗口化数据流。
注意:Window 只能应用于流边。
trickle|window()
返回: WindowNode
此页是否对您有帮助?
感谢您的反馈!
支持与反馈
感谢您成为我们社区的一份子! 我们欢迎并鼓励您的反馈和错误报告,以改进 Kapacitor 和本文档。 要寻求支持,请使用以下资源