文档文档

SwarmAutoscaleNode

SwarmAutoscaleNode 触发 Docker Swarm 模式集群上服务的自动扩缩容事件。该节点也输出触发事件的点。

示例

// Target 80% cpu per container
var target = 80.0
var min = 1
var max = 10
var period = 5m
var every = period
stream
  |from()
    .measurement('docker_container_cpu')
    .groupBy('container_name','com.docker.swarm.service.name')
    .where(lambda: "cpu" == 'cpu-total')
  |window()
    .period(period)
    .every(every)
  |mean('usage_percent')
    .as('mean_cpu')
  |groupBy('com.docker.swarm.service.name')
  |sum('mean_cpu')
    .as('total_cpu')
  |swarmAutoscale()
    // Get the name of the service from "com.docker.swarm.service.name" tag.
    .serviceNameTag('com.docker.swarm.service.name')
    .min(min)
    .max(max)
    // Set the desired number of replicas based on target.
    .replicas(lambda: int(ceil("total_cpu" / target)))
  |influxDBOut()
    .database('deployments')
    .measurement('scale_events')
    .precision('s')

以上示例计算按容器名称和服务名称分组的 cpu usage_percent 的平均值。然后计算平均 cpu_usage 的总和作为 total_cpu。使用最近时间段内的 total_cpu,根据目标 cpu 使用率百分比计算所需的副本数。

如果所需的副本数已更改,Kapacitor 会调用 Docker Swarm 的相应 API 来更新副本规范。

每当 SwarmAutoscale 节点更改副本计数时,它都会发出一个点。该点使用 serviceName 分别标记服务名称。此外,group by 标签将保留在发出的点上。该点包含两个字段:oldnew,表示副本的更改。

可用统计信息

  • increase_events:副本计数增加的次数。
  • decrease_events:副本计数减少的次数。
  • cooldown_drops:由于冷却计时器而丢弃事件的次数。
  • errors:遇到的错误数,通常与和 Swarm 管理器 API 通信有关。

构造函数

链式方法描述
swarmAutoscale ( )创建一个可以为 Docker swarm 集群触发自动扩缩容事件的节点。

属性方法

设置器描述
cluster ( value string)Cluster 是要使用的 Docker swarm 集群的 ID。集群的 ID 在 kapacitor 配置中指定。
currentField ( value string)CurrentField 是字段的名称,当前副本计数将作为整数设置到该字段中。如果为空,则不设置任何字段。用于计算当前状态的增量很有用。
decreaseCooldown ( value time.Duration)每个资源在每个 DecreaseCooldown 间隔内只能触发一个减少事件。
increaseCooldown ( value time.Duration)每个资源在每个 IncreaseCooldown 间隔内只能触发一个增加事件。
max ( value int64)要设置的最大比例因子。如果为 0,则没有上限。默认值:0,即无限制。
min ( value int64)要设置的最小比例因子。默认值:1
outputServiceNameTag ( value string)OutputServiceName 是标签的名称,服务名称将写入该标签以用于输出自动扩缩容事件。如果 ServiceNameTag 不为空,则默认为 ServiceNameTag 的值。
quiet ( )禁止来自此节点的所有错误日志记录事件。
replicas ( value ast.LambdaNode)Replicas 是一个 lambda 表达式,应评估为资源的所需副本数。
serviceName ( value string)ServiceName 是要自动扩缩容的 Docker swarm 服务的名称。
serviceNameTag ( value string)ServiceName 是标签的名称,其中包含要自动扩缩容的 Docker swarm 服务的名称。

链式方法

Alert, Barrier, Bottom, ChangeDetect, Combine, Count, CumulativeSum, Deadman, Default, Delete, Derivative, Difference, Distinct, Ec2Autoscale, Elapsed, Eval, First, Flatten, GroupBy, HoltWinters, HoltWintersWithFit, HttpOut, HttpPost, InfluxDBOut, Join, K8sAutoscale, KapacitorLoopback, Last, Log, Mean, Median, Mode, MovingAverage, Percentile, Sample, Shift, Sideload, Spread, StateCount, StateDuration, Stats, Stddev, Sum, SwarmAutoscale, Top, Trickle, Union, Where, Window


属性

属性方法修改调用节点上的状态。它们不会向管道添加另一个节点,并且始终返回对调用节点的引用。属性方法使用 . 运算符标记。

Cluster

Cluster 是要使用的 Docker swarm 集群的 ID。集群的 ID 在 kapacitor 配置中指定。

swarmAutoscale.cluster(value string)

CurrentField

CurrentField 是字段的名称,当前副本计数将作为整数设置到该字段中。如果为空,则不设置任何字段。用于计算当前状态的增量很有用。

示例

    |swarmAutoscale()
        .currentField('replicas')
        // Increase the replicas by 1 if the qps is over the threshold
        .replicas(lambda: if("qps" > threshold, "replicas" + 1, "replicas"))
swarmAutoscale.currentField(value string)

DecreaseCooldown

每个资源在每个 DecreaseCooldown 间隔内只能触发一个减少事件。

swarmAutoscale.decreaseCooldown(value time.Duration)

IncreaseCooldown

每个资源在每个 IncreaseCooldown 间隔内只能触发一个增加事件。

swarmAutoscale.increaseCooldown(value time.Duration)

Max

要设置的最大比例因子。如果为 0,则没有上限。默认值:0,即无限制。

swarmAutoscale.max(value int64)

Min

要设置的最小比例因子。默认值:1

swarmAutoscale.min(value int64)

OutputServiceNameTag

OutputServiceName 是标签的名称,服务名称将写入该标签以用于输出自动扩缩容事件。如果 ServiceNameTag 不为空,则默认为 ServiceNameTag 的值。

swarmAutoscale.outputServiceNameTag(value string)

Quiet

禁止来自此节点的所有错误日志记录事件。

swarmAutoscale.quiet()

Replicas

Replicas 是一个 lambda 表达式,应评估为资源的所需副本数。

swarmAutoscale.replicas(value ast.LambdaNode)

ServiceName

ServiceName 是要自动扩缩容的 Docker swarm 服务的名称。

swarmAutoscale.serviceName(value string)

ServiceNameTag

ServiceName 是标签的名称,其中包含要自动扩缩容的 Docker swarm 服务的名称。

swarmAutoscale.serviceNameTag(value string)

链式方法

链式方法在管道中创建一个新节点,作为调用节点的子节点。它们不会修改调用节点。链式方法使用 | 运算符标记。

Alert

创建一个告警节点,可以触发告警。

swarmAutoscale|alert()

返回: AlertNode

Barrier

创建一个新的 Barrier 节点,该节点定期发出 BarrierMessage。

每 period 持续时间将发出一个 BarrierMessage。

swarmAutoscale|barrier()

返回: BarrierNode

Bottom

选择 field 的底部 num 个点,并按任何额外的标签或字段排序。

swarmAutoscale|bottom(num int64, field string, fieldsAndTags ...string)

返回: InfluxQLNode

ChangeDetect

创建一个新节点,仅当新点与上一个点不同时才发出新点。

swarmAutoscale|changeDetect(field string)

返回: ChangeDetectNode

Combine

将此节点与其自身组合。数据在时间戳上组合。

swarmAutoscale|combine(expressions ...ast.LambdaNode)

返回: CombineNode

Count

计算点的数量。

swarmAutoscale|count(field string)

返回: InfluxQLNode

CumulativeSum

计算接收到的每个点的累积和。为收集的每个点发出一个点。

swarmAutoscale|cumulativeSum(field string)

返回: InfluxQLNode

Deadman

用于在低吞吐量(又名 deadman’s switch)上创建告警的辅助函数。

  • 阈值:如果吞吐量在 points/interval 中降至阈值以下,则触发告警。
  • 间隔:检查吞吐量的频率。
  • 表达式:也要评估的可选表达式列表。对于一天中的时间告警很有用。

示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    data
        |deadman(100.0, 10s)
    //Do normal processing of data
    data...

以上等效于此示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    data
        |stats(10s)
            .align()
        |derivative('emitted')
            .unit(10s)
            .nonNegative()
        |alert()
            .id('node \'stream0\' in task \'{{ .TaskName }}\'')
            .message('{{ .ID }} is {{ if eq .Level "OK" }}alive{{ else }}dead{{ end }}: {{ index .Fields "emitted" | printf "%0.3f" }} points/10s.')
            .crit(lambda: "emitted" <= 100.0)
    //Do normal processing of data
    data...

idmessage 告警属性可以通过 ‘deadman’ 配置部分全局配置。

由于 AlertNode 是最后一部分,因此可以像往常一样进一步修改它。示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    data
        |deadman(100.0, 10s)
            .slack()
            .channel('#dead_tasks')
    //Do normal processing of data
    data...

您可以指定其他 lambda 表达式,以进一步约束何时触发 deadman’s switch。示例

    var data = stream
        |from()...
    // Trigger critical alert if the throughput drops below 100 points per 10s and checked every 10s.
    // Only trigger the alert if the time of day is between 8am-5pm.
    data
        |deadman(100.0, 10s, lambda: hour("time") >= 8 AND hour("time") <= 17)
    //Do normal processing of data
    data...
swarmAutoscale|deadman(threshold float64, interval time.Duration, expr ...ast.LambdaNode)

返回: AlertNode

Default

创建一个可以为缺少标签或字段设置默认值的节点。

swarmAutoscale|default()

返回: DefaultNode

Delete

创建一个可以删除标签或字段的节点。

swarmAutoscale|delete()

返回: DeleteNode

Derivative

创建一个新节点,该节点计算相邻点的导数。

swarmAutoscale|derivative(field string)

返回: DerivativeNode

Difference

计算点之间的差异,与经过的时间无关。

swarmAutoscale|difference(field string)

返回: InfluxQLNode

Distinct

生成仅包含不同点的批次。

swarmAutoscale|distinct(field string)

返回: InfluxQLNode

Ec2Autoscale

创建一个可以为 ec2 自动扩缩容组触发自动扩缩容事件的节点。

swarmAutoscale|ec2Autoscale()

返回: Ec2AutoscaleNode

Elapsed

计算点之间经过的时间。

swarmAutoscale|elapsed(field string, unit time.Duration)

返回: InfluxQLNode

Eval

创建一个 eval 节点,该节点将给定的转换函数应用于每个数据点。可以提供表达式列表,并将按给定的顺序评估。结果可用于以后的表达式。

swarmAutoscale|eval(expressions ...ast.LambdaNode)

返回: EvalNode

First

选择第一个点。

swarmAutoscale|first(field string)

返回: InfluxQLNode

Flatten

将时间相似的点展平为单个点。

swarmAutoscale|flatten()

返回: FlattenNode

GroupBy

按一组标签对数据进行分组。

可以传递文字 * 以按所有维度分组。示例

    |groupBy(*)
swarmAutoscale|groupBy(tag ...interface{})

返回: GroupByNode

HoltWinters

计算数据集的 Holt-Winters (/influxdb/v1/query_language/functions/#holt-winters) 预测。

swarmAutoscale|holtWinters(field string, h int64, m int64, interval time.Duration)

返回: InfluxQLNode

HoltWintersWithFit

计算数据集的 Holt-Winters (/influxdb/v1/query_language/functions/#holt-winters) 预测。除了预测数据外,此方法还输出用于拟合数据的所有点。

swarmAutoscale|holtWintersWithFit(field string, h int64, m int64, interval time.Duration)

返回: InfluxQLNode

HttpOut

创建一个 HTTP 输出节点,该节点缓存它收到的最新数据。缓存的数据在给定的端点可用。端点是运行任务的 API 端点的相对路径。例如,如果任务端点位于 /kapacitor/v1/tasks/<task_id>,并且端点为 top10,则可以从 /kapacitor/v1/tasks/<task_id>/top10 请求数据。

swarmAutoscale|httpOut(endpoint string)

返回: HTTPOutNode

HttpPost

创建一个 HTTP Post 节点,该节点将接收到的数据 POST 到提供的 HTTP 端点。HttpPost 期望 0 或 1 个参数。如果提供 0 个参数,则必须指定一个端点属性方法。

swarmAutoscale|httpPost(url ...string)

返回: HTTPPostNode

InfluxDBOut

创建一个 influxdb 输出节点,该节点会将传入数据存储到 InfluxDB 中。

swarmAutoscale|influxDBOut()

返回: InfluxDBOutNode

Join

将此节点与其他节点连接。数据在时间戳上连接。

swarmAutoscale|join(others ...Node)

返回: JoinNode

K8sAutoscale

创建一个可以为 kubernetes 集群触发自动扩缩容事件的节点。

swarmAutoscale|k8sAutoscale()

返回: K8sAutoscaleNode

KapacitorLoopback

创建一个 kapacitor 环回节点,该节点会将数据作为流发送回 Kapacitor。

swarmAutoscale|kapacitorLoopback()

返回: KapacitorLoopbackNode

Last

选择最后一个点。

swarmAutoscale|last(field string)

返回: InfluxQLNode

Log

创建一个记录它接收的所有数据的节点。

swarmAutoscale|log()

返回: LogNode

Mean

计算数据的平均值。

swarmAutoscale|mean(field string)

返回: InfluxQLNode

Median

计算数据的中位数。

注意: 此方法不是选择器。如果您想要中位点,请使用 .percentile(field, 50.0)

swarmAutoscale|median(field string)

返回: InfluxQLNode

Mode

计算数据的众数。

swarmAutoscale|mode(field string)

返回: InfluxQLNode

MovingAverage

计算最后 window 个点的移动平均值。在窗口填满之前,不会发出任何点。

swarmAutoscale|movingAverage(field string, window int64)

返回: InfluxQLNode

Percentile

选择给定百分位数的点。这是一个选择器函数,不执行点之间的插值。

swarmAutoscale|percentile(field string, percentile float64)

返回: InfluxQLNode

Sample

创建一个新节点,该节点对传入的点或批次进行采样。

将每 count 或 duration 指定的时间间隔发出一个点。

swarmAutoscale|sample(rate interface{})

返回: SampleNode

Shift

创建一个新节点,该节点及时移动传入的点或批次。

swarmAutoscale|shift(shift time.Duration)

返回: ShiftNode

Sideload

创建一个可以从外部源加载数据的节点。

swarmAutoscale|sideload()

返回: SideloadNode

Spread

计算 minmax 点之间的差异。

swarmAutoscale|spread(field string)

返回: InfluxQLNode

StateCount

创建一个节点,该节点跟踪给定状态下连续点的数量。

swarmAutoscale|stateCount(expression ast.LambdaNode)

返回: StateCountNode

StateDuration

创建一个节点,该节点跟踪给定状态下的持续时间。

swarmAutoscale|stateDuration(expression ast.LambdaNode)

返回: StateDurationNode

Stats

创建一个新的数据流,其中包含节点的内部统计信息。间隔表示基于实时发出统计信息的频率。这意味着间隔时间独立于源节点正在接收的数据点的时间。

swarmAutoscale|stats(interval time.Duration)

返回: StatsNode

Stddev

计算标准差。

swarmAutoscale|stddev(field string)

返回: InfluxQLNode

Sum

计算所有值的总和。

swarmAutoscale|sum(field string)

返回: InfluxQLNode

SwarmAutoscale

创建一个可以为 Docker swarm 集群触发自动扩缩容事件的节点。

swarmAutoscale|swarmAutoscale()

返回: SwarmAutoscaleNode

Top

选择 field 的顶部 num 个点,并按任何额外的标签或字段排序。

swarmAutoscale|top(num int64, field string, fieldsAndTags ...string)

返回: InfluxQLNode

Trickle

创建一个新节点,该节点将批处理数据转换为流数据。

swarmAutoscale|trickle()

返回: TrickleNode

Union

执行此节点和所有其他给定节点的并集。

swarmAutoscale|union(node ...Node)

返回: UnionNode

Where

创建一个新节点,该节点通过给定的表达式过滤数据流。

swarmAutoscale|where(expression ast.LambdaNode)

返回: WhereNode

Window

创建一个新节点,该节点按时间窗口化流。

注意:Window 只能应用于流边缘。

swarmAutoscale|window()

返回: WindowNode


此页是否对您有帮助?

感谢您的反馈!


Flux 的未来

Flux 即将进入维护模式。您可以继续像现在一样使用它,而无需更改任何代码。

阅读更多

InfluxDB 3 开源版现已公开发布 Alpha 版本

InfluxDB 3 开源版现已可用于 Alpha 测试,根据 MIT 或 Apache 2 许可授权。

我们正在发布两个产品作为 Alpha 版本的一部分。

InfluxDB 3 Core 是我们新的开源产品。它是用于时间序列和事件数据的最新数据引擎。InfluxDB 3 Enterprise 是一个商业版本,它建立在 Core 的基础上,增加了历史查询功能、读取副本、高可用性、可扩展性和细粒度安全性。

有关如何开始使用的更多信息,请查看