常用开源监控软件介绍

常用开源监控软件介绍本文深入探讨 Ganglia 监控系统的特点 架构 部署及优缺点

大家好,欢迎来到IT知识分享网。

1、 Ganglia

Ganglia是一个跨平台可扩展的,高性能计算系统下的分布式监控系统,如集群和网格。Ganglia是由UC Berkeley发起的一个开源监控项目,设计用于监控数千节点。它是基于分层设计,它使用广泛的技术,如XML数据代表,便携数据传输,RRDtool用于数据存储和可 视化。它利用精心设计的数据结构和算法实现每节点间并发非常低的。它已移植到广泛的操作系统和处理器架构上,目前在世界各地成千上万的集群正在使用。它已 被用来连结大学校园和世界各地,可以处理2000节点的规模。Ganglia主要用来监控系统性能,可以监视和显示集群中的节点的各种状态信息,比如如:cpu 、mem、硬盘利用率, I/O负载、网络流量情况等,同时可以将历史数据以曲线方式通过php页面呈现。同时具有很好的扩展性,允许用户加入自己所要监控的状态信息。这对合理调整,分配系统资源,提高系统整体性能起到重要作用,支持浏览器方式访问,但不能监控节点硬件技术指标。

Ganglia每台服务器都运行一个收集和发送监控数据名为gmond的守护进程。它将从操作系统和指定主机中收集相关指标,接收所有监控数据的主机可以显示这些数据并且可以将这些数据的精简表单传递到层次结构中。正因为有这种层次架构模式,使ganglia可以实现良好的扩展。Gmond带来的系统负载非常小,这使得它在集群中各个服务器上运行而不会影响正常的用户业务的性能。

1.1、架构

在这里插入图片描述

Ganglia的组件: Ganglia包括如下程序,它们之间通过们之间通过XDL(xml的压缩格式)或者XML格式传递监控数据。集群内的节点,通过运行gmond收集发布节点状态信息,然后gmetad周期性的轮询gmond收集到的信息,然后存入rrd数据库,通过web服务器可以对其进行查询展示。

服务端ganglia meta daemon(gmetad):负责收集各个cluster的数据,并更新到rrd数据库中;gmetad周期性的去gmond节点或者gmetad节点poll数据。一个gmetad可以设置多个datasource,每个datasource可以有多个备份,一个失败还可以去其他host取数据。

客户端ganglia monitoring daemon(gmond):收集本机的监控数据,发送到其他服务器上,收集其他服务器的监控数据,供gmetad读取。gmond之间通过udp通信,传递文件格式为xdl。默认监听端口8649 ,监听到gmetad请求后发送xml格式的文件。

基于web的动态访问方式ganglia PHP web Frontend:一个基于web的监控界面,需要和gmetad安装在同一个节点上,从gmetad取数据,并且读取rrd数据库,生成图片显示。

如果是muticast模式的话,gmond之间还会通过多播来相互传递数据。Gmond本身具有udp send和recv通道,还有一个tcp recv通道。其中udp通道用于向其他gmond节点发送或接受数据,tcp则用来export xml文件,主要接受来自gmetad的请求。Gmetad只有tcp通道,一方面他向datasource发送请求,另一方面会使用一个tcp端口,发布自身收集的xml文件,默认使用8651端口。所以gmetad即可以从gmond也可以从其他的gmetad得到xml数据。

Gmond节点内部模块图:
在这里插入图片描述
Gmond节点主要由三个模块组成,collect and publish模块,该模块周期性的调用一些内部指令获得metric data,然后将这些数据通过udp通道发布给其他gmond节点。Listen Threads,监听其他gmond节点的发送的udp数据,然后将数据存放到内存中。XML export thread负责将数据以xml格式发布出去,比如交给gmetad。

Unicast(单播)模式下ganglia系统内的数据流图:
在这里插入图片描述
gmond通过udp向单播的目标host发送数据,gmetad然后向该目标host的gmond请求xml文件,然后存入rrdtool数据库。在unicast模式中,图中方框内的组件通常是位于集群内的同一个节点。该节点负责收集 存储 显示被监控的各节点的状态信息。

1.2、优缺点

1)优点:

1、自动收集数据

集群内各个节点的信息收集可以通过ganglia系统自动的收集起来,这个收集是独立进行地。其通信性能都是经过良好设计和优化的。具体的机制是:周期性的将这些信息发送给gmond,这样信息就加入了ganglia监控系统。通过ganglia的监控机制完成监控数据的收集显示的功能。

2、图形界面

数据可以通过图形显示出来。通过登录web服务器即可查看。目前可以通过该视图查看集群及单独节点的状态曲线。同时具有基本的排序机制,可以根据值降序或者升序排序。可以查看过去1小时 1天 1周 1年等时间段的状态曲线。

3、数据库rrdtool存储了历史数据

由于采用了rrd存储数据,这样不单可以查看当前的状态,还可以查看之前的状态历史,同时可以将job随时间的变化状态以曲线的方式变现表现出来。而单独的向文件写日志很难保存和方便地查看之前的历史记录。而且有可能使得日志文件很大。RRDtool具有如下优点:

1)除了存储数据之外,它具有可以创建图形的工具;

2)它的数据库文件大小是固定的,新的数据添加到已有数据的后面,当到了文件末尾的时候就开始从文件开始写数据,Round Robin就是指这个意思;

3)一般的数据库只能存储数据本身,而rrd可以存储相对与以前的数据的变动

4)一般的数据库是在提供数据的时候才更新,而RRD是在每一个预先设好的时间间隔都会更新,每次更新的时候,time stamp也会存储进去.

2)缺点:

1、开销估计:网络 IO CPU

只运行gmond进程的节点开销很小,通常需要1m左右内存,cpu大概1%不到,同时gmond只把数据保存在内存中,因此io开销可以忽略。同时向其他节点单播本身的信息本身的网络压力也不会很大。因此对于只运行gmond的节点来说,开销很小。

由于采用了unicast模式,所以主要的开销在各节点的gmond进程向中央节点发送的udp数据带来的网络开销,此外gmond和gmetad的通信,web服务也在该中央节点上进行。这样主要的瓶颈就在中央节点上,其网络 IO CPU的压力都会很大。

对于网络来说,中央节点将收到来自其他所有节点发送的udp包,如果一个节点每秒发10个包,500个节点将会发出5000个,每个包有200字节,就有1m字节,5000个包还需要处理cpu使用也会上升。

对于内存来说每个状态信息存储在内存大概要耗费300byte,如果一个job有10万个instance,每个instance又有10个状态需要监控,那么将耗费1000010300=30m的内存,其对应的xml文件大小也应该是10m级别的。

对于IO来说,Gmetad默认15秒向gmond拉取一次xml数据,如果gmond和gmetad都是在同一个节点,这样就相当于本地io请求。同时gmetad请求完xml文件后,还需要对其解析,也就是说按默认设置每15秒需要解析一个10m级别的xml文件,这样cpu的压力就会很大。同时它还有写入RRD数据库,还要处理来自web客户端的解析请求,也会读RRD数据库。这样本身的IO CPU 网络压力就很大,因此这个节点至少应该是个空闲的而且能力比较强的节点。

3、Gmetad RRd写入瓶颈

需要格外注意的是gmetad守护进程使用RRDtool在 /var/lib/ganglia/rrds/目录下的一个子目录存储这些信息,如果集群节点超过100个,你可能应将这个目录放在RAM文件系统上,因为这个数据库的磁盘I/O将会非常高。由于RRD特有的存储方式,它会为每个metric存放一个文件,如果配置了多个采样频率,它还会为每个采样频率保存一个单独的文件。这就意味着gmetad将metric的值保存到rrd数据库的操作,将是针对大量小文件的IO,假设集群有300个节点,每个节点有50个metric,那么意味着gmetad会记录15000个metric,如果这些metric都是一秒更新一次,那么意味着每秒15000的随机写入操作,通常来说硬盘都是撑不住的。

一个可能的解决方法就是将集群内的节点划分为多个子集,为每个子集配置一个中央收集节点。但这样会带来部署和结果查看的不方便性。另外可以通过RRD cached来缓解这个gmetad使用RRDTool的问题大量随机写入,它会缓存这些写入,批量进行更新。此外就是降低metric的采样频率,减少metrics的数目,尽量减少这种写入请求。如果机器具有多块磁盘,尽量利用多个磁盘来保存RRD数据。

4、使用的服务及端口以及依赖的库

Ganglia的gmond进程使用了udp进行单播,默认端口8649,同时还有负责tcp监控的端口8651 8652 8650也会被使用,这些端口需要在集群内部打开,这些使用的端口可以进行配置。另外apache也需要一个端口提供服务,这个端口会被从外部访问,默认是80。

5、相同host的不同进程的相同Metirc可能混淆

由于ganglia本身是根据host+metric_name来进行区分不同的状态参数的,也就是它无法区分同一host内的不同进程相同的名称的状态变量。对于qps类型的参量来说这是正确的,因为它会把不同进程的qps累加。但是对于单纯的一个状态量,虽然可能是多个进程的状态,但对它来说只能看到一个名称,所以当多个进程同时向它报告具有同一个名称的状态的value时,它无法区分出进程间的不同。由于同一个二级制文件在集群上同一台机器运行时,为了区分这些不同的进程需要加入一个命名机制区分它们。

程序运行完毕,该程序对应的自定义的那些metric不会消失,这意味着虽然程序运行结束,但我们依然可以查看其历史记录。但另一方面这样也会带来新的问题,由于我们采用的针对metric的命名机制,会导致metric积累到很多,这样会导致xml变得越来越大,增加中央节点解析该文件时的压力,也不方面查阅。目前有一个可行的方法就是修改gmetad的配置文件,减少数据的保存时间的设置。

1.3、部署

基于ganglia的监控运行时,需要各个客户端安装gangliang的客户端gmond。收集数据的那个节点还需要安装ganglia的服务端gmetad,为了可以从web显示结果,还需要安装http服务器。

参考。

2、Cacti

Cacti 在英文中的意思是仙人掌的意思,Cacti是一套基于PHP,MySQL,SNMP及RRDTool开发的网络流量监测图形分析工具。它通过 snmpget来获取数据,使用 RRDtool绘画图形,而且你完全可以不需要了解RRDtool复杂的参数。它提供了非常强大的数据和用户管理功能,可以指定每一个用户能查看树状结 构、host以及任何一张图,还可以与LDAP结合进行用户验证,同时也能自己增加模板,功能非常强大完善。

3、Nagios

Nagios是一个监视系统运行状态和网络信息的监视系统。Nagios能监视所指定的本地或远程主机以及服务,同时提供异常通知功能等

Nagios可运行在Linux/Unix平台之上,同时提供一个可选的基于浏览器的WEB界面以方便系统管理人员查看网络状态,各种系统问题,以及日志等等。

4、 Zabbix

zabbix是一个基于WEB界面的提供分布式系统监视以及网络监视功能的企业级的开源解决方案。

5、Observium

Observium 是一个可自动发现网络中的思科设备和 Linux系统的网络监控工具,而是包括了主要的网络硬件和操作系统的广泛支持。 Observium发展出来的一种轻松缺乏使用NMSes。其目的是提供一个更加通航接口的健康和你的网络性能。它的设计目标包括收集尽可能就设备多的历 史资料,是完全与很少或无需人工干预的自动发现,并有一个非常直观的界面。

6、Xplico

Xplico工作原理是提取网络流量并捕获应用数据中包含的信息。

7、Security Onion

内部集成了很多开源安全工具例如: OSSEC、NIDS、HIDS以及各种监控工具等。

8、NAC

NAC,网络准入控制的缩写,这项技术可以在用户访问网络之前确保用户的真实身份,实现这一功能的开源工具有PacketFence和FreeNAC。

9、Panabit

Panabit在精确识别协议即对应用分类的基础上,根据用户自定义策略,提供灵活方便的流量管理机制:带宽限速、带宽保证、带宽预留,并可基于协议/协议组、IP/IP组进行参数化的策略设置。

10、Prometheus

Prometheus是由SoundCloud开发的开源监控报警系统和时序列数据库(TSDB),其基于Go语言开发,是Google BorgMon监控系统的开源版本。这些年尤其活跃,因企业上云和数字化转型趋势,期本身对虚拟化环境的监控优势,使其已成为各企业生产实际应用的常规实践;更多参看Prometheus监控系部署配置过程。

11、pmlogger(PCP)

PCP(Performance Co-Pilot) 是一个开源,轻量级分布式,指标实时收集、历史回溯和复杂系统集中分析的工具,它包括 CPU,内存,磁盘交换,网络,NFS,RPC,文件系统和每个进程统计信息等;目前PCP已经集成到Redhat OS里,它实际就是用于监控、视觉化、存储和分析系统级性能测量的工具、服务和库集。可通过dnf install pcp命令安装该库集,其中pcp 软件包提供了命令行工具和底层功能;关联的PCP 组件还有:

  • PMCD(Performance Metric Collector Daemon): 性能度量收集器守护进程。它从已安装的 pmda)收集性能数据。PMDA 可以单独加载或卸载在系统上,并由同一主机上的 PMCD 集中控制。
  • PMDA:性能度量域代理,插件代理负责一组特定的指标。
  • pmie(Performance Metrics Inference Engine):性能指标对引擎
  • pmlogger:性能指标日志记录器
  • 多种客户端工具,如 pminfo pmstat,可以检索、显示、存档和处理同一主机或网络上的此数据
  • pcp-gui 图形化工具:yum/apt/dnf install pcp-gui 命令安装 pcp-gui 软件包,安装后可用:pmchart、pmdumptext
  • pcp-system-tools:pcp-atop、pcp-atopsar、pcp-dmcache、pcp-dstat、pcp-free、pcp-htop、pcp-ipcs、pcp-mpstat、pcp-numastat、pcp-pidstat、pcp-shping、pcp-ss、pcp-tapestat、pcp-uptime、pcp-verify、pmiostat、pmrep
  • pcp-devel:pmclient、pmdbg、pmerr
  • pmproxy:实时和历史性能指标代理、时间序列查询和 REST API 服务
  • pcp-vmstat:每 5 秒提供高级系统性能概述。显示有关进程、内存、分页、块 IO、 traps 和 CPU 活动的信息。

另外,pmcd的连接都是使用基于 TCP/IP 的 PCP 协议建立的。协议代理和 PCP REST API 由 pmproxy 守护进程提供REST API 可通过 HTTPS 访问,以确保安全连接。pmcd 和 pmproxy 守护进程能够在单一端口上同时进行 TLS 和非 TLS 通信。pmcd 的默认端口是 44321 ,44322 用于 pmproxy。

关联资源:Redhat 监控和管理系统状态和性能、PCP 概述、pmlogger_merge

1)安装使用

dnf install pcp systemctl enable pmcd #本地归档 pmlogger 服务将本地和远程 pmcds 的指标存储在 /var/log/pcp/pmlogger/ 目录中。要控制本地系统的日志间隔,请更新 /etc/pcp/pmlogger/control.d/configfile文件,并在参数中添加 -t X,其中 X 是日志间隔(以秒为单位)。要配置应该记录哪些指标,请执行 pmlogconf /var/lib/pcp/config/pmlogger/config.clienthostname。此命令使用一组默认指标来部署配置文件,可选择性地进行进一步自定义。要指定保留设置(指定何时清除旧的 PCP 存档),更新 /etc/sysconfig/pmlogger_timers 文件指定 PMLOGGER_DAILY_PARAMS="-E -k X",其中 X 是保留 PCP 归档的天数。 #更新pmlogger 配置: pmlogconf -r /var/lib/pcp/config/pmlogger/config.default systemctl start pmcd systemctl start pmlogger.service #4330端口 systemctl status pmie systemctl status pmproxy.service #版本查看 pcp #输出类似如下 Performance Co-Pilot configuration on 5-hb-225-BClinux: platform: Linux 5-xx-225-BClinux 5.10.0-60.70.0.94.oe2203.bclinux.x86_64 #1 SMP Mon Dec 19 17:06:33 CST 2022 x86_64 hardware: 8 cpus, 2 disks, 1 node, 64312MB RAM timezone: CST-8 services: pmcd pmcd: Version 5.3.5-7, 12 agents, 6 clients pmda: root pmcd proc pmproxy xfs linux nfsclient mmv kvm jbd2 dm openmetrics pmlogger: primary logger: /var/log/pcp/pmlogger/ecs-/.00.10 pmie: primary engine: /var/log/pcp/pmie/ecs-/pmie.log #本地服务状态 systemctl status pmcd ● pmcd.service - Performance Metrics Collector Daemon Loaded: loaded (/usr/lib/systemd/system/pmcd.service; enabled; vendor preset: disabled) Active: active (running) since Mon 2023-09-04 14:40:45 CST; 7 months 11 days ago Docs: man:pmcd(1) Main PID: 1374 (pmcd) Tasks: 9 (limit: ) Memory: 89.0M CGroup: /system.slice/pmcd.service ├─ 1374 /usr/libexec/pcp/bin/pmcd -A ├─ 1378 /var/lib/pcp/pmdas/root/pmdaroot ├─ 1379 /var/lib/pcp/pmdas/proc/pmdaproc -d 3 ├─ 1380 /var/lib/pcp/pmdas/xfs/pmdaxfs -d 11 ├─ 1381 /var/lib/pcp/pmdas/linux/pmdalinux ├─ 1382 python3 /var/lib/pcp/pmdas/nfsclient/pmdanfsclient.python ├─ 1393 /var/lib/pcp/pmdas/kvm/pmdakvm -d 95 ├─ 1394 /var/lib/pcp/pmdas/dm/pmdadm -d 129 └─ 1396 python3 /var/lib/pcp/pmdas/openmetrics/pmdaopenmetrics.python Notice: journal has been rotated since unit was started, output may be incomplete. #日志默认存在/var/log/pcp/pmlogger/,保存到基于主机名和当前日期和时间的 tar.gz 文件,之后可用PCP 工具提取此文件并分析数据 cd /var/log/pcp/pmlogger/ tar -czf $(hostname).$(date +%F-%Hh%M).pcp.tar.gz $(hostname) #对应不同服务的pdca,之后运行相应的安装脚本 ls /var/lib/pcp/pmdas/ dm jbd2 kvm linux mmv nfsclient openmetrics pipe pmcd proc root xfs zfs #安装PMMGR守护程序并开始监视静态或动态配置的主机 yum install pcp-manager chkconfig pmmgr on echo acme.com >> /etc/pcp/pmmgr/target-host echo avahi >> /etc/pcp/pmmgr/target-discovery echo probe=ip.addr.tup.le/netmask>>/etc/pcp/pmmgr/target-discovery service pmmgr restart find /var/log/pcp/pmmgr #本地网络上使用PCP pmcd服务: pmfind -s pmcd #显示主机上所有已启用的性能指标(与-t一起使用以包含每个的简短说明): pminfo -h localhost #默认配置 vim /var/lib/pcp/config/pmlogger/config.default #定义了要记录什么指标 #pmlogger 实例收集的数据创建一个自动自定义归档管理系统。这可以通过控制文件来完成:/etc/pcp/pmlogger/control.d/local LOCALHOSTNAME y PCP_ARCHIVE DIR/LOCALHOSTNAME -r -T24h10m -c config .default -v 100Mb #P? 代表"主要"此字段指示主机是主日志记录器实例,当前值为y;S?代表"Socks?":此字段指示此日志记录器实例是否需要使用 SOCKS 协议来通过防火墙、y 或 n 连接到 pmcd;-r:报告存档大小和增长率;T24h10m指定当天结束日志的时间。这通常是 pmlogger_daily.service 运行时的时间。默认值为 24h10m,表示日志记录应当在最新的 24 小时和 10 分钟后结束。-v 100Mb指定将一个数据卷被填充并创建了另一个数据的大小。切换到新存档后,之前记录的存档将由 pmlogger_daily 或 pmlogger_check 压缩;pmlogger_daily.service默认情况下,在午夜后马上运行,以聚合、压缩和轮转一个或多个 PCP 存档集合。另外,剔除比限制旧的存档,默认为 2 周。 //pmlogger 服务将本地和远程 pmcds 的指标存储在 /var/log/pcp/pmlogger/ 目录中。要控制本地系统的日志间隔,请更新 /etc/pcp/pmlogger/control.d/configfile文件,并在参数中添加 -t X,其中 X 是日志间隔(以秒为单位)。要配置应该记录哪些指标,请执行 pmlogconf /var/lib/pcp/config/pmlogger/config.clienthostname。此命令使用一组默认指标来部署配置文件,可选择性地进行进一步自定义。要指定保留设置(指定何时清除旧的 PCP 存档),更新 /etc/sysconfig/pmlogger_timers 文件指定 PMLOGGER_DAILY_PARAMS="-E -k X",其中 X 是保留 PCP 归档的天数。 

在这里插入图片描述
在这里插入图片描述

2)常用命令

  • pmconfig:显示配置参数的值。
  • pmdiff:比较一个或两个存档(给定时间窗内)中每个指标的平均值,而在搜索性能回归时可能会感兴趣的更改。
  • pmdumplog:显示 Performance Co-Pilot 归档文件中的控制、元数据、索引和状态信息。
  • pmfind:在网络上查找 PCP 服务。
  • pmie:定期评估一组算术、逻辑和规则表达式的 inference 引擎。指标可以从 live 系统或 Performance Co-Pilot 归档文件收集。
  • pmieconf:显示或设置可配置的 pmie 变量。
  • pmiectl:管理 pmie 的非主要实例。
  • pminfo:显示性能指标的相关信息。指标可以从 live 系统或 Performance Co-Pilot 归档文件收集。
  • pmlc:交互式配置活动的 pmlogger 实例。
  • pmlogcheck:在 Performance Co-Pilot 归档文件中标识无效数据。
  • pmlogconf:创建和修改 pmlogger 配置文件。
  • pmlogctl:管理 pmlogger 的非主要实例。
  • pmloglabel:验证、修改或修复 Performance Co-Pilot 归档文件的标签。
  • pmlogsummary:计算 Performance Co-Pilot 归档文件中存储性能指标的统计信息。
  • pmprobe:决定性能指标的可用性。
  • pmsocks:允许通过防火墙访问 Performance Co-Pilot 主机。
  • pmstat:定期显示系统性能的简短摘要。
  • pmstore:修改性能指标的值。
  • pmtrace:提供到 trace PMDA 的命令行界面。
  • pmval:显示性能指标的当前值

3)架构

分布式架构:在每个被监控的主机上运行 pmlogger 服务,并从本地 pmcd 实例检索指标,然后再通过本地 pmproxy 服务将性能指标汇总到中央 Redis 实例。pmproxy 服务将日志记录的指标从 pmlogger 发送到 Redis 实例。
在这里插入图片描述

pcp 1374 0.0 0.0 17012 6320 ? Ss 2023 28:21 /usr/libexec/pcp/bin/pmcd -A root 1378 0.0 0.0 16928 7336 ? S 2023 0:00 /var/lib/pcp/pmdas/root/pmdaroot root 1379 0.0 0.0 59720 50872 ? S 2023 248:10 /var/lib/pcp/pmdas/proc/pmdaproc -d 3 root 1380 0.0 0.0 15600 6316 ? S 2023 2:25 /var/lib/pcp/pmdas/xfs/pmdaxfs -d 11 root 1381 0.0 0.0 16560 8124 ? S 2023 139:38 /var/lib/pcp/pmdas/linux/pmdalinux root 1382 0.0 0.0 47252 17712 ? S 2023 0:00 python3 /var/lib/pcp/pmdas/nfsclient/pmdanfsclient.python root 1393 0.0 0.0 15652 6864 ? S 2023 2:11 /var/lib/pcp/pmdas/kvm/pmdakvm -d 95 root 1394 0.0 0.0 16876 7308 ? S 2023 0:18 /var/lib/pcp/pmdas/dm/pmdadm -d 129 root 1396 0.0 0.0  28300 ? S 2023 95:53 python3 /var/lib/pcp/pmdas/openmetrics/pmdaopenmetrics.python pcp 1406 0.0 0.0 15424 6232 ? Ss 2023 0:00 /usr/libexec/pcp/bin/pmpause pcp 1416 0.0 0.0 15424 6240 ? Ss 2023 0:00 /usr/libexec/pcp/bin/pmpause pcp 2272 0.0 0.0 16056 7996 ? S 2023 0:50 /usr/bin/pmie -b -F -P -l /var/log/pcp/pmie/ecs-/pmie.log -c config.default pcp 2380 0.0 0.0 21356 13124 ? S 2023 37:39 /usr/libexec/pcp/bin/pmlogger -N -P -r -T24h10m -c config.default -v 100mb -mreexec %Y%m%d.%H.%M 

示例2:构建pmlogger 场,也称为集中式日志记录。在该架构中,单个日志记录器主机执行多个 pmlogger 进程,各自配置为从不同的远程 pmcd 主机检索性能指标。集中式日志记录器主机也被配置为执行 pmproxy 服务,该服务发现生成的 PCP 存档日志并将指标数据加载到 Redis 实例中。
在这里插入图片描述
基于以上还可以多个 pmlogger farms:
在这里插入图片描述

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/145805.html

(0)
上一篇 2025-04-19 12:20
下一篇 2025-04-19 12:26

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信