1. API
prometheus提供了RESTFUL风格的API,我们可以通过API对集群进行增删改查。实际上,大部分和prometheus的交互都是通过API来进行的。
1.1. 查询
我们先来看一个查询的例子
curl 'http://localhost:9090/api/v1/query?query=up&time=2015-07-01T20:10:51.781Z'
{
"status" : "success",
"data" : {
"resultType" : "vector",
"result" : [
{
"metric" : {
"__name__" : "up",
"job" : "prometheus",
"instance" : "localhost:9090"
},
"value": [ 1435781451.781, "1" ]
},
{
"metric" : {
"__name__" : "up",
"job" : "node",
"instance" : "localhost:9100"
},
"value" : [ 1435781451.781, "0" ]
}
]
}
}
先来看输入:
- curl:没有加任何的参数就是使用get方式,当然,我们也可以使用post方式
- /api/v1/query是我们的API的地址,表示我们和这个API来进行交互
- ?query=up:这是我们要查询的metric指标名字
- &time=2015-07-01T20:10:51.781Z:这个位置指定的是要查询的时间点
再来看输出:
- status:显示的是查询结果
- data是我们要的数据
- resultType:就是我们前面说过的数据类型
- result的类型是一个array,数组中的每一个元素都是一个符合条件的查询结果
当然,我们做展示的时候肯定不会给用户看这些枯燥的数据,我们需要一个标准的软件可以通过读取这些数据来生成漂亮的视图,比如grafana。最后,常见的查询方式请看官方文档
1.2. 管理
和其他的数据库一样,prometheus中大部分的配置是可以进行动态修改的,比如我们的target,我们就可以通过修改配置文件的方式来修改配置,而对于prometheus只需要reload,而不是restart。官方文档
比如:查看健康状态healthy
GET /-/healthy
查看是否正常启动readiness
GET /-/ready
重新加载配置,必须启用--web.enable-lifecycle
选项
PUT /-/reload
POST /-/reload
退出
PUT /-/quit
POST /-/quit
2. 存储
2.1. 本地存储
当我们把数据存储在本地的时候,prometheus会把采集的数据每两个小时的数据组合成一个组,每两小时的数据会被打成一个chunck,也就是一个文件夹,而不足两小时的数据就会放在wal里面
./data
├── 01BKGV7JBM69T2G1BGBGM6KB12
│ └── meta.json
├── 01BKGTZQ1SYQJTR4PB43C8PD98
│ ├── chunks
│ │ └── 000001
│ ├── tombstones
│ ├── index
│ └── meta.json
├── 01BKGTZQ1HHWHV8FBJXW1Y3W0K
│ └── meta.json
├── 01BKGV7JC0RY8A6MACW02A2PJD
│ ├── chunks
│ │ └── 000001
│ ├── tombstones
│ ├── index
│ └── meta.json
├── chunks_head
│ └── 000001
└── wal
├── 000000002
└── checkpoint.00000001
└── 00000000
本地存储的局限之处在于他不能做集群或者做复制,如果实例挂了,在实例停止到实例恢复工作之前的数据就丢失了,最明显的就是在画图软件的图上会显示一个断点。最坏的情况,如果节点挂了,并且无法恢复,那么之前的数据也就都丢失了。这个时候我们就需要其他的方式来保证数据的可靠性,比如数据快照,RAID或者存储级别的高可用。
但是我们最常用的方式还是通过远程读写来把数据存放在其他具有高可用特性的媒介当中,比如我们可以通过远程读写。
2.2. 集成远程存储
prometheus本身是支持远程读写功能的,叫remote read和remote write。
官方文档中提供了一系列可以远程读写的数据源
但是要注意,并不是每种方案都经过严格的验证。特别是开源的软件,大家在选择的时候要特别小心不要被坑住,在正式投入生产之前一定要做充分的验证。而且,并不是每种存储都支持直接写入。我们在架构师的课程里面会挑出几种来做几套生产级别的解决方案。
3. 注册中心
我们在配置文件中,看到了一些xx_sd_config的配置,sd就是service discover的缩写。他的原理是把需要监控的endpoint信息都放在某些特殊的位置,而prometheus会去这些注册中心中拿信息,从而动态的获得监控目标的信息。比如:
- Prometheus监控kubernetes集群就是通过kubernetes_sd_config来做的。
- 对于常见的公有云,还有ec2,gce,azure的discovery。
- 我们还可以针对一些专门的注册中心软件做配置,比如dns,consul和eureka。
- 如果想自己开发的话,就可以使用http_sd_config,让prometheus去call特定的api,通过返回值来更新prometheus中的监控目标
我们课程里面会使用consul来做例子,因为consul是一个非常典型的注册中心,架构非常完善。比较适合生产级别的系统,但是他和prometheus类似,都是提供了非常完善的API,而图形界面功能很单一,如果想商用,就需要自己开发。
4. federation
federation就是从一个prometheus实例去另外一个prometheus集群里面拿数据回来的过程。我们通常会分为分层联邦和跨服务联邦。
在数据展示和报警的时候,只需要去service prometheus去做就可以了。
5. 集群
prometheus是单实例的,无状态的,本身并没有数据库的什么流复制(mysql的MHA)或者共享盘(oracle的ASM)之类的机制。所以想做集群,我们只能简单的多做几个prometheus,让他们同时采集一个exporter上的数据并且储存起来,即使某一个实例挂了,另外一个实例还是正常运行的,我们就去另外的实例查询,通过类似于VIP的机制,如果一个prometheus挂了,就让IP飘到另外一个机器上,而grafana只需要去另外的集群查就好了。但是报警还是没办法,因为报警的rule是在prometheus上配置的,如果想做两个prometheus实例,就要写两份报警规则,我们其实也可以通过nfs的方式,把配置文件放到共享盘的方式来做。
6. 数据展示
数据展示我们基本都是用grafana来做的,很多的第三方也摒弃了重复造轮子的方式,而直接在web上内嵌了grafana的方式来做。而我们基本上只需要买车就可以了,社区里面有比较成熟的模板,我们下来直接使用就好了。当然,如果想多学习的话,我们还是要具备一些grafana dashboard的制作方法的。特别是需要一些手撸promsql的能力。
7. 报警规则
和展示一样,我们也需要一些手撸promsql的能力,但是我们也会给出一些很好的例子来,我们只需要明白原理,就可以随意进行修改了。