最近剛好在實作 Prometheus + Grafana 的時候,對 MongoDB 做了容器 CPU 使用率 (container_cpu_usage_seconds_total
) 的監控,Metrics 寫法如下:
從上面的 Metrics 可以拉長時間來看,會發現專案的 MongoDB 非常不穩定,起起伏伏,這時候就需要來看看資料庫到底哪邊慢,以及看看哪個語法造成 CPU 飆高?
接著為了看 MongoDB 的 Log 紀錄,把 Grafana 推出的 Loki,也導入專案系統,將容器所有的 Log 都導向 Loki,底下可以看看 docker-compose 將 Log 輸出到 loki
先看看結論,做法其實很簡單,找出相對應 Slow Query,把相關的欄位加上 Index,就可以解決了
啟動資料庫 Profiler
MongoDB 預設 Profiler 是關閉的,遇到效能問題,就需要打開,來收集所有的操作記錄 (CRUD),透過底下指令可以知道目前 MongoDB 的 Profiler 狀態
可以看到 was
為 0 代表沒有啟動
Level | Description |
---|---|
The profiler is off and does not collect any data. This is the default profiler level. | |
1 | The profiler collects data for operations that take longer than the value of slowms. |
2 | The profiler collects data for all operations. |
這邊先將 Level 設定為 2,或者是只需要看 slow query,那就設定為 1
如果使用完畢,請將 Profiler 關閉。
用 Profiler 分析效能
上一個步驟,Profile 打開後,就可以看到 Mongo 收集一堆 Slow Query Log 了
最後驗證結果就很簡單,只要 Log 量減少及 CPU 使用率下降,就代表成功了,底下介紹幾個好用的分析效能語法。第一直接找目前系統 command 類別內執行時間最久的狀況 (millis: -1 反向排序)
第二可以找執行時間超過 100 ms 的指令。
最後透過 planSummary
語法可以找出 query command 掃描 (COLSCAN
) 整個資料表,代表語法沒有被優化,資料表越大,查詢速度越慢
或者可以透過 db.currentOp 觀察現在正在執行中的 Command,底下語法可以針對 db1
資料庫查詢執行超過 3 秒鐘的指令
了解 Slow Query
從上面的 Profiler 效能分析指令,可以查詢到哪些 SQL 指令造成系統效能不穩定,這些 SQL 可以透過 EXPLAIN
方式找尋到執行效能瓶頸。底下直接透過 explain 方式會產生出 JSON 格式輸出:
|
|
透過 db.collection.explain 可以知道此 Query 在 Mongodb 內是怎麼有效率的執行,底下來看看 explain 回傳的結果:
|
|
直接注意到幾個數據,看到 executionTimeMillis
執行時間,totalDocsExamined
是在執行過程會掃過多少資料 (越低越好),由上面可以知道此 Query 執行時間是 237 ms
,並且需要掃過 192421
筆資料,另外一個重要指標就是 executionStages
內的 stage
|
|
Stage 狀態分成底下幾種
- COLLSCAN: for a collection scan
- IXSCAN: for scanning index keys
- FETCH: for retrieving documents
- SHARD_MERGE: for merging results from shards
- SHARDING_FILTER: for filtering out orphan documents from shards
這次我們遇到的就是第一種 COLLSCAN
,資料表全掃,所以造成效能非常低,這時就要檢查看看是否哪邊增加 Index 可以解決效能問題。底下增加一個 index key 看看結果如何?
|
|
接著再執行一次,可以看到底下結果:
|
|
可以看到 executionTimeMillis
降低到 2,totalDocsExamined
變成 1,用 index 去找就是特別快。inputStage.stage 用的就是 IXSCAN
。針對上述找尋方式把相對的 index key 補上,並且優化商業邏輯,就可以達到底下結果
相關參考文件: