Centos

ceph luminous osd記憶體使用情況

  • January 16, 2019

我正在嘗試在單個盒子上建構小型 CEPH 集群 - 在實驗室中進行測試,然後再將更大的 probject 切換到它。遇到記憶體問題,無法找到控制它的方法。

我們有舊的 Core2Duo CPU,4GB 記憶體。使用 3 個本地 8tb 磁碟創建 3 個 OSD。

ceph-deploy 會成功,一切執行良好,除了為 3 個 OSD 中的每一個創建 1 個 tmpfs 分區,它是 2gb 並且在將大約 50gb 的數據複製到 CephFS Bluestore 之後 - 盒子開始積極使用 RAM 並最終使用所有交換。我找不到正確的設置來控制允許使用多少 RAM OSD 程序。

可以使用更多的 IO,而不是 RAM。尋求幫助(如果可能的話)。:) 我在 Centos 7 上建構一切。

Ceph 13.2.2發行說明說以下…

不再需要 bluestore_cache_* 選項。它們被 osd_memory_target 替換,預設為 4GB。BlueStore 將擴展和收縮其記憶體以嘗試保持在此限制內。升級的使用者應該注意,這比之前的 bluestore_cache_size 1GB 更高,因此使用 BlueStore 的 OSD 預設會使用更多記憶體。有關更多詳細資訊,請參閱 BlueStore 文件。

這讓我大吃一驚。我的 osds 對常駐記憶體的使用非常瘋狂。核心正在 oom-killing osd 程序。

切換到新密鑰並反彈 osd 程序給了我穩定的性能。

引用自:https://unix.stackexchange.com/questions/448801