萬盛學電腦網

 萬盛學電腦網 >> Linux教程 >> Linux內存耗盡原因分析

Linux內存耗盡原因分析

  Linux內存的使用需要維持在一定的比例內,如果內存占用太高,系統也能運行,但是會影響速度。本文就來介紹一下Linux中內存耗盡應該怎麼分析?

Linux內存耗盡原因分析

  在測試NAS性能,用fstest長時間寫,分析性能變差的原因,發現server主機內存使用率很高。

  1.首先查看內存# top -M

  top - 14:43:12 up 14 days, 6 min, 1 user, load average: 8.36, 8.38, 8.41

  Tasks: 419 total, 1 running, 418 sleeping, 0 stopped, 0 zombie

  Cpu(s): 0.0%us, 0.2%sy, 0.0%ni, 99.0%id, 0.7%wa, 0.0%hi, 0.0%si, 0.0%st

  Mem: 63.050G total, 62.639G used, 420.973M free, 33.973M buffers

  Swap: 4095.996M total, 0.000k used, 4095.996M free, 48.889G cached

  PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND

  111 root 20 0 0 0 0 S 2.0 0.0 0:25.52 ksoftirqd/11

  5968 root 20 0 15352 1372 828 R 2.0 0.0 0:00.01 top

  13273 root 20 0 0 0 0 D 2.0 0.0 25:54.02 nfsd

  17765 root 0 -20 0 0 0 S 2.0 0.0 0:11.89 kworker/5:1H

  1 root 20 0 19416 1436 1136 S 0.0 0.0 0:01.88 init

  。。。。。

  發現內存基本用完,究竟是什麼進程占用?top命令發現排名第一的%MEM才零點幾。

  2.通過 vmstat -m命令查看內核空間的內存使用。# vmstat -m

  Cache Num Total Size Pages

  xfs_dqtrx 0 0 384 10

  xfs_dquot 0 0 504 7

  xfs_buf 91425 213300 384 10

  fstrm_item 0 0 24 144

  xfs_mru_cache_elem 0 0 32 112

  xfs_ili 7564110 8351947 224 17

  xfs_Linux/1672.html‘ target=’_blank‘》inode 7564205 8484180 1024 4

  xfs_efi_item 257 390 400 10

  xfs_efd_item 237 380 400 10

  xfs_buf_item 1795 2414 232 17

  xfs_log_item_desc 830 1456 32 112

  xfs_trans 377 490 280 14

  xfs_ifork 0 0 64 59

  xfs_da_state 0 0 488 8

  xfs_btree_cur 342 437 208 19

  xfs_bmap_free_item 89 288 24 144

  xfs_log_ticket 717 966 184 21

  xfs_ioend 726 896 120 32

  rbd_segment_name 109 148 104 37

  rbd_obj_request 1054 1452 176 22

  rbd_img_request 1037 1472 120 32

  ceph_osd_request 548 693 872 9

  ceph_msg_data 1041 1540 48 77

  ceph_msg 1197 1632 232 17

  nfsd_drc 19323 33456 112 34

  nfsd4_delegations 0 0 368 10

  nfsd4_stateids 855 1024 120 32

  nfsd4_files 802 1050 128 30

  nfsd4_lockowners 0 0 384 10

  nfsd4_openowners 15 50 392 10

  rpc_inode_cache 27 30 640 6

  rpc_buffers 8 8 2048 2

  rpc_tasks 8 15 256 15

  fib6_nodes 22 59 64 59

  pte_list_desc 0 0 32 112

  ext4_groupinfo_4k 722 756 136 28

  ext4_inode_cache 3362 3728 968 4

  ext4_xattr 0 0 88 44

  ext4_free_data 0 0 64 59

  ext4_allocation_context 0 0 136 28

  ext4_prealloc_space 42 74 104 37

  ext4_system_zone 0 0 40 92

  Cache Num Total Size Pages

  ext4_io_end 0 0 64 59

  ext4_extent_status 1615 5704 40 92

  jbd2_transaction_s 30 30 256 15

  jbd2_inode 254 539 48 77

  。。。。。。。。

  發現這兩項值很高: xfs_ili xfs_inode 占用了大量的內存。 上一頁12下一頁共2頁

  3.使用slabtop命令查看內核slab 緩沖區信息#slabtop -s c | head

  Active / Total Objects (% used) : 31807723 / 35664583 (89.2%)

  Active / Total Slabs (% used) : 3259180 / 3259251 (100.0%)

  Active / Total Caches (% used) : 139 / 227 (61.2%)

  Active / Total Size (% used) : 11242773.43K / 12756788.05K (88.1%)

  Minimum / Average / Maximum Object : 0.02K / 0.36K / 4096.00K

  OBJS ACTIVE USE OBJ SIZE SLABS OBJ/SLAB CACHE SIZE NAME

  8480676 7565420 89% 1.00K 2120169 4

  8480676K

  xfs_inode

  8351794 7565375 90% 0.22K 491282 17

  1965128K

  xfs_ili

  xfs_ili 占用1965128k xfs_inode占用8480676K,但他們究竟是什麼東東?猜測是nas/rbd 卷的文件系統緩存信息。xfs_inode看字面意思是xfs文件系統的inode信息。

  搜了下xfs_ili,只搜到內核代碼片段。xfs_inode_zone =

  1636 kmem_zone_init_flags(sizeof(xfs_inode_t), “xfs_inode”,

  1637 KM_ZONE_HWALIGN | KM_ZONE_RECLAIM | KM_ZONE_SPREAD,

  1638 xfs_fs_inode_init_once);

  1639 if (!xfs_inode_zone)

  1640 goto out_destroy_efi_zone;

  1641

  1642 xfs_ili_zone =

  1643 kmem_zone_init_flags(sizeof(xfs_inode_log_item_t), “xfs_ili”,

  1644 KM_ZONE_SPREAD, NULL);

  28 typedef struct xfs_inode_log_item {

  29 xfs_log_item_t ili_item; /* common portion */

  30 struct xfs_inode *ili_inode; /* inode ptr */

  31 xfs_lsn_t ili_flush_lsn; /* lsn at last flush */

  32 xfs_lsn_t ili_last_lsn; /* lsn at last transaction */

  33 unsigned short ili_lock_flags; /* lock flags */

  34 unsigned short ili_logged; /* flushed logged data */

  35 unsigned int ili_last_fields; /* fields when flushed */

  36 unsigned int ili_fields; /* fields to be logged */

  37 struct xfs_bmbt_rec *ili_extents_buf; /* array of logged

  38 data exts */

  39 struct xfs_bmbt_rec *ili_aextents_buf; /* array of logged

  40 attr exts */

  41 xfs_inode_log_format_t ili_format; /* logged structure */

  42 } xfs_inode_log_item_t;

  分析加估計是文件系統的日志緩存。究竟是不是?目前nfs-server有14個卷,每個卷的在格式化xfs的時指定的參數(即日志大小)-l=128m 14*128*1024 約等於1965128。

  4.但是xfs_ili xfs_inode兩者加起來才10G,還有50G去哪兒了呢?查資料說linux將用過的文件緩存到內存中。

  執行下面的命令就釋放了內存#sync #

  刷到磁盤

  #echo 3 》 /proc/sys/vm/drop_caches

  5.總結

  是不是由於內存少導致的性能變差,還在測試。不過以後在優化nfs-server端有一定的指導意義。卷越多,必然占用的內存越多。做機頭的內存配置要高。

  以上就是Linux內存耗盡原因分析的全部內容了,只有找到內存占用高的原因,才能解決和防止類似情況發生。

上一頁12 下一頁共2頁
copyright © 萬盛學電腦網 all rights reserved