имеется несколько серверов с установленным SLES 11 SP1, на котором стоит XEN 4. из коробки.
ядро 2.6.32.12-0.7-xen
Происходит периодическое зависание. Причем частота периода меняется хаотично. Может зависнуть через день, а может и через месяц. На сервере стоят виртуальные машины с полной виртуализацией. Зависание происходит спонтанно. Сервер может пинговаться, но доступ по ssh или просто доступ к консоли отсутствует. Виртуалки соответственно вообще прекращают работать. Я написал скрипт, который пингует яндекс каждые 15 минут. В момент последнего зависания этот скрипт отработал в 06-16-00 и все, дальше крон не запускался. Также, во время последнего зависания записался лог, что памяти не хватает и oom killer начал убивать процессы, что и привело к краху системы, но пинги до этого сервера шли. Жесткий ресет вернул сервер в боевое состояние - но это лишь временная мера. Из-за чего может такое происходить? может это глюк ядра и надо что-то с ним сделать?
вот прикладываю кусок лога в момент краха системы:
Apr 19 06:14:38 www kernel: [1023541.775583] irqbalance invoked oom-killer: gfp_mask=0xd0, order=1, oom_adj=0
Apr 19 06:14:38 www kernel: [1023541.775588] irqbalance cpuset=/ mems_allowed=0
Apr 19 06:14:38 www kernel: [1023541.775592] Pid: 4986, comm: irqbalance Not tainted 2.6.32.12-0.7-xen #1
Apr 19 06:14:38 www kernel: [1023541.775595] Call Trace:
Apr 19 06:14:38 www kernel: [1023541.775612] [<ffffffff80009af5>] dump_trace+0x65/0x180
Apr 19 06:14:38 www kernel: [1023541.775621] [<ffffffff8034f056>] dump_stack+0x69/0x73
Apr 19 06:14:38 www kernel: [1023541.775629] [<ffffffff8009cf20>] oom_kill_process+0xe0/0x220
Apr 19 06:14:38 www kernel: [1023541.775635] [<ffffffff8009d690>] __out_of_memory+0x50/0xa0
Apr 19 06:14:38 www kernel: [1023541.775640] [<ffffffff8009d73e>] out_of_memory+0x5e/0xc0
Apr 19 06:14:38 www kernel: [1023541.775645] [<ffffffff800a06f9>] __alloc_pages_slowpath+0x429/0x500
Apr 19 06:14:38 www kernel: [1023541.775651] [<ffffffff800a090a>] __alloc_pages_nodemask+0x13a/0x140
Apr 19 06:14:38 www kernel: [1023541.775656] [<ffffffff800ce4bb>] cache_grow+0x34b/0x440
Apr 19 06:14:38 www kernel: [1023541.775662] [<ffffffff800ce80e>] cache_alloc_refill+0x25e/0x2a0
Apr 19 06:14:38 www kernel: [1023541.775666] [<ffffffff800ce9cd>] __kmalloc+0x17d/0x190
Apr 19 06:14:38 www kernel: [1023541.775672] [<ffffffff800f889a>] seq_read+0x13a/0x3a0
Apr 19 06:14:38 www kernel: [1023541.775679] [<ffffffff80132851>] proc_reg_read+0x91/0xe0
Apr 19 06:14:38 www kernel: [1023541.775687] [<ffffffff800da4a7>] vfs_read+0xc7/0x130
Apr 19 06:14:38 www kernel: [1023541.775692] [<ffffffff800da613>] sys_read+0x53/0xa0
Apr 19 06:14:38 www kernel: [1023541.775697] [<ffffffff80007458>] system_call_fastpath+0x16/0x1b
Apr 19 06:14:38 www kernel: [1023541.775719] [<00007fd548ab8f30>] 0x7fd548ab8f30
Apr 19 06:14:38 www kernel: [1023541.775721] Mem-Info:
Apr 19 06:14:38 www kernel: [1023541.775723] DMA per-cpu:
Apr 19 06:14:38 www kernel: [1023541.775725] CPU 0: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775727] CPU 1: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775729] CPU 2: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775732] CPU 3: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775734] CPU 4: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775736] CPU 5: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775738] CPU 6: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775740] CPU 7: hi: 0, btch: 1 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775741] DMA32 per-cpu:
Apr 19 06:14:38 www kernel: [1023541.775743] CPU 0: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775746] CPU 1: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775748] CPU 2: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775750] CPU 3: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775752] CPU 4: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775754] CPU 5: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775756] CPU 6: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775759] CPU 7: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775760] Normal per-cpu:
Apr 19 06:14:38 www kernel: [1023541.775762] CPU 0: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775764] CPU 1: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775766] CPU 2: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775769] CPU 3: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775771] CPU 4: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775773] CPU 5: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775775] CPU 6: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775777] CPU 7: hi: 155, btch: 38 usd: 0
Apr 19 06:14:38 www kernel: [1023541.775782] active_anon:170 inactive_anon:144 isolated_anon:0
Apr 19 06:14:38 www kernel: [1023541.775783] active_file:0 inactive_file:0 isolated_file:0
Apr 19 06:14:38 www kernel: [1023541.775785] unevictable:8 dirty:0 writeback:0 unstable:0
Apr 19 06:14:38 www kernel: [1023541.775786] free:86993 slab_reclaimable:137591 slab_unreclaimable:246910
Apr 19 06:14:38 www kernel: [1023541.775787] mapped:1081 shmem:40 pagetables:0 bounce:0
Apr 19 06:14:38 www kernel: [1023541.775794] DMA free:9284kB min:20kB low:24kB high:28kB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:16160kB mlocked:0kB dirty:0kB writeback:0kB mapped:0kB shmem:0kB slab_reclaimable:0kB slab_unreclaimable:0kB kernel_stack:0kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
Apr 19 06:14:38 www kernel: [1023541.775799] lowmem_reserve[]: 0 4024 7814 7814
Apr 19 06:14:38 www kernel: [1023541.775808] DMA32 free:331008kB min:5816kB low:7268kB high:8724kB active_anon:584kB inactive_anon:196kB active_file:0kB inactive_file:0kB unevictable:8kB isolated(anon):0kB isolated(file):0kB present:2051564kB mlocked:8kB dirty:0kB writeback:0kB mapped:4052kB shmem:152kB slab_reclaimable:451584kB slab_unreclaimable:840136kB kernel_stack:165648kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
Apr 19 06:14:38 www kernel: [1023541.775814] lowmem_reserve[]: 0 0 3790 3790
Apr 19 06:14:38 www kernel: [1023541.775822] Normal free:7680kB min:5480kB low:6848kB high:8220kB active_anon:96kB inactive_anon:380kB active_file:4kB inactive_file:0kB unevictable:24kB isolated(anon):0kB isolated(file):0kB present:232532kB mlocked:24kB dirty:0kB writeback:0kB mapped:272kB shmem:8kB slab_reclaimable:98780kB slab_unreclaimable:147504kB kernel_stack:5968kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
Apr 19 06:14:38 www kernel: [1023541.775828] lowmem_reserve[]: 0 0 0 0
Apr 19 06:14:38 www kernel: [1023541.775831] DMA: 1*4kB 2*8kB 1*16kB 1*32kB 2*64kB 1*128kB 1*256kB 1*512kB 0*1024kB 0*2048kB 2*4096kB = 9284kB
Apr 19 06:14:38 www kernel: [1023541.775840] DMA32: 82106*4kB 52*8kB 1*16kB 1*32kB 0*64kB 1*128kB 1*256kB 0*512kB 0*1024kB 1*2048kB 0*4096kB = 331320kB
Apr 19 06:14:38 www kernel: [1023541.775848] Normal: 1418*4kB 0*8kB 0*16kB 1*32kB 1*64kB 1*128kB 0*256kB 0*512kB 0*1024kB 1*2048kB 0*4096kB = 7944kB
Apr 19 06:14:38 www kernel: [1023541.775857] 347 total pagecache pages
Apr 19 06:14:38 www kernel: [1023541.775858] 237 pages in swap cache
Apr 19 06:14:38 www kernel: [1023541.775861] Swap cache stats: add 426982, delete 426745, find 694839/764209
Apr 19 06:14:38 www kernel: [1023541.775863] Free swap = 8146716kB
Apr 19 06:14:38 www kernel: [1023541.775864] Total swap = 8385920kB
Apr 19 06:14:38 www kernel: [1023541.794793] 2034471 pages RAM
Apr 19 06:14:38 www kernel: [1023541.794796] 1508794 pages reserved
Apr 19 06:14:38 www kernel: [1023541.794798] 4533 pages shared
Apr 19 06:14:38 www kernel: [1023541.794799] 393951 pages non-shared
Apr 19 06:14:38 www kernel: [1023541.794803] Out of memory: kill process 6521 (nonstop_linux_i) score 158548 or a child
Apr 19 06:14:38 www kernel: [1023541.794807] Killed process 6534 (java)
Apr 19 06:15:01 www kernel: [1022806.535576] cron invoked oom-killer: gfp_mask=0xd0, order=1, oom_adj=0
Apr 19 06:15:01 www kernel: [1022806.535582] cron cpuset=/ mems_allowed=0
Apr 19 06:15:01 www kernel: [1022806.535586] Pid: 7685, comm: cron Not tainted 2.6.32.12-0.7-xen #1
Apr 19 06:15:01 www kernel: [1022806.535589] Call Trace:
Apr 19 06:15:01 www kernel: [1022806.535609] [<ffffffff80009af5>] dump_trace+0x65/0x180и т.д. просто лог большой. Дальше все повторяется и убиваются процессы.
> Также, во время последнего зависания записался лог, что памяти не хватает и oom killer >начал убивать процессы, что и привело к краху системы, но пинги до этого сервера шли.Вот для начала и нужно определить что ест память....
Какой процесс? В какой системе - гостевой или хостовой?Какое распределение памяти между гостевыми и хостовой системами?
и ещё.....Что зависает? гостевая или хостовая машина?
Если выше приведён лог хостовой машины, и зависает именно она, то что делает на хостовой машине "левое ПО" типа java. Что из несистемных приложений на хосте установлено и крутится?На хосте нужно ставить самый минимум пакетов, и без графики.
> и ещё.....
> Что зависает? гостевая или хостовая машина?
> Если выше приведён лог хостовой машины, и зависает именно она, то что
> делает на хостовой машине "левое ПО" типа java. Что из несистемных
> приложений на хосте установлено и крутится?
> На хосте нужно ставить самый минимум пакетов, и без графики.java - это агент IBM Director. Без него тоже самое.
Валится хост-система.
По распределению памяти выглядит так:
# xm list
Name ID Mem VCPUs State Time(s)
Domain-0 0 2339 8 r----- 2203.5
hvm4 1 512 2 -b---- 2102.8
hvm3 2 512 2 -b---- 40.0
hvm2 3 512 2 -b---- 31.5
hvm1 4 4096 8 -b---- 11304.5
Грубо можно так процесс проблемный отследить.....Данный скрипт по крону каждую минуту запускать....
#############################################
#!/bin/bashTERM=xterm;export TERM;/usr/bin/top -n 1 >> /var/log/top.log 2>> /var/log/top.log
#############################################
Что показывает xm top ?
Памяти физической сколько?
> Что показывает xm top ?
> Памяти физической сколько?xentop - 17:13:13 Xen 4.0.0_21091_04-0.2
5 domains: 2 running, 3 blocked, 0 paused, 0 crashed, 0 dying, 0 shutdown
Mem: 8348132k total, 8327428k used, 20704k free CPUs: 8 @ 2000MHz
NAME STATE CPU(sec) CPU(%) MEM(k) MEM(%) MAXMEM(k) MAXMEM(%) VCPUS NETS NETTX(k) NETRX(k) VBDS VBD_OO VBD_RD VBD_WR VBD_RSECT VBD_WSE
CT SSID
Domain-0 -----r 2913 10.6 2395136 28.7 no limit n/a 8 0 0 0 0 0 0 0 0
0 0
HVM4 --b--- 2996 3.2 528352 6.3 528384 6.3 2 1 0 0 2 0 0 0 0
0 0
HVM3 --b--- 51 0.2 528352 6.3 528384 6.3 2 1 0 0 2 0 0 0 0
0 0
HVM2 --b--- 39 0.1 528352 6.3 528384 6.3 2 1 0 0 2 0 0 0 0
0 0
HVM1 -----r 15155 20.6 4198368 50.3 4198400 50.3 8 1 0 0 1 0 0 0 0
0 0
Физической памяти 8 Гб.
2 4х ядерных процессора.
Сервер IBM x3550 M2
Я на свои хост-машины выделяю памяти примерно от 600мб(на rhel5.0) до 1000мб(на rhel5.6_x86-64).А 2,4Гб это уже перебор....
Нужно ловить проблемный процесс....
> Я на свои хост-машины выделяю памяти примерно от 600мб(на rhel5.0) до 1000мб(на
> rhel5.6_x86-64).
> А 2,4Гб это уже перебор....
> Нужно ловить проблемный процесс....у меня не лимитировано. Может из-за этого так происходит?
вот мой конфиг menu.lst
title Xen -- SUSE Linux Enterprise Server 11 SP1 - 2.6.32.12-0.7
root (hd0,0)
kernel /xen.gz
module /vmlinuz-2.6.32.12-0.7-xen root=/dev/disk/by-id/scsi-3600605b00168b860148ccb8539994135-part2 resume=/dev/disk/by-id/scsi-3600605b00168b860148ccb8539994135-part4 splash=silent showopts
module /initrd-2.6.32.12-0.7-xen
> А лимит где устанавливается?
> у меня не лимитировано. Может из-за этого так происходит?Лимит ставится в /boot/grum/menu.lst
###############
title Red Hat Enterprise Linux Server (2.6.18-53.el5xen)
root (hd0,0)
kernel /boot/xen.gz-2.6.18-53.el5 dom0_mem=512M
module /boot/vmlinuz-2.6.18-53.el5xen ro root=LABEL=/
module /boot/initrd-2.6.18-53.el5xen.img
################Тем самым хост-система видит только выделенную ей память:
$top
top - 16:03:33 up 818 days, 4:58, 1 user, load average: 0.04, 0.04, 0.05
Tasks: 172 total, 1 running, 171 sleeping, 0 stopped, 0 zombie
Cpu0 : 0.0%us, 0.3%sy, 0.0%ni, 97.0%id, 2.3%wa, 0.0%hi, 0.0%si, 0.3%st
Cpu1 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu2 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu3 : 0.0%us, 0.3%sy, 0.0%ni, 99.7%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 524288k total, 518416k used, 5872k free, 91728k buffers
Swap: 1052248k total, 2196k used, 1050052k free, 58484k cached
И ещё, подкинь на всякий случай в хост систему своп на гигабайтик...
>> А лимит где устанавливается?
>> у меня не лимитировано. Может из-за этого так происходит?
> Лимит ставится в /boot/grum/menu.lstлимит поставлю 512М
> И ещё, подкинь на всякий случай в хост систему своп на гигабайтик...
вот мой топ сейчас. Своп стоит 8 гигов...
top - 18:20:57 up 8:41, 2 users, load average: 0.06, 0.03, 0.00
Tasks: 185 total, 1 running, 180 sleeping, 0 stopped, 4 zombie
Cpu(s): 0.0%us, 0.1%sy, 0.0%ni, 99.8%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 2395136k total, 2289476k used, 105660k free, 63492k buffers
Swap: 8385920k total, 0k used, 8385920k free, 1610220k cached
Еще вопросик: сколько памяти оперативной можно выделить гостевой системе? (границы от и до)
> Еще вопросик: сколько памяти оперативной можно выделить гостевой системе? (границы от и
> до)А это уже зависит от самой гостевой системы, т.е. какая ос, какой софт, какая нагрузка.
Например на моей вышеприведённой хост-системе памяти всего 8Гб (выставлял сервер давно).
Крутится 5 виртуальных машин с rhel в режиме паравиртуализации: 2 веб сервера с apache, 2 балансировщика нагрузки для разных кластеров, 1 система под базу с Oracle XE.# xm list
Name ID Mem(MiB) VCPUs State Time(s)
Domain-0 0 512 4 r----- 1327611.7
***db 33 999 2 -b---- 85139.5
***_g01 27 511 2 -b---- 157520.5
***_g03 29 1023 2 -b---- 117881.2
***web1 30 1499 2 r----- 935768.9
***web2 31 1499 2 -b---- 88922.3
#
> Грубо можно так процесс проблемный отследить.....
> Данный скрипт по крону каждую минуту запускать....
> #############################################
> #!/bin/bash
> TERM=xterm;export TERM;/usr/bin/top -n 1 >> /var/log/top.log 2>> /var/log/top.log
> #############################################сегодня опять сервер завис и начал работать oom_killer
начал смотреть лог top.log а там только такие записи:
top: failed tty get
top: failed tty get
top: failed tty get
>[оверквотинг удален]
>> Данный скрипт по крону каждую минуту запускать....
>> #############################################
>> #!/bin/bash
>> TERM=xterm;export TERM;/usr/bin/top -n 1 >> /var/log/top.log 2>> /var/log/top.log
>> #############################################
> сегодня опять сервер завис и начал работать oom_killer
> начал смотреть лог top.log а там только такие записи:
> top: failed tty get
> top: failed tty get
> top: failed tty getвсе, разобрался. сделал скрипт так:
/usr/bin/top -b -n 1 >> /var/log/top.log 2>> /var/log/top.logтаким образом выводится красиво в файл и по крону не выдает ошибок.
Сегодня утром сервер опять завис. Причем наглухо, даже не пинговался. В messages ничего не записалось. Вот последний запуск TOP'a по крону, может быть он поможет выявить причину?--- Wed May 4 06:38:01 KRAST 2011 ---
top - 06:38:02 up 11 days, 21:24, 2 users, load average: 0.18, 0.17, 0.11
Tasks: 187 total, 6 running, 177 sleeping, 0 stopped, 4 zombie
Cpu(s): 4.4%us, 26.0%sy, 0.0%ni, 66.2%id, 0.7%wa, 0.0%hi, 0.1%si, 2.6%st
Mem: 1034752k total, 1025124k used, 9628k free, 73836k buffers
Swap: 8586732k total, 258076k used, 8328656k free, 604228k cachedPID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
7982 root 20 0 124m 1136 936 R 96 0.1 16401:06 qemu-dm
7749 root 20 0 458m 11m 1336 S 8 1.2 1855:45 xend
7740 root 20 0 8688 1124 544 R 6 0.1 2326:19 xenstored
11668 root 20 0 586m 1392 968 S 4 0.1 110:46.74 qemu-dm
11903 root 20 0 590m 1812 968 S 4 0.2 177:46.67 qemu-dm
13 root 20 0 0 0 0 S 2 0.0 11:41.31 events/2
14 root 20 0 0 0 0 S 2 0.0 10:14.09 events/3
41 root 20 0 0 0 0 S 2 0.0 3:24.33 kswapd0
402 root 20 0 8764 1104 752 R 2 0.1 0:00.02 top
4468 root 20 0 555m 84m 4624 S 2 8.3 21:22.30 java
6862 root 39 19 0 0 0 S 2 0.0 88:42.79 kipmi0
8287 root 20 0 589m 1784 996 S 2 0.2 143:29.45 qemu-dm
8786 root 20 0 587m 1856 1012 S 2 0.2 150:29.53 qemu-dm
9812 root 20 0 571m 1496 968 S 2 0.1 291:30.92 qemu-dm
10831 root 20 0 1416m 1976 1116 R 2 0.2 147:06.78 qemu-dm
1 root 20 0 10376 568 540 S 0 0.1 0:16.37 init
2 root 20 0 0 0 0 S 0 0.0 0:00.00 kthreadd
3 root RT 0 0 0 0 S 0 0.0 0:03.90 migration/0
4 root 20 0 0 0 0 S 0 0.0 0:20.61 ksoftirqd/0
5 root RT 0 0 0 0 S 0 0.0 0:03.58 migration/1
6 root 20 0 0 0 0 S 0 0.0 0:04.58 ksoftirqd/1
7 root RT 0 0 0 0 S 0 0.0 0:03.52 migration/2
8 root 20 0 0 0 0 S 0 0.0 0:04.84 ksoftirqd/2
9 root RT 0 0 0 0 S 0 0.0 0:03.30 migration/3
10 root 20 0 0 0 0 S 0 0.0 0:17.95 ksoftirqd/3
11 root 20 0 0 0 0 S 0 0.0 14:31.45 events/0
12 root 20 0 0 0 0 S 0 0.0 13:23.28 events/1
15 root 20 0 0 0 0 S 0 0.0 0:00.00 cpuset
16 root 20 0 0 0 0 S 0 0.0 0:00.00 khelper
17 root 20 0 0 0 0 S 0 0.0 0:00.00 netns
18 root 20 0 0 0 0 S 0 0.0 0:00.00 async/mgr
19 root 20 0 0 0 0 S 0 0.0 0:00.00 pm
20 root 20 0 0 0 0 S 0 0.0 7:58.97 xenwatch
21 root 20 0 0 0 0 S 0 0.0 10:10.18 xenbus
22 root 20 0 0 0 0 S 0 0.0 0:02.79 sync_supers
23 root 20 0 0 0 0 S 0 0.0 0:05.90 bdi-default
24 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/0
25 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/1
26 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/2
27 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/3
28 root 20 0 0 0 0 S 0 0.0 0:12.79 kblockd/0
29 root 20 0 0 0 0 S 0 0.0 0:12.26 kblockd/1
30 root 20 0 0 0 0 S 0 0.0 0:11.34 kblockd/2
31 root 20 0 0 0 0 S 0 0.0 0:13.22 kblockd/3
32 root 20 0 0 0 0 S 0 0.0 0:00.00 kacpid
33 root 20 0 0 0 0 S 0 0.0 0:00.00 kacpi_notify
34 root 20 0 0 0 0 S 0 0.0 0:00.00 kacpi_hotplug
35 root 20 0 0 0 0 S 0 0.0 0:00.00 kseriod
40 root 20 0 0 0 0 S 0 0.0 0:00.00 khungtaskd
42 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/0
43 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/1
44 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/2
45 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/3
46 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/0
47 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/1
48 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/2
49 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/3
51 root 20 0 0 0 0 S 0 0.0 0:00.00 kpsmoused
101 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_0
102 root 20 0 0 0 0 S 0 0.0 0:00.04 aacraid
110 root 20 0 0 0 0 S 0 0.0 0:16.14 ata/0
111 root 20 0 0 0 0 S 0 0.0 0:05.92 ata/1
112 root 20 0 0 0 0 S 0 0.0 0:02.37 ata/2
113 root 20 0 0 0 0 S 0 0.0 0:02.39 ata/3
114 root 20 0 0 0 0 S 0 0.0 0:00.00 ata_aux
115 root 20 0 0 0 0 S 0 0.0 0:53.94 scsi_eh_1
116 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_2
126 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_3
127 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_4
128 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_5
129 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_6
195 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/0
196 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/1
197 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/2
198 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/3
318 root 20 0 0 0 0 S 0 0.0 0:00.00 ksuspend_usbd
359 root 20 0 0 0 0 S 0 0.0 0:00.00 khubd
399 root 20 0 48136 1148 836 S 0 0.1 0:00.00 cron
400 root 20 0 11152 1368 1128 S 0 0.1 0:00.00 check_top.sh
906 root 20 0 0 0 0 S 0 0.0 0:00.00 usbhid_resumer
940 root 20 0 0 0 0 S 0 0.0 0:47.91 kjournald
946 root 20 0 0 0 0 S 0 0.0 2:25.19 flush-8:0
1016 root 16 -4 16888 348 348 S 0 0.0 0:01.06 udevd
1641 root 20 0 0 0 0 S 0 0.0 0:00.00 mthca_catas
1906 root 20 0 0 0 0 S 0 0.0 0:00.00 ib_mad1
1907 root 20 0 0 0 0 S 0 0.0 0:00.00 ib_mad2
1945 root 20 0 0 0 0 S 0 0.0 0:00.00 kauditd
1960 root 20 0 0 0 0 S 0 0.0 0:00.00 kstriped
2217 root 20 0 0 0 0 S 0 0.0 0:29.65 kjournald
2218 root 20 0 0 0 0 S 0 0.0 7:05.64 kjournald
2219 root 20 0 0 0 0 S 0 0.0 0:00.00 kjournald
2220 root 20 0 0 0 0 S 0 0.0 1:45.09 kjournald
2561 nobody 20 0 25368 3336 1184 S 0 0.3 13:42.74 openvpn
2739 root 20 0 3852 464 464 S 0 0.0 0:00.00 acpid
2754 messageb 20 0 21388 840 608 S 0 0.1 0:03.76 dbus-daemon
2772 root 20 0 19156 828 648 S 0 0.1 0:07.27 syslog-ng
2775 root 20 0 4120 668 352 S 0 0.1 0:00.14 klogd
2823 haldaemo 20 0 33896 1856 1100 S 0 0.2 0:15.66 hald
2826 root 20 0 98564 1100 912 S 0 0.1 0:00.86 console-kit-dae
2827 root 20 0 17876 616 616 S 0 0.1 0:00.05 hald-runner
2921 root 20 0 34508 680 680 S 0 0.1 0:00.01 hald-addon-inpu
2941 root 20 0 34480 668 600 S 0 0.1 0:19.51 hald-addon-stor
2950 root 20 0 34480 664 600 S 0 0.1 1:05.30 hald-addon-stor
2952 haldaemo 20 0 36240 564 564 S 0 0.1 0:00.00 hald-addon-acpi
3035 root 20 0 45608 720 720 S 0 0.1 0:00.16 ssh
3298 root 20 0 82064 1356 1120 S 0 0.1 0:01.38 sshd
3339 root 20 0 13832 1180 1180 S 0 0.1 0:00.11 bash
3386 root 20 0 41448 992 992 S 0 0.1 0:00.49 mc
3388 root 20 0 12572 1172 1172 S 0 0.1 0:00.05 bash
4348 root 20 0 42456 468 424 S 0 0.0 0:02.26 cimlistener
4357 root 20 0 3920 1484 328 S 0 0.1 15:33.32 slp_srvreg
4412 root 20 0 18972 696 572 S 0 0.1 0:19.69 dirsnmpd
4464 root 20 0 10188 484 400 S 0 0.0 0:33.57 nonstop_linux_i
4627 root 16 -4 29352 512 484 S 0 0.0 0:00.68 auditd
4629 root 12 -8 14280 604 588 S 0 0.1 0:01.82 audispd
4681 root 20 0 240m 20m 3912 S 0 2.0 369:15.03 cimserver
4956 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
5158 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
5340 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
5520 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
6510 root 20 0 18752 392 332 S 0 0.0 0:01.81 rpcbind
6536 root 20 0 16284 564 444 S 0 0.1 0:04.10 tier1slp
7398 root 20 0 59960 448 448 S 0 0.0 0:00.04 sshd
7400 root 20 0 22512 396 396 S 0 0.0 0:00.00 vsftpd
7419 root 20 0 8968 512 380 S 0 0.0 5:01.93 irqbalance
7435 root 20 0 232m 936 684 S 0 0.1 0:23.08 nscd
7555 root 20 0 0 0 0 S 0 0.0 3:54.79 netback/0
7557 root 20 0 0 0 0 S 0 0.0 5:01.28 netback/1
7745 root 20 0 105m 984 632 S 0 0.1 0:00.00 xend
7747 root 20 0 22608 520 444 S 0 0.1 0:00.12 xenconsoled
7750 root 20 0 114m 564 540 S 0 0.1 1:08.42 blktapctrl
7872 root 20 0 101m 1416 1416 S 0 0.1 0:00.88 python
7912 root 20 0 245m 2092 1076 S 0 0.2 28:55.00 libvirtd
8140 root 0 -20 0 0 0 S 0 0.0 0:21.15 loop0
8189 root 0 -20 0 0 0 S 0 0.0 4:18.64 loop1
8225 root 0 -20 0 0 0 S 0 0.0 0:17.41 loop2
8423 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop3
8459 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop4
8770 root 20 0 0 0 0 S 0 0.0 0:38.81 blkback.1.hda
8772 root 20 0 0 0 0 S 0 0.0 0:10.71 blkback.1.hdc
8773 root 20 0 0 0 0 S 0 0.0 0:12.40 blkback.1.hdd
8919 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop6
8952 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop7
9595 root 20 0 1066m 1564 1032 R 0 0.2 282:51.46 qemu-dm
9682 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop11
9896 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop12
10024 root 20 0 322m 1400 944 S 0 0.1 96:15.84 qemu-dm
10126 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop13
10281 root 20 0 477m 1316 952 S 0 0.1 96:20.36 qemu-dm
10354 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop14
10511 root 20 0 149m 972 828 S 0 0.1 83:42.21 qemu-dm
10600 root 0 -20 0 0 0 S 0 0.0 0:23.93 loop15
10724 root 0 -20 0 0 0 S 0 0.0 0:00.04 loop16
10736 root 20 0 0 0 0 S 0 0.0 0:04.21 blkback.10.xvda
10737 root 20 0 0 0 0 S 0 0.0 0:00.00 blkback.10.xvdb
10884 root 20 0 586m 1736 952 R 0 0.2 99:01.60 qemu-dm
10888 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop18
10988 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop17
11364 root 20 0 195m 1308 956 S 0 0.1 109:19.21 qemu-dm
11507 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop19
11755 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop20
12005 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop21
12078 root 20 0 37964 812 708 S 0 0.1 0:06.62 master
12104 postfix 20 0 39968 1004 852 S 0 0.1 0:01.12 qmgr
12175 root 20 0 4344 532 532 S 0 0.1 0:00.41 mingetty
12176 root 20 0 4344 532 532 S 0 0.1 0:00.44 mingetty
12177 root 20 0 4344 532 532 S 0 0.1 0:00.36 mingetty
12178 root 20 0 4344 532 532 S 0 0.1 0:00.30 mingetty
12179 root 20 0 4344 532 532 S 0 0.1 0:00.39 mingetty
12180 root 20 0 4344 532 532 S 0 0.1 0:00.29 mingetty
15406 root 20 0 14636 476 412 S 0 0.0 0:16.59 cron
15925 root 20 0 45608 940 812 S 0 0.1 11:19.48 ssh
16547 root 20 0 82220 1360 1060 S 0 0.1 51:30.18 sshd
16580 root 20 0 13832 1176 1176 S 0 0.1 0:00.12 bash
16656 root 20 0 22264 376 376 S 0 0.0 0:00.00 dbus-launch
16657 root 20 0 13172 316 316 S 0 0.0 0:00.02 dbus-daemon
16659 root 20 0 38100 1328 1120 S 0 0.1 0:02.92 gconfd-2
16660 root 20 0 578m 24m 4260 S 0 2.4 1152:52 python
16899 root 20 0 203m 2544 2544 S 0 0.2 0:00.61 notification-da
16944 root 20 0 42300 944 944 S 0 0.1 0:00.01 gvfsd
16952 root 20 0 75476 868 868 S 0 0.1 0:00.01 gvfs-fuse-daemo
17565 postfix 20 0 39816 2244 1732 S 0 0.2 0:00.02 pickup
18671 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop22
18696 root 20 0 348m 1504 1084 S 0 0.1 69:15.46 qemu-dm
18784 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop23
28102 root 20 0 2986m 1992 1152 S 0 0.2 70:33.11 qemu-dm
28121 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop5
Вчера вечером сервер опять так же повис и не отвечал... Прикладываю ТОР последний по запуску крона:--- Wed May 4 22:59:03 KRAST 2011 ---
top - 22:59:04 up 13:48, 2 users, load average: 9.68, 7.88, 6.91
Tasks: 184 total, 8 running, 171 sleeping, 0 stopped, 5 zombie
Cpu(s): 0.7%us, 22.7%sy, 0.0%ni, 70.5%id, 2.9%wa, 0.0%hi, 0.0%si, 3.2%st
Mem: 1034752k total, 808584k used, 226168k free, 1220k buffers
Swap: 8586732k total, 247804k used, 8338928k free, 160104k cachedPID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
10964 root 20 0 0 0 0 R 98 0.0 130:05.31 sh
7996 root 20 0 126m 376 176 R 93 0.0 702:30.51 qemu-dm
16064 root 20 0 8764 1096 752 R 3 0.1 0:00.03 top
41 root 20 0 0 0 0 D 2 0.0 0:13.55 kswapd0
4677 root 20 0 235m 1032 296 S 2 0.1 17:53.06 cimserver
6899 root 39 19 0 0 0 S 2 0.0 3:48.20 kipmi0
8329 root 20 0 569m 572 308 R 2 0.1 6:55.46 qemu-dm
8605 root 20 0 1198m 440 220 S 2 0.0 5:19.08 qemu-dm
9647 root 20 0 906m 656 356 S 2 0.1 15:07.92 qemu-dm
10071 root 20 0 305m 400 224 S 2 0.0 4:39.54 qemu-dm
10562 root 20 0 87596 264 152 S 2 0.0 2:50.86 qemu-dm
10982 root 20 0 192m 392 220 S 2 0.0 4:48.59 qemu-dm
12058 root 20 0 420m 456 236 S 2 0.0 4:54.82 qemu-dm
1 root 20 0 10376 80 64 S 0 0.0 0:01.20 init
2 root 20 0 0 0 0 S 0 0.0 0:00.00 kthreadd
3 root RT 0 0 0 0 R 0 0.0 0:00.29 migration/0
4 root 20 0 0 0 0 S 0 0.0 0:01.77 ksoftirqd/0
5 root RT 0 0 0 0 S 0 0.0 0:00.37 migration/1
6 root 20 0 0 0 0 S 0 0.0 0:00.11 ksoftirqd/1
7 root RT 0 0 0 0 S 0 0.0 0:00.47 migration/2
8 root 20 0 0 0 0 S 0 0.0 0:00.18 ksoftirqd/2
9 root RT 0 0 0 0 S 0 0.0 0:00.20 migration/3
10 root 20 0 0 0 0 S 0 0.0 0:00.02 ksoftirqd/3
11 root 20 0 0 0 0 R 0 0.0 0:10.23 events/0
12 root 20 0 0 0 0 S 0 0.0 0:12.10 events/1
13 root 20 0 0 0 0 S 0 0.0 0:12.39 events/2
14 root 20 0 0 0 0 S 0 0.0 0:19.23 events/3
15 root 20 0 0 0 0 S 0 0.0 0:00.00 cpuset
16 root 20 0 0 0 0 S 0 0.0 0:00.00 khelper
17 root 20 0 0 0 0 S 0 0.0 0:00.01 netns
18 root 20 0 0 0 0 S 0 0.0 0:00.00 async/mgr
19 root 20 0 0 0 0 S 0 0.0 0:00.00 pm
20 root 20 0 0 0 0 S 0 0.0 0:00.17 xenwatch
21 root 20 0 0 0 0 S 0 0.0 0:00.25 xenbus
22 root 20 0 0 0 0 S 0 0.0 0:00.11 sync_supers
23 root 20 0 0 0 0 S 0 0.0 0:00.25 bdi-default
24 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/0
25 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/1
26 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/2
27 root 20 0 0 0 0 S 0 0.0 0:00.00 kintegrityd/3
28 root 20 0 0 0 0 R 0 0.0 0:00.36 kblockd/0
29 root 20 0 0 0 0 S 0 0.0 0:00.36 kblockd/1
30 root 20 0 0 0 0 S 0 0.0 0:00.53 kblockd/2
31 root 20 0 0 0 0 S 0 0.0 0:00.19 kblockd/3
32 root 20 0 0 0 0 S 0 0.0 0:00.00 kacpid
33 root 20 0 0 0 0 S 0 0.0 0:00.00 kacpi_notify
34 root 20 0 0 0 0 S 0 0.0 0:00.00 kacpi_hotplug
35 root 20 0 0 0 0 S 0 0.0 0:00.00 kseriod
40 root 20 0 0 0 0 S 0 0.0 0:00.00 khungtaskd
42 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/0
43 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/1
44 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/2
45 root 20 0 0 0 0 S 0 0.0 0:00.00 aio/3
46 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/0
47 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/1
48 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/2
49 root 20 0 0 0 0 S 0 0.0 0:00.00 crypto/3
51 root 20 0 0 0 0 S 0 0.0 0:00.00 kpsmoused
101 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_0
102 root 20 0 0 0 0 S 0 0.0 0:00.00 aacraid
110 root 20 0 0 0 0 S 0 0.0 0:00.50 ata/0
111 root 20 0 0 0 0 S 0 0.0 0:00.61 ata/1
112 root 20 0 0 0 0 S 0 0.0 0:00.09 ata/2
113 root 20 0 0 0 0 S 0 0.0 0:00.01 ata/3
114 root 20 0 0 0 0 S 0 0.0 0:00.00 ata_aux
115 root 20 0 0 0 0 S 0 0.0 0:02.51 scsi_eh_1
116 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_2
126 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_3
127 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_4
128 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_5
129 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_6
195 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/0
196 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/1
197 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/2
198 root 20 0 0 0 0 S 0 0.0 0:00.00 net_accel/3
316 root 20 0 0 0 0 S 0 0.0 0:00.16 ksuspend_usbd
354 root 20 0 0 0 0 D 0 0.0 0:02.71 khubd
885 root 20 0 0 0 0 S 0 0.0 0:00.00 usbhid_resumer
952 root 20 0 0 0 0 S 0 0.0 0:02.18 kjournald
960 root 20 0 0 0 0 S 0 0.0 0:03.26 flush-8:0
1030 root 16 -4 16888 48 48 S 0 0.0 0:11.55 udevd
1675 root 20 0 0 0 0 S 0 0.0 0:00.00 mthca_catas
1881 root 20 0 0 0 0 S 0 0.0 0:00.00 ib_mad1
1882 root 20 0 0 0 0 S 0 0.0 0:00.00 ib_mad2
1919 root 20 0 0 0 0 S 0 0.0 0:00.00 kauditd
1934 root 20 0 0 0 0 S 0 0.0 0:00.00 kstriped
2237 root 20 0 0 0 0 S 0 0.0 0:00.00 kjournald
2238 root 20 0 0 0 0 S 0 0.0 0:31.76 kjournald
2239 root 20 0 0 0 0 S 0 0.0 0:00.00 kjournald
2240 root 20 0 0 0 0 S 0 0.0 0:00.92 kjournald
2759 root 20 0 3852 56 56 S 0 0.0 0:00.00 acpid
2774 messageb 20 0 21272 56 56 S 0 0.0 0:06.94 dbus-daemon
2792 root 20 0 19156 184 128 S 0 0.0 0:01.70 syslog-ng
2795 root 20 0 4120 48 48 S 0 0.0 0:01.05 klogd
2843 haldaemo 20 0 33944 60 60 S 0 0.0 0:14.96 hald
2846 root 20 0 98564 80 80 S 0 0.0 0:00.05 console-kit-dae
2909 root 20 0 17876 60 60 S 0 0.0 0:02.67 hald-runner
2941 root 20 0 34480 56 56 S 0 0.0 0:00.00 hald-addon-inpu
2951 haldaemo 20 0 36240 60 60 S 0 0.0 0:00.00 hald-addon-acpi
2953 root 20 0 34480 156 92 S 0 0.0 0:01.74 hald-addon-stor
2968 root 20 0 34480 60 60 S 0 0.0 0:03.85 hald-addon-stor
4352 root 20 0 41432 44 44 S 0 0.0 0:00.16 cimlistener
4361 root 20 0 2348 100 52 S 0 0.0 0:36.93 slp_srvreg
4408 root 20 0 18972 212 88 S 0 0.0 0:01.19 dirsnmpd
4468 root 20 0 10188 48 48 S 0 0.0 0:01.63 nonstop_linux_i
4472 root 20 0 504m 1292 284 S 0 0.1 1:45.26 java
4621 root 16 -4 29352 80 80 S 0 0.0 0:00.05 auditd
4623 root 12 -8 14280 76 76 S 0 0.0 0:00.09 audispd
4960 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
5162 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
5344 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
5524 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
6545 root 20 0 18752 60 60 S 0 0.0 0:00.16 rpcbind
6571 root 20 0 16284 16 16 S 0 0.0 0:00.16 tier1slp
7435 root 20 0 59960 52 52 S 0 0.0 0:00.00 sshd
7436 root 20 0 22512 60 60 S 0 0.0 0:00.00 vsftpd
7454 root 20 0 8968 208 120 S 0 0.0 0:14.22 irqbalance
7469 root 20 0 168m 188 140 S 0 0.0 0:01.97 nscd
7498 nobody 20 0 25264 152 68 S 0 0.0 0:02.37 openvpn
7549 root 20 0 0 0 0 S 0 0.0 0:12.00 netback/0
7551 root 20 0 0 0 0 S 0 0.0 0:15.02 netback/1
7695 root 20 0 8628 80 80 S 0 0.0 0:11.26 xenstored
7700 root 20 0 105m 60 60 S 0 0.0 0:00.00 xend
7701 root 20 0 374m 108 96 S 0 0.0 4:14.12 xend
7706 root 20 0 22608 100 96 S 0 0.0 0:00.03 xenconsoled
7709 root 20 0 114m 144 120 S 0 0.0 0:03.09 blktapctrl
7855 root 20 0 101m 84 84 S 0 0.0 0:14.54 python
7890 root 20 0 148m 80 80 S 0 0.0 0:02.82 libvirtd
8130 root 0 -20 0 0 0 S 0 0.0 0:00.92 loop0
8200 root 0 -20 0 0 0 S 0 0.0 0:20.91 loop1
8232 root 0 -20 0 0 0 S 0 0.0 0:00.77 loop2
8435 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop3
8473 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop4
8687 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop5
8813 root 20 0 478m 476 240 R 0 0.0 7:05.75 qemu-dm
8941 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop6
8980 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop7
8993 root 20 0 0 0 0 S 0 0.0 0:04.24 blkback.1.hda
8994 root 20 0 0 0 0 S 0 0.0 0:00.46 blkback.1.hdc
8995 root 20 0 0 0 0 S 0 0.0 0:00.54 blkback.1.hdd
9203 root 0 -20 0 0 0 S 0 0.0 0:19.48 loop8
9239 root 20 0 87592 252 152 S 0 0.0 2:49.95 qemu-dm
9381 root 0 -20 0 0 0 S 0 0.0 0:00.81 loop9
9463 root 0 -20 0 0 0 S 0 0.0 0:01.04 loop10
9475 root 20 0 0 0 0 S 0 0.0 0:03.73 blkback.5.xvda
9476 root 20 0 0 0 0 S 0 0.0 0:00.51 blkback.5.xvdb
9478 root 20 0 0 0 0 S 0 0.0 0:00.72 blkback.5.hdd
9715 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop11
9842 root 20 0 538m 492 248 S 0 0.0 9:31.19 qemu-dm
9936 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop12
10174 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop13
10346 root 20 0 297m 400 224 S 0 0.0 4:47.51 qemu-dm
10410 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop14
10794 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop15
10820 root 0 -20 0 0 0 S 0 0.0 0:04.08 loop16
10832 root 20 0 0 0 0 S 0 0.0 0:00.82 blkback.10.xvda
10833 root 20 0 0 0 0 S 0 0.0 0:00.00 blkback.10.xvdb
10959 root 20 0 0 0 0 Z 0 0.0 0:00.00 sh <defunct>
11075 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop17
11233 root 20 0 1020m 908 340 S 0 0.1 30:05.87 qemu-dm
11339 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop18
11521 root 20 0 151m 420 248 S 0 0.0 5:14.95 qemu-dm
11627 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop19
11818 root 20 0 252m 460 232 S 0 0.0 5:17.42 qemu-dm
11906 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop20
12160 root 0 -20 0 0 0 S 0 0.0 0:00.00 loop21
12246 root 20 0 37964 80 80 S 0 0.0 0:00.36 master
12277 postfix 20 0 39968 76 76 S 0 0.0 0:00.07 qmgr
12303 root 20 0 14636 112 64 S 0 0.0 0:00.92 cron
12329 root 20 0 4344 60 60 S 0 0.0 0:00.22 mingetty
12330 root 20 0 4344 60 60 S 0 0.0 0:00.22 mingetty
12331 root 20 0 4344 60 60 S 0 0.0 0:00.22 mingetty
12332 root 20 0 4344 60 60 S 0 0.0 0:00.25 mingetty
12333 root 20 0 4344 60 60 S 0 0.0 0:00.24 mingetty
12334 root 20 0 4344 60 60 S 0 0.0 0:00.18 mingetty
14071 root 20 0 82064 76 76 S 0 0.0 0:01.65 sshd
14075 root 20 0 13832 60 60 S 0 0.0 0:00.12 bash
14111 root 20 0 41564 76 76 S 0 0.0 0:02.21 mc
14113 root 20 0 12572 60 60 S 0 0.0 0:00.07 bash
15180 postfix 20 0 39816 80 80 S 0 0.0 0:00.04 pickup
15205 root 20 0 82224 76 76 S 0 0.0 0:00.52 sshd
15208 root 20 0 45288 76 76 S 0 0.0 0:00.16 sftp-server
16061 root 20 0 48136 516 216 S 0 0.0 0:00.02 cron
16062 root 20 0 11152 564 328 S 0 0.1 0:00.02 check_top.sh
Кто-нибудь сталкивался с таким? почему просто так сервер зависает и даже в лог ничего не пишет :(
патчи все последние стоят?
> патчи все последние стоят?не уверен. Система стоит полностью из коробки Suse Linux Enterprise Server 11 sp 1.
Какие пачти необходимо ставить?
>> патчи все последние стоят?
> не уверен. Система стоит полностью из коробки Suse Linux Enterprise Server 11
> sp 1.
> Какие пачти необходимо ставить?желательно все доступные на момент установки, иначе всё что относится к ядру и xen.
>>> патчи все последние стоят?
>> не уверен. Система стоит полностью из коробки Suse Linux Enterprise Server 11
>> sp 1.
>> Какие пачти необходимо ставить?
> желательно все доступные на момент установки, иначе всё что относится к ядру
> и xen.проблема в том, что Новелл закрыли бесплатный доступ к патчам, поэтому нет возможности обновить систему. Буду пробовать ставить OpenSuse 11.4. Может на нем будет стабильно работать.
>>>> патчи все последние стоят?
>>> не уверен. Система стоит полностью из коробки Suse Linux Enterprise Server 11
>>> sp 1.
>>> Какие пачти необходимо ставить?
>> желательно все доступные на момент установки, иначе всё что относится к ядру
>> и xen.
> проблема в том, что Новелл закрыли бесплатный доступ к патчам, поэтому нет
> возможности обновить систему. Буду пробовать ставить OpenSuse 11.4. Может на нем
> будет стабильно работать.зарегестрируй почтовый ящик, получи 60-ти дневную бесплатную подписку на патчи, как надумаешь опять ставить патчи можно повторить процедуру.
Решилось как нибудь? Такая же фигня безо всяких хенов :(
> Решилось как нибудь? Такая же фигня безо всяких хенов :(Нет, так и не решилось. Возможно эта проблема из-за железа, т.к. на сайте IBM я вычитал Сritical Upgrade Firmware из-за проблем в подсистеме ввода-вывода. Проверить это нет возможности, т.к. сервер стоит в другом городе...