URL: https://www.opennet.me/cgi-bin/openforum/vsluhboard.cgi
Форум: vsluhforumID1
Нить номер: 67630
[ Назад ]

Исходное сообщение
"solaris 10 grow /tmp size"

Отправлено taphy , 17-Июл-06 19:09 
Доброго времени. Помогите, плиз, надо срочно увеличить размер /tmp на solaris 10 за счет чего-нибудь . Беда в том, что размечен весь диск...
Как можно подвигать разделы в такой ситуации, не убив данные?

bash-3.00# df -k
Filesystem            kbytes    used   avail capacity  Mounted on
/dev/dsk/c1t0d0s0    5285982 2313964 2919159    45%    /
/devices                   0       0       0     0%    /devices
ctfs                       0       0       0     0%    /system/contract
proc                       0       0       0     0%    /proc
mnttab                     0       0       0     0%    /etc/mnttab
swap                  717520     776  716744     1%    /etc/svc/volatile
objfs                      0       0       0     0%    /system/object
/platform/SUNW,Sun-Fire-T200/lib/libc_psr/libc_psr_hwcap1.so.1  5285982 2313964 2919159    45%    /platform/sun4v/lib/libc_psr.so.1
/platform/SUNW,Sun-Fire-T200/lib/sparcv9/libc_psr/libc_psr_hwcap1.so.1  5285982 2313964 2919159    45%    /platform/sun4v/lib/sparcv9/libc_psr.so.1
fd                         0       0       0     0%    /dev/fd
swap                  793344   76600  716744    10%    /tmp
swap                  716784      40  716744     1%    /var/run
/dev/dsk/c1t0d0s7    64781411 10086801 54046796    16%    /export/home



Содержание

Сообщения в этом обсуждении
"solaris 10 grow /tmp size"
Отправлено ALEXIS , 17-Июл-06 23:53 
Ну насчет неубив данные я сомневаюсь. Реальнее кажется через ufsdump / ufsrestore в init S
Т.е. временно куда-то  (типа ленты, другого диска, nfs шары) залить /export/home далее переразметить диск и вернуть данные наместо.



"fsgrow"
Отправлено sunman , 18-Июл-06 08:53 
>Доброго времени. Помогите, плиз, надо срочно увеличить размер /tmp на solaris 10
>за счет чего-нибудь . Беда в том, что размечен весь диск...
>
>Как можно подвигать разделы в такой ситуации, не убив данные?
>

Можно воткнуть второй диск, разбить, и за счет него нарастить раздел.(fsgrow)
Данные при этом не потеряются, но при этой операции /tmp придется размонтировать.

Еще вариант - сделать snapshot нужных разделов, забекапить их. Переразбить диск и восстановить данные с бэкапа.


"solaris 10 grow /tmp size"
Отправлено Serge , 18-Июл-06 10:32 
Добрый день!

В соляре /tmp это виртуальная файловая система (даже не ufs !!!) и размер ее зивисит от размера свапа.
Рекомендую почитать сановский документ Devices and File System на docs.sun.com

Кусок этой доки по /tmp  :

Temporary File System
The temporary file system (TMPFS) uses local memory for file system reads and
writes. Typically, using memory for file system reads and writes is much faster than
using a UFS file system. Using TMPFS can improve system performance by saving the
cost of reading and writing temporary files to a local disk or across the network. For
example, temporary files are created when you compile a program. The OS generates
a much disk activity or network activity while manipulating these files. Using TMPFS
to hold these temporary files can significantly speed up their creation, manipulation,
and deletion.
Files in TMPFS file systems are not permanent. These files are deleted when the file
system is unmounted and when the system is shut down or rebooted.
TMPFS is the default file system type for the /tmp directory in the Solaris OS. You can
copy or move files into or out of the /tmp directory, just as you would in a UFS file
system.
The TMPFS file system uses swap space as a temporary backing store. If a system with
a TMPFS file system does not have adequate swap space, two problems can occur:
 The TMPFS file system can run out of space, just as regular file systems do.
 Because TMPFS allocates swap space to save file data (if necessary), some
programs might not execute because of insufficient swap space.
For information about creating TMPFS file systems, see Chapter 18. For information
about increasing swap space, see Chapter 21.