корневая ФС стоит у меня UFS
из слайсов выделены c3d0s0 и c3d0s7 (/export/home)когда на слайсе 5-ом разворачиваю новый пул ZFS , он у меня создается также и на остальных слайсах, т.е. (6,7,8)
zpool create zmilit c3d0s5
zpool list показывает только пул zmilit (который размещен на 5-ом слайсе)Но когда делаю format, она мне сообщает, что 6-7-8 слайсы также являются активными членами пула. Ведь я же на них не создавал ZFS. Как такое может быть ?
> корневая ФС стоит у меня UFS
> из слайсов выделены c3d0s0 и c3d0s7 (/export/home)
> когда на слайсе 5-ом разворачиваю новый пул ZFS , он у меня
> создается также и на остальных слайсах, т.е. (6,7,8)
> zpool create zmilit c3d0s5
> zpool list показывает только пул zmilit (который размещен на 5-ом слайсе)
> Но когда делаю format, она мне сообщает, что 6-7-8 слайсы также являются
> активными членами пула. Ведь я же на них не создавал ZFS.
> Как такое может быть ?Покажи дисковую геометрию и таблицу разбиения....
P.S. prtvtoc
> Покажи дисковую геометрию и таблицу разбиения....
> P.S. prtvtoc* /dev/rdsk/c3d0s0 partition map
*
* Dimensions:
* 512 bytes/sector
* 32 sectors/track
* 128 tracks/cylinder
* 4096 sectors/cylinder
* 2461 cylinders
* 2459 accessible cylinders
*
* Flags:
* 1: unmountable
* 10: read-only
*
* Unallocated space:
* First Sector Last
* Sector Count Sector
* 0 1052672 1052671
*
* First Sector Last
* Partition Tag Flags Sector Count Sector Mount Directory
0 2 00 1052672 9019392 10072063
1 3 01 4096 1048576 1052671
2 5 01 0 10072064 10072063
3 0 00 0 4194304 4194303
5 0 00 0 2097152 2097151
8 1 01 0 4096 4095Ситуация немного изменилась. сейчас переселился на виртуалку (Opensolaris, корневая ФС - ZFS). Но суть таже:
bnuran@nix:~# df -h
Filesystem size used avail capacity Mounted on
rpool/ROOT/opensolaris
4.2G 2.3G 1.8G 56% /
/devices 0K 0K 0K 0% /devices
/dev 0K 0K 0K 0% /dev
ctfs 0K 0K 0K 0% /system/contract
proc 0K 0K 0K 0% /proc
mnttab 0K 0K 0K 0% /etc/mnttab
swap 514M 320K 513M 1% /etc/svc/volatile
objfs 0K 0K 0K 0% /system/object
sharefs 0K 0K 0K 0% /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap3.so.1
4.1G 2.3G 1.8G 56% /lib/libc.so.1
fd 0K 0K 0K 0% /dev/fd
swap 513M 16K 513M 1% /tmp
swap 514M 44K 513M 1% /var/run
rpool/export 4.2G 19K 1.8G 1% /export
rpool/export/home 4.2G 34K 1.8G 1% /export/home
rpool/export/home/bnuran
4.2G 19M 1.8G 2% /export/home/bnuran
rpool 4.2G 72K 1.8G 1% /rpool
/dev/dsk/c4t0d0s2 32M 32M 0K 100% /media/VBOXADDITIONS_3.2.6_63112
testG 984M 18K 984M 1% /testG
bnuran@nix:~#
bnuran@nix:~# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c3d0 <DEFAULT cyl 2459 alt 2 hd 128 sec 32>
/pci@0,0/pci-ide@1,1/ide@0/cmdk@0,0
Specify disk (enter its number): 0
selecting c3d0
NO Alt slice
No defect list found
[disk formatted, no defect list found]
/dev/dsk/c3d0s0 is part of active ZFS pool rpool. Please see zpool(1M).
/dev/dsk/c3d0s1 is currently used by swap. Please see swap(1M).
/dev/dsk/c3d0s2 is part of active ZFS pool testG. Please see zpool(1M).
/dev/dsk/c3d0s3 is part of active ZFS pool testG. Please see zpool(1M).
/dev/dsk/c3d0s5 is part of active ZFS pool testG. Please see zpool(1M).
/dev/dsk/c3d0s8 is part of active ZFS pool testG. Please see zpool(1M).
FORMAT MENU:
disk - select a disk
type - select (define) a disk type
partition - select (define) a partition table
current - describe the current disk
format - format and analyze the disk
fdisk - run the fdisk program
repair - repair a defective sector
show - translate a disk address
label - write label to the disk
analyze - surface analysis
defect - defect list management
backup - search for backup labels
verify - read and display labels
save - save new disk/partition definitions
volname - set 8-character volume name
!<cmd> - execute <cmd>, then return
quit
format> par
PARTITION MENU:
0 - change `0' partition
1 - change `1' partition
2 - change `2' partition
3 - change `3' partition
4 - change `4' partition
5 - change `5' partition
6 - change `6' partition
7 - change `7' partition
select - select a predefined table
modify - modify a predefined partition table
name - name the current table
print - display the current table
label - write partition map and label to the disk
!<cmd> - execute <cmd>, then return
quit
partition> pri
Current partition table (original):
Total disk cylinders available: 2459 + 2 (reserved cylinders)Part Tag Flag Cylinders Size Blocks
0 root wm 257 - 2458 4.30GB (2202/0/0) 9019392
1 swap wu 1 - 256 512.00MB (256/0/0) 1048576
2 backup wu 0 - 2458 4.80GB (2459/0/0) 10072064
3 unassigned wm 0 - 1023 2.00GB (1024/0/0) 4194304
4 unassigned wm 0 0 (0/0/0) 0
5 unassigned wm 0 - 511 1024.00MB (512/0/0) 2097152
6 unassigned wm 0 0 (0/0/0) 0
7 unassigned wm 0 0 (0/0/0) 0
8 boot wu 0 - 0 2.00MB (1/0/0) 4096
9 unassigned wm 0 0 (0/0/0) 0partition>
bnuran@nix:~# zpool create -f tank c3d0s3
invalid vdev specification
the following errors must be manually repaired:
/dev/dsk/c3d0s3 is part of active ZFS pool testG. Please see zpool(1M).
bnuran@nix:~#
>[оверквотинг удален]
> 0 root wm 257 - 2458 4.30GB (2202/0/0) 9019392
> 1 swap wu 1 - 256 512.00MB (256/0/0) 1048576
> 2 backup wu 0 - 2458 4.80GB (2459/0/0) 10072064
> 3 unassigned wm 0 - 1023 2.00GB (1024/0/0) 4194304
> 4 unassigned wm 0 0 (0/0/0) 0
> 5 unassigned wm 0 - 511 1024.00MB (512/0/0) 2097152
> 6 unassigned wm 0 0 (0/0/0) 0
> 7 unassigned wm 0 0 (0/0/0) 0
> 8 boot wu 0 - 0 2.00MB (1/0/0) 4096
> 9 unassigned wm 0 0 (0/0/0) 0Ну вот и ответ...
Слайсы 3, 5 и 8 пересекаются...(т.е. на hdd есть блоки, которые принадлежат сразу трём слайсам)
И если создавать zfs пул на 3 слайсе, он будет создаваться и на 5, а на 8.
Т.е. 5 и 8 слайсы надо обнулить..