?

Log in

entries friends calendar profile Мой сайт Previous Previous Next Next
zfs upgrade - Opensolaris
epiq
ru_opensolaris
epiq
zfs upgrade
Правда ли, что в текущей версии zfs нельзя добавить к уже существующему пулу raidz ещё один диск, для увеличения его объёма ? Если это возможно, то как ?

Метки:

14 комментариев or Оставить комментарий
Comments
xelios From: xelios Date: Август, 29, 2008 03:41 (UTC) (Ссылка)

zfs add mypool c1d1

Неправда. Это как раз то, ради чего сделали zfs
# zfs add mypool c1d1

xelios From: xelios Date: Август, 29, 2008 03:43 (UTC) (Ссылка)

Re: zfs add mypool c1d1

А впрочем чё-то я гоню. Народ в инете пишет, что нельзя, а проверитьих мне не на чем. Посмотри, что эта команда пишет в ответ.
epiq From: epiq Date: Август, 29, 2008 13:44 (UTC) (Ссылка)

Re: zfs add mypool c1d1

как раз пишет что нельзя. сюда написал чтобы понять причины и что собственно с этим делать.
ilyxascrat From: ilyxascrat Date: Сентябрь, 1, 2008 06:59 (UTC) (Ссылка)

Re: zfs add mypool c1d1

Вы пул наращиваете vdev'ами , отсюда и следствия .
epiq From: epiq Date: Сентябрь, 2, 2008 11:01 (UTC) (Ссылка)

Re: zfs add mypool c1d1

а какие альтернативы?
ilyxascrat From: ilyxascrat Date: Сентябрь, 2, 2008 11:41 (UTC) (Ссылка)

Re: zfs add mypool c1d1

Делать по мануалу ... Какие альтернативы . наращивать по три в raidz , по 4 в raidz2 , по 2 в mirror ...
epiq From: epiq Date: Сентябрь, 2, 2008 12:58 (UTC) (Ссылка)

Re: zfs add mypool c1d1

Понятно .
не очень бюджетно правда , но так наверное надёжнее ;)
ilyxascrat From: ilyxascrat Date: Сентябрь, 2, 2008 13:00 (UTC) (Ссылка)

Re: zfs add mypool c1d1

Зато КАЧЕСТВЕННО ! :)
epiq From: epiq Date: Сентябрь, 3, 2008 23:13 (UTC) (Ссылка)

Re: zfs add mypool c1d1

добавил вот так:
-bash-3.2# zpool add -f tagra raidz2 c4t0d0 c7d1 c8d0
сам пул увиличился:
# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
---------- ----- ----- ----- ----- ----- -----
tagra 35.4G 2.00T 0 33 45 3.61M
raidz2 35.4G 1.13T 0 33 45 3.61M
c5d0 - - 0 17 347 1.81M
c5d1 - - 0 17 360 1.81M
c6d0 - - 0 17 402 1.81M
c7d0 - - 0 17 386 1.80M
raidz2 0 894G 0 0 0 33.9K
c4t0d0 - - 0 2 7.40K 189K
c7d1 - - 0 3 7.40K 265K
c8d0 - - 0 3 7.40K 358K
---------- ----- ----- ----- ----- ----- -----
# zpool status
pool: tagra
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
tagra ONLINE 0 0 0
raidz2 ONLINE 0 0 0
c5d0 ONLINE 0 0 0
c5d1 ONLINE 0 0 0
c6d0 ONLINE 0 0 0
c7d0 ONLINE 0 0 0
raidz2 ONLINE 0 0 0
c4t0d0 ONLINE 0 0 0
c7d1 ONLINE 0 0 0
c8d0 ONLINE 0 0 0

errors: No known data errors

а вот собственно на шаре места больше не стало:



# df -h
tagra 877G 28K 858G 1% /tagra
ilyxascrat From: ilyxascrat Date: Август, 29, 2008 16:17 (UTC) (Ссылка)
один диск - никак , vdev не модифицируем .
несколько - вот так :
root@vintage # zpool create testpool raidz /Users/ilyxa/zfs_test/disk1 /Users/ilyxa/zfs_test/disk2 /Users/ilyxa/zfs_test/disk3
root@vintage # zpool status
pool: testpool
state: ONLINE
status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
testpool ONLINE 0 0 0
raidz1 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk1 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk2 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk3 ONLINE 0 0 0

errors: No known data errors
root@vintage #
root@vintage # zpool add testpool raidz /Users/ilyxa/zfs_test/disk4 /Users/ilyxa/zfs_test/disk5 /Users/ilyxa/zfs_test/disk6
root@vintage # zpool status
pool: testpool
state: ONLINE
status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
testpool ONLINE 0 0 0
raidz1 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk1 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk2 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk3 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk4 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk5 ONLINE 0 0 0
/Users/ilyxa/zfs_test/disk6 ONLINE 0 0 0

errors: No known data errors
root@vintage #
epiq From: epiq Date: Август, 30, 2008 08:25 (UTC) (Ссылка)
И в этом случае данные будут размазываться по 2м raidz ? то есть при выходе из строя 2х дисков из одного raidz мы в итоге теряем все данные пула?
ilyxascrat From: ilyxascrat Date: Сентябрь, 1, 2008 06:57 (UTC) (Ссылка)
почему же?

проведите у себя эксперимент , создайте аналогичную к-цию - Вы можете потерять в этой схеме до двух дисков (позиционно ;) абсолютно безболезненно .
ilyxascrat From: ilyxascrat Date: Сентябрь, 1, 2008 07:00 (UTC) (Ссылка)
да , таки-да - 2 диска - до свидания , пул целиком . Для исключения этого есть механизм hot-spare и raidz2 .
epiq From: epiq Date: Сентябрь, 2, 2008 11:00 (UTC) (Ссылка)
Да, собственно raidz2 я и имел ввиду с самого начала.
Сейчас собираю системуц для домашнего сервака, планирую делать raidz2 соответственно надо понять, каким образом я смогу этот storage расширять.
14 комментариев or Оставить комментарий