Про SUN ZFS

Обсуждение технических вопросов по продуктам Novell под Linux, а также *nix систем

Про SUN ZFS

Сообщение Игорь Вершинин » 13 ноя 2006, 22:25

Посмотрите, кто большой специалист, так как я не очень.
http://www.opensolaris.org/os/community ... s_last.pdf
Это презентация с САНовского семинара. У нас проходил. Я не попал туда, но сильно заинтересовался. Идеи сильно напопинаю "единое хранилище" так, как его видит Microsoft (WinFS). Во флэйме случайно обнаружил подобную тему, но, мне кажется, она не для флэйма.

Интересно следующее.
1. Я не знаю строение NSS. Но во флэйме утверждалось, что достаточно все похоже. Это так?
2. ZFS бесплатна и портируется на другие операционные системы, а не только работает на солярке. Как с этим у NSS? Возможно ли ее установить и запустить не ставя eDir? например, на Fedora или Mandrike?
3. Такие технологии как RAID-Z (все это видно в презентации), Snapshot, Self-Healing Data, End-to-End checksum и т.п. присутствуют в NSS?
4. Утверждают, что поддерживается наследование прав как на NTFSv4. Это что? Сильно отличается от варианта Win2k3? Или это то же самое?

Я почему спрашиваю. Не нравится скорость работы Ext3. Хочется от этого уйти. Но не на подобные системы (потому как выигрыш или проигрыш измеряется в среднем процентами). У меня бенчмаки еще со времен NW6.5 и Fedora Core 3 не обновлялись, но не думаю, что можно что-то прогрессивно новое на Ext3 создать. Чтобы ситуацию улучшить. Потому как проигрывала Ext3 изрядно.
Аватара пользователя
Игорь Вершинин
 
Сообщения: 387
Зарегистрирован: 05 июн 2002, 20:34
Откуда: Волгоград

Сообщение Александр Читалкин » 01 фев 2007, 19:20

in-deep анализ ZFS не проводил, в основном тестировали на производительность по сравнению с UFS/VxFS, все на solaris. По скорости сногсшибательных результатов не получили, хотя как сверхскоростная FS данный продукт и не позиционируется. По удобству и наличию всяких ранее недоступных фич - огромный шаг вперед по сравнению с UFS и другуими *nix-native фс. Хотя, при первом знакомстве схожесть с NSS видна невооруженным глазом.
Аватара пользователя
Александр Читалкин
 
Сообщения: 112
Зарегистрирован: 13 ноя 2002, 23:29
Откуда: Москва

Сообщение Игорь Вершинин » 02 фев 2007, 14:53

А позиционируется ZFS как свободная? (GPL или BSD) Т.е. есть шанс у нее появиться как "один из вариантов" для той же Fedora или OpenSuSE? И как впечатление от нее? сырая?
Аватара пользователя
Игорь Вершинин
 
Сообщения: 387
Зарегистрирован: 05 июн 2002, 20:34
Откуда: Волгоград

Сообщение Александр Читалкин » 02 фев 2007, 22:37

ZFS - это CDDL (http://www.gnu.org/licenses/license-list.html). С GPL оно не совместимо, а модули ядра линукса должны быть GPL. Со всеми вытекающими. А вот во FreeBSD ZFS уже по большей части портирована, насколько это там стабильно работает - не знаю.
Насчет впечатлений.... Первые - крайне положительные. Однако, когда в одной весьма крупной конторе решили пустить ZFS в продакшен, и спустя какое-то время умер диск в zfs'ном пуле, вся инфа в нем не скопытилась только благодаря большой удаче - ФС повела себя неадекватно. Списали все на сырость этой разработки. Как дело обстоит сейчас сказать не могу, случай был когда ZFS только появилась.
Аватара пользователя
Александр Читалкин
 
Сообщения: 112
Зарегистрирован: 13 ноя 2002, 23:29
Откуда: Москва

Сообщение Константин Ошмян » 18 май 2007, 16:27

Вот любопытная ссылочка с видеороликом о том, как фанаты средствами ZFS делали RAID-массив из USB-флэшек (три USB хаба по четыре флэшки в каждом). Смотрится прикольно. Особенно порадовали следующие моменты:
1) скорость записи видеофайла на массив - практически мгновенно (хотя и понятно, что это туфта: на самом деле он попал в кэш ZFS);
2) проверка отказоустойчивости методом выдёргивания одного USB-хаба;
3) перетасовывание флэшек с последующим втыканием назад куда попало.

Понятно, что это только демонстрация, но достаточно убедительная.
Аватара пользователя
Константин Ошмян
 
Сообщения: 972
Зарегистрирован: 13 авг 2002, 21:36
Откуда: Рига

Сообщение Сергей Дубров » 18 май 2007, 18:22

Константин Ошмян писал(а):Вот любопытная ссылочка с видеороликом о том, как фанаты средствами ZFS делали RAID-массив из USB-флэшек (три USB хаба по четыре флэшки в каждом). Смотрится прикольно. Особенно порадовали следующие моменты:
1) скорость записи видеофайла на массив - практически мгновенно (хотя и понятно, что это туфта: на самом деле он попал в кэш ZFS);
2) проверка отказоустойчивости методом выдёргивания одного USB-хаба;
3) перетасовывание флэшек с последующим втыканием назад куда попало.

Понятно, что это только демонстрация, но достаточно убедительная.

Я вот жалею, что потерял ролик с другой, не менее убедительной демонстрацией работы хипишного массива EVA. Исходное состояние - 8 полок по 8 дисков, все собраны в один массив. На получившийся том заливается некий объём данных, не превосходящий по размеру объём одного диска. Дальше, один-за-одним, размерянно, из стойки выдёргиваются ВСЕ(!) диски, кроме одного, последнего - и видео, запущенное с этого массива, продолжает воспроизводиться без малейшей задержки! Т.е., все ребилды и т.п. делались полностью на автомате. Вот это избыточность, я понимаю :).

Ещё в современных EVA-х страшно нравится возможность на-ходу временно выдернуть диск БЕЗ сопутствующего перехода в degrade, с последующим возвращением диска на место БЕЗ ребилда. При этом во время отсутствия диска с массивом можно работать без ограничений, включая запись. Правда время "отсутствия" диска ограниченно, кажется в районе 10 минут. Куда пишутся данные при выдернутом диске? Загадка :). Сильная вещь...
Аватара пользователя
Сергей Дубров
 
Сообщения: 2073
Зарегистрирован: 05 июн 2002, 06:07
Откуда: Новосибирск, ин-т ядерной физики СО РАН

Сообщение Александр Читалкин » 19 май 2007, 21:10

Бррр... В целом, система хранения неплохая, но... Управление ей - мрак. Совсем недавно я проводил инсталляцию такого чуда. Была вроде бы не самая хреновая eva - но почему-то попасть на нее можно было только... по FC линку. Никакого TCP/IP с Ethernet не было и в помине. Т.е., чтобы провести первичную конфигурацию, надо было где-то найти PC, подтащить его к шкафу, найти PCI FC HBA, установить туда и настроить, подключиться к массиву по FC и только таким образом рулить. Управление осуществляется через веб-браузер (и на этом ограничивается), работает это ужасно, сам инструмент алогичный до беспредела. После Hitchi впечатления негативные.

Правда время "отсутствия" диска ограниченно, кажется в районе 10 минут. Куда пишутся данные при выдернутом диске? Загадка Smile. Сильная вещь...

В любом массиве такого уровня есть большой кэш, который флашится раз в несколько минут. Весть IO сначала происходит с ним. Более того, в каждой полке есть батарея, которая способна после полной потери питания держать ее включенной несколько минут - обычно достаточно для сброса кэша.

Дальше, один-за-одним, размерянно, из стойки выдёргиваются ВСЕ(!) диски, кроме одного, последнего - и видео, запущенное с этого массива, продолжает воспроизводиться без малейшей задержки!

Так и есть, если все диски были назначены в группу RAID1 :) Если бы это была просто конкатенация, страйп или даже RAID5 - данные бы потерялись. А полный hotswap есть на всех стораджах такого уровня. В древнем Sun StorEdge T3, например, после того как диск помечался как failed, его можно было свободно заменить простым физическим извлечением. После этого ребилд стартовал автоматически.

Вообще неправильно сравнивать софтовый и хардовый volume management. Первый, несомненно, уступает, но при этом весьма полезен, когда необходимо зазеркалировать локальные загрузочные диски или диски с данными. Использования ZFS также снимает ограничение традиционных ФС, не позволяющее произвольно менять и расширять их. В пул ZFS можно легко добавить новый диск, и распределить его свободное место между файловыми системами так, как заблагорассудится, или перераспределить его впоследствии.
Аватара пользователя
Александр Читалкин
 
Сообщения: 112
Зарегистрирован: 13 ноя 2002, 23:29
Откуда: Москва

Сообщение Антон Савельев » 02 июн 2007, 01:44

Использования ZFS также снимает ограничение традиционных ФС, не позволяющее произвольно менять и расширять их. В пул ZFS можно легко добавить новый диск, и распределить его свободное место между файловыми системами так, как заблагорассудится, или перераспределить его впоследствии.

Что-то похожее я встречал в AIX 4.1.4 (образца 1995 года выпуска) - там тоже можно было добавить диск к обычному сказевому контроллеру и размазать свободное место по файловым системам... Жаль денег нет на p-series
Антон Савельев
 
Сообщения: 219
Зарегистрирован: 16 авг 2002, 15:31
Откуда: Мурманск


Вернуться в *nix

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1

cron