Иван Левшин aka Ivan L. » 09 дек 2021, 13:19
Доменика, при всем моем к Вам уважении - и лично к Вам, и к Вашему опыту работы, я все же не могу удержаться от вопроса: Вы вообще когда-нибудь сталкивались с необходимостью восстановить хотя бы 2 Тб данных? Разговоры о том, что есть "что", а что - "ничто", непродуктивны в любое время. Я, безусловно, в курсе, что накопители большой и сверхбольшой емкости применяются давно и повсеместно. Равно как и отвечаю на вопросы "а как мне сделать пул размером в 2 Тб".
Например, в моей практике были случаи, когда у одного и того же заказчика отваливались (из-за волшебной системы виртуализации Citrix Xen 6) тома размером "всего" (по Вашей логике это, конечно, "всего") в 2 Тб. Общее число таких томов было 2-3 за один раз. Лежали на них данные GW. Резервные копии, конечно же, были - сейчас я не хочу и не буду обсуждать тот момент, что, например, в случае с активно используемым ГВ дельта даже в день - это может быть очень больно и для пользователей, и для бизнеса. Скажу лишь о том, что просто разматывание с ленты томов в 2 Тб заняло от 6 часов до суток. Если Вы и в этот раз мне хотите сказать про "ничто", так я Вам замечу, что это означает, что ГВ был недоступен для пользователей, чьи данные находились на поврежденных томах, в течение как минимум рабочего дня. Все это время IT-руководство имело вполне себе бледный вид, т.к. руководству бизнеса вообще наплевать на "все эти ваши болтики и гаечки", им надо, чтобы бизнес-процессы крутились...
Экстраполируйте, пожалуйста, на 12 Тб самостоятельно. Подумайте, что Вы скажете руководству, когда до него дойдет, что бизнес стоит просто из-за того, что у Вас, понимаешь ли, резервная копия еще не размоталась.
Я был и остаюсь категорическим противником хранения оперативных данных (под ними я понимаю данные, которые нужны всем либо подавляющему большинству пользователей каждый день и много раз в день) на томах размером больше 1 Тб. Сейчас существует множество технологий организаций хранения данных: это и Multi Tiering, и широчайшее применение средств виртуализации (когда можно нарезать "виртуальные жесткие диски" чуть ли не по гигабайту размером), и прочие ухищрения. Тома размером в 2 Тб и далее могут применяться только для архивов: там нужно много/очень много места и данные, что там лежат, не нужны каждый день. Потому, если оно, внезапно, гикнется - никто не умрет от того, что резервная копия будет разматываться неделю. А то, что активно используется в работе... Нет, нет и еще раз - нет.
А в идеологии файлового сервиса и резервного копирования уже лет 20 (если не больше) ничего кардинально не меняется. Никаких "особых требований " в OES также нет. Обсуждаемая проблема находится целиком в области нормальной организации архитектуры информационной системы. Надеюсь, Вы понимаете, о чем я - если нет, скажите, пожалуйста, мне не сложно объяснить дополнительно.