Paromshick
Silver Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору igor me v2 Не уверен, что всё именно так, в смысле - объективно. Технический анализ, наилучшее решение, и т.д. Восстановление в ручную, или в полуатоматическом режиме, хорошо говорит о том, что человек хотя бы озаботился тем, что есть "откуда восстанавливаться". скорость восстановления тоже важна, ибо, если упал, скажем, почтарь, то все без почты. Если юзеров много, то спина у админа потная до самых пяток, телефон отключен, биты наготове. Само собой, VIP персон нахер не пошлёшь, а давить они умеют, это их работа. То есть, что мы представляем? Восстанавливает он. И восстановит. Но в ситуации стресса. А в такой ситуации есть возможность не туда ткнуть. Если "не туда" как-то приводит к потере данных, скажем бекапа, развал рейда или что еще, без фантазий, то... Это крах всего. То есть, это никакое не резервирование. И когда я спрашиваю, что будет, если этот хост откажет, надо просто ответить - ляжет сервис такой-то. Далее достаточно сделать паузу, как бы считая мух, и спросить, что же делать?У гуры включается мозг. Если же он говорит, чёй-та он откажет, то... Получаются посты выше При этом, люди реально считают себя специалистами. И не где-то на форумах или за пивом. А в кассе. З/п специалиста, как бы, да... Классики жанра пишут и здесь, в темах. Описывая ситуацию аварии, перечисляя то да сё, говорят: контроллер AD - один. Бекапа нет. Ну, как бы всё, да? Бери паяльник. Вот я о чём. Да даже если и есть бекап. Насчёт "хостов". Описанный "всё в одном" - всё ясно. Посмотрим на тот же почтарь, но как бы в отказоустойчивости. Только Exchange и в отказоустойчивости. Это три сервера п/я, читай БД, два сервера клиентского доступа, читай Web, два сервера (можно без них) погранца, читай SMTP. Всё это за фаерволом. Всё это обеспечено связью между собой за счёт сетевого оборудования. Все это разрешает имена и авторизует за счёт контроллеров. Вот нафиг они нужны все в таком количестве, если между ними перестанет ходить трафик IP? Сервис (почта, Exchange) ляжет. Значит, эти хосты в сети (IP же) поддерживают сервис. Вот все они совокупно. При описанной схеме, сервис находится в отказоустойчивости. И если вопрос о том, что будет, если этот хост ляжет всё-таки звучит, то ответы на него могут быть разные. От "ничего", до "деградации сервиса". Соответственно, хост тот, лёгший, восстанавливается не спеша, в плановом порядке. Потому БД - 3. Чтоб не потело. Бэкапы, естественно есть, но. Вы восстанавливали базу, скажем в 200 гиг (это уже не много) целиком? Это не минуты, это часы. Ну в общем, ладно. Бэкапы должны быть. Их нкто не отменял. Бэкапы данных пользователей. Ибо бывают не только отказы оборудования, но и "ой я случайно удалила вообще всё, за год". Вопрос о "накате операционок" в оперативном режиме... спорный. Но очевидно, что на время отката допускается простой сервиса. Таким образом, уважаемый igor me v2, стоит всё же поискать в ТЗ параметр "допустимое время простоя". Этот параметр у вас был? Когда я заканчиваю работу над ЦОД (с этим вот никак, заколдованный, гурами), то обычно пишу - 24/7 PS. Кстати. Если бы я тоже был консерватором и на VM махал бы бреед, то мне потребовалось бы сотню железяк? Это шкафа... ну по 1U в шкаф 42U, оставив там под UPS'ы... Три полностью забитых шкафа? Сто машин по 15 кг минимум, это полторы тонны, а с ИБП - 2 тонны, в трёх шкафах. Да пол не выдержит, если ен бетонный. Электричество. Охлаждение? Брееед, сказали бы мне и взяли на работу другого. Который построил бы ми ЦОД на 20U максимум.
|