Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Проклятье! Конечно, хостов больше одного, а то зачем отдельный сторадж  

 
В 5.1 появилась zero-shared миграция.  Не надо ни общего стораджа, ни хоста: можно менять и хост и датастор одновременно.
 
 

Цитата:
Выходит, что даже, если есть две 4х-портовые сетевухи, смысла от них не будет?

 
Если сконфигурить Storage multipathing, то будет. Но всё равно с одного хоста к одному и тому же луну распараллелить IO не удастся.
 
А вот если хотя больше одного луна c VMFS на таргете... Или вообще виртуалки на RDM.  Варя ещё и нагрузку распределит, исходя из загруженности физ.линка.
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 16:21 18-10-2012 | Исправлено: LevT, 16:22 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
Про гибридный я сужу по этой статье.

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 17:34 18-10-2012
root0



Silver Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
to LevT
 

Цитата:
В 5.1 появилась zero-shared миграция.  Не надо ни общего стораджа, ни хоста: можно менять и хост и датастор одновременно.  

 
Вы наверное не так поняли эту фичу т.к. написали оно работать не будет

Всего записей: 3964 | Зарегистр. 26-09-2008 | Отправлено: 17:35 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Это получается, что "одна плата рейда с hdd и ssd в качестве кеша" требует столько же SSD дисков сколько и SAS дисков?

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 17:38 18-10-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Про гибридный я сужу по этой статье.

статья - маркетинговый булшит. и то и другое - гибридный, но я вообще не понимаю, почему у них вдруг чтение 100% с ssd - это какой-то обман, все эти решения работают одинаково.
 

Цитата:
Это получается, что "одна плата рейда с hdd и ssd в качестве кеша" требует столько же SSD дисков сколько и SAS дисков?  

Нет, сколько хочешь, столько и ставь. Но если у тебя рейд из 6-8 физ.дисков ставить один в качестве кеша - мало, он сам будет узким местом. Так что тут уже типично ставят или два в зеркало (что бы можно было заменить ssd на ходу) или в 10, если за ним большое кол-во дисков. Если у тебя в рейде будет 2-4 диска, то можно и один единственный ssd воткнуть - будет какой-то прирост.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 17:46 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT

Цитата:
с одного хоста к одному и тому же луну распараллелить IO не удастся

Вы говорите про iSCSI?
 

Цитата:
А вот если хотя больше одного луна c VMFS на таргете... Или вообще виртуалки на RDM.

Можно чуточку помедленнее - я записываю
 
Добавлено:
 
easyjohn
 
Вот есть корзина на 16 дисков.
RAID у меня будет 10. Будет софтовый. Будет flashcache. Будет iSCSI. Как я буду LUNы назначать - пока не решил, но все диски в одном не будут, естественно.  
Прошу вас рассказать, как в моём конкретном случае раскидать диски SAS с дисками SSD.

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 18:22 18-10-2012 | Исправлено: Sauron_zombie, 18:31 18-10-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Прошу вас рассказать, как в моём конкретном случае раскидать диски SAS с дисками SSD.

Я не знаю ваших задач/нагрузки/объемов, так что ничего конкретного сказать не могу.
В целом я бы сначала делал 10 рейд из 4-6 дисков, их подпирал зеркалом/страйпом из 2 ssd, и смотрел какая получается производительность. В зависимости от полученных результатов наращивал то, что нужно - добивал быстрые sas, или ssd. Ну тут же рядом собрал бы 5-ый рейд из 4-5 дисков побольше - для неважных данных, баккапов и т.п.
Ну, а вам может нужно, что бы все 10-12 дисков были в одном 10 (60?) рейде, тогда и 2ssd может оказаться мало для кеширования.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 18:42 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
 
Задачи SharePoint, Exchange, несколько баз SQL 2008 R2 Express. Всё на ESXi.
Думаете не потянет iSCSI на гигабитных сетевухах всё это?

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 18:57 18-10-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Задачи SharePoint, Exchange, несколько баз SQL 2008 R2 Express. Всё на ESXi.  

Начни с 6 дисков в 10-ом.

Цитата:
Думаете не потянет iSCSI на гигабитных сетевухах всё это?

Нормально для начала. У меня на 8g FC реальный трафик очень редко выше 1g к хосту прыгает.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 19:02 18-10-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
root0

Цитата:
Вы наверное не так поняли эту фичу т.к. написали оно работать не будет

 
Наживую (проверил только что) действительно не хочет, но выключенные машинки тасуются влёт
 
 
 
Sauron_zombie
 

Цитата:
Вы говорите про iSCSI?  

 
Я говорю про SCSI без всякого i.    
(Точно так же "HTTP ходит дефолтно по TCP 80-му порту" - утверждение не про Ethernet, ATM или допустим SONET, а про TCP/IP вообще)
 
А iSCSI это всего лишь одна из разновидностей сторадж-транспорта, отличающая крайней дешевизной комплектухи для самосбора.
 
 

Цитата:
Можно чуточку помедленнее - я записываю

 
Я тоже могу ошибаться в мелких деталях. Суть такая: чем больше активных лунов за таргетом, тем равномернее загрузка избыточных путей.
 
Есть два экстремальных дизайна блочного стораджа под виртуализацию: можно дестяки виртуалок зафигачить на одну гигантскую VMFS (умолчим, что она тоже может быть собрана из экстентов на доп. лунах), а можно под каждую или почти каждую выделять отдельный RDM-лун.
 
Плюсы и минусы есть в обоих случаях.  Первым вариантом проще управлять из вмваре клиента, второй грамотнее с точки зрения стораджестроительства, но требует поддержки за счет квалификации админа (на которой можно сэкономить, потратившись на управляльный софт от сторадж-вендора).
 
Я например застремался сразу запустить в продуктив второй вариант, сижу пока на первом (почти).

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 19:10 18-10-2012 | Исправлено: LevT, 19:12 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
Хорошо. Спасибо на наводку!
 
LevT
А выделять всем RDM разве правильно/хорошо?
VMFS ведь не просто так придумали.
Хотя, вы сказали "для каждой ВМ"...

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 20:53 18-10-2012 | Исправлено: Sauron_zombie, 21:03 18-10-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
А выделять всем RDM разве правильно/хорошо?
VMFS ведь не просто так придумали.
Хотя, вы сказали "для каждой ВМ"...

Это крайний случай извращения. Если объемы данных небольшие, то вообще можно все на один свалить.
Могу сказать по моим нагрузкам - на каждом raid10 из 4 sas 15к у меня живет где-то 15-20 машин, в т.ч. с mssql, exchange и т.п. на raid5 из 4 sas 15k - еще десяток вялых, которым нужно просто места побольше. Это без ssd кеша.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 21:03 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Тут с техподдержки Adaptec ответили:

Цитата:
The 6805E is not an hba. It is a Hardware RAID controller with limited capabilities (RAID 0, RAID 1, RAID 1E, RAID 10 and Jbod)
The controller will work with expanders however, being that it is entry level, it does not offer the high end capabilities as other controllers.
If your concern is strictly cost and you can live with the perfomrance of a PCIe x4 throughput, then this can be a good choice.
You still get the ability of working with hardware Raid controller that connects at 6GB/sec with PCIe Gen 2 transfer rate to the motherboard.

Смогу же я жить с PCIex4?
 
Добавлено:
Я им писал, что 6805Q (они советовали) для меня дорог, а 6805E нет в HCL. Спрашивал будет ли он нормально работать с экспандером на CSE-836E16-R1200B.

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 21:05 18-10-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
Это крайний случай извращения.  

 
Я с этим не согласен.  Действительно, VMFS проще в управлении - но только потому, что любимый вендор поделился с нами халявной управлялкой.
 
Но вообще-то это дополнительный проприетарный слой (ФС + менеджер томов) поверх стандартного (SCSI) блочного стораджа.
 
Можно годами жить на его поверхности и не замечать почвы под ногами. Но вот хорошо ли это? И навечно ли с нами халява?
 
 
Сторадж на RDM переносИм между разными гипервизорами, в отличие от.
 
 
 
Добавлено:
 

Цитата:
(Точно так же "HTTP ходит дефолтно по TCP 80-му порту" - утверждение не про Ethernet, ATM или допустим SONET, а про TCP/IP вообще)  
 

 
Братцы, пора избавляться от мозговых червей!   Мы нихера не поймём в этой жизни, если не научимся мыслить техническими категориями.
 
Ну представьте себе, что нам отрезали язык, запретили слова и мысли, чтобы говорить о TCP/IP.   Можно обуждать прикладные протоколы, даталинки и физику - а TCP/IP низззя.  Слова потому что такого нет. Или есть, но означает хз что. HTTP по кабелю это одно, а по мобиле - вах, савсэм другая вэсчь (с ёмкостным экраном, а иногда и с гориллой-гласс! HTTP премиум-класса это не хухры-мухры! Говорят, что о ней рассказывают на курсах сертифицированных мобиловодов, всего лишь за 60 тыр/5 дней)
 
Представили?  
 
 
Вот именно в такой кошмарной поипени мы варимся, пытаясь обсуждать блочный сторадж.  SCSI столь же фундаментальная штука в стораджах, как TCP/IP в сетях.  Отличие в том, что в сетях есть публичные RFC, а в стораджах первоисточники закопирайчены сговорившимися вендорами (и продаются по 30 бакинских за каждую пдфку из 100500).
 
...Но зато мозги есть у каждого и какой-никакой опыт. Ну чуть-чуть будьте инженерами и пытайтесь реверсить то, с чем постоянно имеете дело!  Для начала хотя бы не сомневайтесь в существовании предмета, несмотря на его неназываемость.
 
 
Добавлено:
easyjohn
добавлено - это не тебе. Я этот пламенный призыв минут ...дцать сочинял до того как.  ))
 
 
 
Добавлено:
 
Sauron_zombie

Цитата:
VMFS ведь не просто так придумали.  

 
Это слой абстракции, позволивший вмваре развивать ( и продавать, ага) свою собственную инфраструктуру в той ситуации начала 2000-х, когда SCSI стандарты находились ещё в черновом состоянии и поддерживались вендорами стораджей ...своеобразно.  (Имеются в виду стандарты поколения SCSI-3, отличающегося поддержкой кластеризации и мультипаса)
 
А сейчас, когда все больше этих стандартов фиксируется и затем обретает поддержку варей,  дело дошло уже до таких, которые плохо сочетаются с VMFS.  Например VAAI  

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 21:14 18-10-2012 | Исправлено: LevT, 23:05 18-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
Понимаю, что цели у всех разные.
Вот вы-то на данный момент на чём сидите - ZFS, VMFS, RDM?
 
Мне что нужно: чтобы я мог один из хостов спокойно выводить на обслуживание, не отключая все виртуалы, как сейчас. Для этого мне нужен сторадж, который может быть доступен одновременно с нескольких хостов. На NTFSе такого не сделаешь, поэтому нужно использовать нечто более продвинутое - VMFS.  
 
Добавлено:
Что касается тиминга сетевух и всего такого для увеличения скорости передачи - Jumbo Frames можно использовать в моём случае?

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 00:04 19-10-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Вот вы-то на данный момент на чём сидите - ZFS, VMFS, RDM?  

это разного уровня вещи.
zfs - менеджер томов + файловая система для solaris/bsd, соответственно том до форматирования можно экспортировать для esx по iscsi, а если отформатировать в zfs, то по nfs.
vmfs - файловая система самого esx, она надевается поверх любого iscsi луна и в ней лежат виртуалки.
rdm - это отдельный лун (iscsi или локальный диск/раздел esx), который целиком отдается одной отдельной виртуалке, без форматирования. разместить две в.машины в одном rdm не получится.
 
Добавлено:

Цитата:
Мне что нужно: чтобы я мог один из хостов спокойно выводить на обслуживание, не отключая все виртуалы, как сейчас. Для этого мне нужен сторадж, который может быть доступен одновременно с нескольких хостов.

Именно так.
Esx видит сетевые сторы по nfs или по iscsi. В первом случае (nfs) ему отдают место, куда надо положить файлики, и esx работает с файлами виртуальных машин. Во втором случае (iscsi) ему отдают сырой диск, и он на этом диске может или создать свою файловую систему (vmfs) и сложить туда пачку виртуалкок, или этот диск отдать целиком какой-то одной в.машине.
Предпочтение отдают iscsi, с настройкой nfs есть немало подводных камней.
А дальше сам смотри, если тебе надо что бы у какой-то виртуалке был диск больше 2tb - придется для нее сделать на сторе отдельный лун и отдать его по rdm. Если же диски у виртуалок мелкие - то форматируй лун в vmfs и сваливай все машины туда.

Цитата:
Что касается тиминга сетевух и всего такого для увеличения скорости передачи - Jumbo Frames можно использовать в моём случае?  

jumbo - всего лишь разрешение использовать tcp пакеты размером больше 1500байт. Обычно увеличивают до 9000байт, это разгружает сетевуху. Рекомендуется использовать на портах между стором и esx. При этом все сетевухи и все свитчи между ними должны уметь пакеты такого размера передавать. С тимингом это не связанно никак.
То есть да, в хорошем случае тебе надо делать и тиминг, и включать jumbo.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 00:12 19-10-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Блин. Вот я лох. А вроде бы и читал раньше. Только видно без опыта - хоть обчитайся.
Умолкаю с позором...

Всего записей: 536 | Зарегистр. 31-01-2006 | Отправлено: 00:23 19-10-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
zfs - менеджер томов + файловая система для solaris/bsd, соответственно том до форматирования можно экспортировать для esx по iscsi, а если отформатировать в zfs, то по nfs.  

 
Чё-та как-то совсем неточно написано ))
 
 
ZFS - рейд и менеджер томов "в одном флаконе". Диски (блочные устройства/бэкенд-луны) собираются им в vdev-ы (типа миррор,  рейд5 или рейд6), а те в zpool-ы (типа рейд10, 50 или 60). ssd-кэши добавляются туда же в виде vdev-ов спец. типа.
 
От zpool-ы отрезаются куски: 1) zfs filesystem - директории на экспорт в виде файловых шар (NAS с SMB/NFS) и 2) zvol - блочные устройства (который могут быть thin provisioned уже на сторадже) на экспорт в виде лунов для SAN.
(снапшоты-клоны-репликация на уровне стораджа прилагаются сюда же)
 
В оси должен пристутствовать пакет, который собирает из лунов таргеты для нужных протоколов SAN (iscsi, fc, в принципе даже sas).  В деривативах соляры есть такой COMSTAR (Common Multiprotocol Target).  В бзде и линухе - свои какие-то.
 
 
Добавлено:

Цитата:
vmfs - файловая система самого esx, она надевается поверх любого iscsi луна  

 
На ВООБЩЕ ЛЮБОМ луне (НЕЗАВИСИМО от сторадж-транспорта) можно создать единственный экстент VMFS (если там есть свободное место под партицию).
 
Существующая VMFS может быть расширена дополнительными экстентами.
 
 

Цитата:
RDM - это отдельный лун (iscsi или локальный диск/раздел esx),

 
ДА ПОФИГ на протоколы доступа к лунам. ПОФИГ ЖЕ!
 
К примеру, нафига каждый раз при обсуждении TCP/IP перечислять физические среды передачи, все какие в тот момент в голову приходят?  Это создаёт лишний шум и только мешает сфокусироваться на предмете обсуждения.  
 
И вообще признать существование такого общего предмета.
 
 
 
 
 
Добавлено:
Sauron_zombie

Цитата:
Для этого мне нужен сторадж, который может быть доступен одновременно с нескольких хостов. На NTFSе такого не сделаешь, поэтому нужно использовать нечто более продвинутое - VMFS.  

 
Файловый сторадж (экспортируемые с хранилки NFS-шары) тоже покатит.
Как и блочные луны, презентуемые хранилкой в SAN.
 
Для хранилки винда (2008 R2 и особенно 2012) стала достойной альтернативой ZFS-системам: она теперь прекрасно умеет работать таргетом. NFS правда родная кривовата, но vPower из Veeam это дело поправит.
 
Обучение этим материям можно теперь начинать с винды. Но я бы тщательно напоминал себе о том, что винда это только промежуточная станция.  
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 01:10 19-10-2012 | Исправлено: LevT, 01:49 19-10-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Я бы крайне не рекомендовал делать что-то связанное со сторами на винде. У меня есть приличный негативный опыт. Начиная хотя бы с того, что под винду последний раз (где-то год назад) нам не удалось найти ни одной утилиты мониторящей smart, которая бы умела давать команды self-test винтам. То есть винчестеры в рейде остаются без патрульного чтения. Такое даже для домашней помойки стремно, что уж говорить про продакшен. А про разваливающиеся с непонятной симптоматикой в логах рейды я и говорить не буду. (Правда на 2008 не пробовал, но сомневаюсь, что что-то кардинально улучшилось).
 

Цитата:
ДА ПОФИГ на протоколы доступа к лунам. ПОФИГ ЖЕ!  

Я объясняю максимально простым языком, иначе человек вообще закопается.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 01:54 19-10-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
 
Мне представляется, что наоборот: для начала следует увидеть за деревьями лес.  
И начать ориентироваться в лесу как целом, не засматриваясь на отдельные сучки и пни.
 
(Наверное между нами тут проявляется архетипичная разница виндузоида и линуксятника :
 
 
root0

Цитата:
 
Цитата:Вы наверное не так поняли эту фичу т.к. написали оно работать не будет  
 
 
Наживую (проверил только что) действительно не хочет, но выключенные машинки тасуются влёт  

 
Впрочем, чё этоя? Это ведь и раньше было... Тогда действительно мне сейчас непонятно, в чём пряник от "зеро-шаред миграции".
 
 
Добавлено:
easyjohn

Цитата:
что под винду последний раз (где-то год назад) нам не удалось найти ни одной утилиты мониторящей smart, которая бы умела давать команды self-test винтам

 
У меня 2012 дома вот как раз только и занимается, что пинанием селф-теста сбойнувшего 750-ка, вытащенного из недавно разобранного ZFS-пула  
 
Журчит-скворчит каждые минут 10 или 20 - и выкидывает предупреждение о том, что диск тогось...

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 02:12 19-10-2012 | Исправлено: LevT, 02:13 19-10-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru