Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
murphy2000
 
Когда все наладите с кулоджиком - окажите любезность, сравните со стандартным swiscsi
Если есть куда воткнуть обычный интеловский гигабит, или есть возможность сделать рядом стенд хотя бы на десктопной матери.
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 17:11 17-05-2012
murphy2000



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
в смысле сравнить ?? там и софтварный не работал... оно же стоража не видело
 
софтварный там и был на интеле. esx просто не знал как общаться с моей системой хранения (крафтвей) и присваивал ему статут LOCAL.

Всего записей: 191 | Зарегистр. 19-04-2006 | Отправлено: 17:30 17-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

В смысле: когда всё будет настроено штатно с кулджиком и стораджем - воспроизвести настройки на swiscsi и сравнить отличия, если будут.
 
 

Цитата:
софтварный там и был на интеле. esx просто не знал как общаться с моей системой хранения (крафтвей) и присваивал ему статут LOCAL.

 
Вот-вот-вот, разница и интересует - но не вслепую ощупанная, а основанная на опыте заведомо корректной настройки одного из вариантов.
 
 
 
Добавлено:
 
Те, у кого склад разнообразных жалезяк - что-то не очень склонны делиться техническими подробностями    Так что, "спасение утопающих дело рук самих утопающих".

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 17:59 17-05-2012
murphy2000



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Те, у кого склад разнообразных жалезяк - что-то не очень склонны делиться техническими подробностями     Так что, "спасение утопающих дело рук самих утопающих".  

 
я согласен поделиться, я просто понять не могу, чем именно?
 
1. Скорость у софтверного рейда ниже, чем у программного
2. Для аппаратных инициатором юзаем QLA46xx (бог знает чего за версия, я этот инициатор ни разу не видел в живую)
3. Сам рейд от крафтвея. Работает достаточно стабильно, хотя в плане настроек очень прост.
4. Использовать одновременно и софт и железо не очень стабильно получается, ибо глючит.
5. Джамбо фреймы на крафтвее работают просто отвратно, ибо при большой нагрузке стораж (даже о двух головах) просто шлепается в ребут (причем обе головы).

Всего записей: 191 | Зарегистр. 19-04-2006 | Отправлено: 18:11 17-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
1. прежде чем обсуждать скорость, необходимо убедиться в одинаковой настройке (или одинаковой ненастройке) оптимизирующих параметров.
 
Понятно. что любую железку можно разогнать, зная подробности её реализации - но только ценой совместимости и переносимости опыта её администрирования.  Но вообще-то современный CPU по производительности кроет любой "железный" ASIC как бык овцу.  Но бутылочное горло в обоих случаях - в гигабитном эзернете.
 
2. Cофтовый iSCSI hba включается галочкой в конфигурации стораджа, либо из CLI esxcfg-swiscsi -h
 
3. Совершенно неважно кто нацепил свой лейбак на собранный сервант с софтом. Но вот я на Вашем месте обязательно поинтересовался бы, что там за софт, и как получить доступ к скрытым от меня рукояткам управления.
 
4. Это у Вас лирика, связанная с невозможностью до сих пор получить точную информацию.
 
5. Ну.. это уже для меня красная тряпка. Я бы не потерпел, выяснил в чём дело - и попытался получить с этого крафтвея удовлетворение (если не финансовое, то моральное и прочее всевозможное). Например, вставив туда нужное количество интеловских портов. "Железные" iSCSI броадкомы например известны тем, что на стороне инициатора "не поддерживают" mtu 9000.
 
 
 
Добавлено:
 
Кстати, варя допилила поддержку "железных" iSCSI HBA только в 5-й версии. До того она прямым текстом рекомендовала использование софтового инициатора, даже если рядом есть железный и типа поддерживается...
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 18:52 17-05-2012 | Исправлено: LevT, 02:33 18-05-2012
murphy2000



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
2. Cофтовый iSCSI hba включается галочкой в конфигурации стораджа, либо из CLI esxcfg-swiscsi -h  

 
естественно я его включал И даже совместно с железячным, но толи методы работы у них разных, толи мои кривые руки , но глючило нещадно...
 

Цитата:
4. Это у Вас лирика, связанная с невозможностью до сих пор получить точную информацию.  

согласен, рекомендации производителя я бы почитал с удовольствием, только даже HP как-то не очень рекламирует MSA плагин...
 

Цитата:
5. Ну.. это уже для меня красная тряпка. Я бы не потерпел, выяснил в чём дело - и попытался получить с этого крафтвея удовлетворение (если не финансовое, то моральное и прочее всевозможное). Например, вставив туда нужное количество интеловских портов. "Железные" iSCSI броадкомы например известны тем, что на стороне инициатора "не поддерживают" mtu 9000.  

 
тут вообче все сложно... ибо на момент тестирования у меня были только софтверные Крафтвеи сказали, что да - есть глюки.. поменяли голову... успокоились (кончилась гарантия)...
 
 

Цитата:
Кстати, варя допилила поддержку "железных" iSCSI HBA только в 5-й версии. До того она прямым текстом рекомендовала использование софтового инициатора, даже если рядом есть железный и типа поддерживается...

а вот это вообче интересно, есть идея на 10Г перемещаться...и реально дешевле получается чем FC..

Всего записей: 191 | Зарегистр. 19-04-2006 | Отправлено: 08:38 18-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 
естественно я его включал И даже совместно с железячным, но толи методы работы у них разных, толи мои кривые руки , но глючило нещадно...
 

 
Дык может "глючило" от недостатка опыта? Просто не было на что опереться для того чтобы распознать/описать/найти/устранить причину глюков.
 
Так оно бывает, если на голову одному бедному человеку сваливается сразу много неведомой херни )   Против этого явления известен приём "разделяй и властвуй": структурировать ту херню (разбить на взаимно-независимые её генераторы и изучать по отдельности каждый из них).
 
Процесс познания увлекательный, но затратный, чаще всего ресурсов на него у нас не хватает. Ну так вот это-то и есть причина нашей беды: нас лишают ресурсов на самостоятельное решение проблем и обесценивают это занятие в наших собственных глазах - чтобы впаривать нам коробки, "продавать снег эскимосам".
 
 

Цитата:
ибо на момент тестирования у меня были только софтверные

 
Давайте уточним терминологию и приведём её в соответствие с хотя бы с официальной вмварной
 
"железные" iscsi адаптеры делятся на dependent и independent  
 
"ESXi does not support multipathing when you combine independent hardware adapters with either software or dependent hardware adapters." Источник
 
mtu 9000 не поддерживает огромный класс броадкомовских гигабитных чипов (включая iSCSI офлоад чипы) - который активно впаривался с ESX-решениями  
 
 
Добавлено:
 
Я даже теперь умею перевести процитированную фразу: independent iSCSI адаптеры являются полноценными HBA (с полностью реализованным SCSI стеком - и потому предоставляют платформе функцию стораджа, а не сетевухи), а dependent - полагаются на софтверную реализацию iSCSI HBA в ESXi
 
Кажется, что ESXi официально подерживает мультипас только внутри одного сервисного домена SCSI. Или это касается только iSCSI.
Но возможно я ошибаюсь, и понимать сказанное следует иначе. По-моему, имеет смысл протестировать железно-софтверный iSCSI мультипас в раздельной конфигурации (с двумя РАЗНЫМИ iSCSI SAN - которые, по счастью, можно организовать на единственном железном свиче с помощью разных вланов).

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 10:12 18-05-2012 | Исправлено: LevT, 10:53 18-05-2012
murphy2000



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Я даже теперь умею перевести процитированную фразу: independent iSCSI адаптеры являются полноценными HBA (с полностью реализованным SCSI стеком - и потому предоставляют платформе функцию стораджа, а не сетевухи), а dependent - полагаются на софтверную реализацию iSCSI HBA в ESXi  

 
вот у меня именно такое, т.е. даже винда вполне нормально грузится в данного инициатора (диски настраиваются в биосе карточки). броадкомы у меня были раньше, сейчас qlogic.
Правда vmware сама умеет настраивать аппаратные инициаторы, что конечно удобно (3ка не умела). Но само по себе для системы они видятся не как сетевые карты, а как скази девайсы.

Всего записей: 191 | Зарегистр. 19-04-2006 | Отправлено: 10:55 18-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Есть у кого-то опыт с прямым доступом гостей к SAN таргетам, или хотя бы свежечитанные доки в голове? Интересуют тонкости, в первую очередь мультипас. Сгодится статья какая-нибудь.
 
VMFS содержит несколько виртуалок, в т.ч. Veeam прокси и репозиторий. Таргет с этим луном светится на двух порталах, всё работает как Active-Active (Round Robin). Маршрутизация на хостах основана на загрузке физических линков.
 
Как лучше организовать мультипас в госте? Почему-то мне кажется, что раунд робин будет перебором (приведет к лишнему флипанью путей). Или я неправ?

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 09:37 21-05-2012 | Исправлено: LevT, 09:39 21-05-2012
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
Есть у кого-то опыт с прямым доступом гостей к SAN таргетам

Что имеешь под этим вопросом? Есть много способов сделать это, лично пробовал 2 штуки.

Цитата:
Как лучше организовать мультипас в госте?

Попробую описать оба способа, с чем имел опыт, а решать вам:
Способ №1: iSCSI прокидываем через LAN. Если ESXi имеет выделенные интерфесы для iSCSI, не беда, на них вешаем виртуальные сетевые карты для виртуалки. Плюс: независимость от виртуализатора. Минус: только программный инициатор, нагрузка на проц., плохая производительность. Мултипас зависит от системы гостя (ПО).
Способ №2: RDM. Плюс: любой протокол. Минус: PR при RR работает не совсем правильно - кластер SQL не разваливается но с данными происходит чихорда. При MRU если устройство переедит на другой путь, гость его всё равно потеряет - робот у библиотеки может отдаваться через любой магнитофон.

Всего записей: 957 | Зарегистр. 01-09-2003 | Отправлено: 10:20 21-05-2012 | Исправлено: Oleg_Kurilin, 10:20 21-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Oleg_Kurilin
 
Я тебя почти не понимаю: слишком разная база (у тебя опыт с более-менее брендовыми железками, у меня весь опыт с софтовым iSCSI, зато больше теории).
 
Попробую уточнить непонятные пункты.  Прежде всего, я не понимаю твоего противопоставления способов. Каким боком может получиться RDM в заданном случае:

Цитата:
VMFS содержит несколько виртуалок, в т.ч. Veeam прокси и репозиторий.

 
Для способа №2 - что такое "PR при RR"?  
 
 
Мой вопрос был целиком про способ №1. У меня выделенные под iSCSI портгруппы распределённого свича, каждая в отдельном влане.  Физических гигабитных линков всего два. Под iSCSI выделена доля пропускной способности по каким-то авторитетным рекомендациям.
 
ESX балансирует сторадж-пути в зависимости от загрузки физических сетевух. Теперь я добавляю по тем же линкам гостевые сторадж-пути. Не могу предсказать последствия разных алгоритмов клиентского мультипаса, тут твой опыт очень помог бы - но при условии, что мы друг друга поймём ))

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 14:40 21-05-2012 | Исправлено: LevT, 14:41 21-05-2012
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
Под iSCSI выделена доля пропускной способности по каким-то авторитетным рекомендациям.  
ESX балансирует сторадж-пути в зависимости от загрузки физических сетевух. Теперь я добавляю по тем же линкам гостевые сторадж-пути.

Вот тут и заключается концептуальный ньюанс: ESX балансирует своими ресурсами, гость своими. Для этого надо создать именно столько виртуальных сетевых адаптеров (для iSCSI гостя) сколько используется путей (грубо сколько физических iSCSI портов), и сделать сопостовление оных при помощи Active Uplink в Failover Order.
 
ЗЫ

Цитата:
Прежде всего, я не понимаю твоего противопоставления способов. Каким боком может получиться RDM в заданном случае:
Цитата:
VMFS содержит несколько виртуалок, в т.ч. Veeam прокси и репозиторий.

Ну как спросил, так я и ответил. Доступ гостей к SAN таргетам можно сделать при помощи RDM, а вот описание среды какое-то жидкое, его очень трудно привязать к вопросу.

Цитата:
что такое "PR при RR"?

persistent reservation и Round Robin

Цитата:
но при условии, что мы друг друга поймём

Давай тренироваться выражаться понятнее.

Всего записей: 957 | Зарегистр. 01-09-2003 | Отправлено: 15:22 21-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Oleg_Kurilin

Цитата:
Для этого надо создать именно столько виртуальных сетевых адаптеров (для iSCSI гостя) сколько используется путей (грубо сколько физических iSCSI портов), и сделать сопостовление оных при помощи Active Uplink в Failover Order.  

 
vNic-то я разумеется создал по этой твоей программе еще до того, как тут спросил. Гость цепляется к обоим таргет-порталам нормально и лун видит.  Ты имеешь в виду - создать для гостевых адаптеров отдельные портгруппы на (d)vSwitch-e для каждого физ.линка? Так я пока не делал.  
 
 

Цитата:
Давай тренироваться выражаться понятнее.

 
Тут к сожалению не всё зависит от нас. Ты мои слова можешь интерпретировать только в контексте своего опыта, и наоборот.  
Учебника по нашей теме (носителя отчуждённого опыта) "выучи такие-то термины и делай раз-два-три" пока не существует. Все более-менее годные мануалы написаны вендорами и потому, имхо, заслуживают недоверия.
 
Я сам очень стараюсь не создавать шума, не рвать и без того тонюсенький слой общих представлений.  
 
Извиняюсь за то, что, задавая вопрос, сам выпал из фокуса темы. Забыл, что route based on physical NIC load - по сути не имеет отношения к конфигу iSCSI с Unused никами. Конфиг хостов у меня правильный и давно рабочий.

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 16:26 21-05-2012
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT
Я кажется понял суть вопроса, ключевое слово target, а его пробросить невозможно, HBA пожалуйста, LUN пожалуйста. И я думаю это логично.

Всего записей: 957 | Зарегистр. 01-09-2003 | Отправлено: 06:32 22-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Мне кажется, вчера ты был к сути вопроса ближе.  
 
Добавлено:
Oleg_Kurilin
 
Давай попробуем всё-таки согласовать представления и пойдём "от невозможного". С последним твоим постом я согласен: таргет проборосить  невозможно, а именно потому, что хост ESXi не является узлом SAN-таргета.
 
Если физ.сетевое железо отдано ESXi, то узлы-инициаторы SAN на этом железе могут  быть и вмварным (хостовым), так и гостевыми. А вот SAN-таргеты могут быть только гостевыми. Потому, что ESXi не реализует таргет-стека.  
 
Добавлено:
 
Вчера я подумал. что ты предлагаешь посвятить iSCSI, в дополение к портгруппам  аплинков хостовых всвитчей (созданным по стандартным гайдам для софтового ESXi-инициатора), аналогичные портгруппы для гостевых инициаторов.
 
Я ошибся?

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 08:32 22-05-2012
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
Если физ.сетевое железо отдано ESXi, то узлы-инициаторы SAN на этом железе могут  быть и вмварным (хостовым), так и гостевыми. А вот SAN-таргеты могут быть только гостевыми. Потому, что ESXi не реализует таргет-стека.

Совершенно согласен, но порекомендовал бы поработать над формулировкой, всё это можно сказать намного проще.

Цитата:
Вчера я подумал. что ты предлагаешь посвятить iSCSI, в дополение к портгруппам  аплинков хостовых всвитчей (созданным по стандартным гайдам для софтового ESXi-инициатора), аналогичные портгруппы для гостевых инициаторов.

Аналогичные, параллельные, совместные, и т.д., и пр. Формулировка может сбить с толку, суть в том, что и гостю доступны различные пути (не обязательно совпадающие с путями в ESX).
Немного о этимологии слова "посвятить", снова религия померещилась

Всего записей: 957 | Зарегистр. 01-09-2003 | Отправлено: 15:43 22-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Совершенно согласен, но порекомендовал бы поработать над формулировкой, всё это можно сказать намного проще.  

 
Как же именно можно сказать проще? Боюсь, что только  с использованием вендорского  жаргона и-или с нарушением моего принципа.
 
Я стараюсь исключить любые предположения об опыте аудитории. Если читатели недопонимают использованные слова, можно узнать их значения из иных источников. Если возникает когнитивный диссонанс - значит, мозги загажены вендорским бла-бла-бла (и нет никакой надежды на взаимопонимание с жертвами иных вендоров).  Тем самым я поощряю уточняющие вопросы и выработку общего для присутствующих словаря.
 
 

Цитата:
снова религия померещилась  

 
У меня словарный запас богатый ))
И я не стесняюсь разнообразить речь, говоря на общие темы. (Но ни в коем случае это не распространяется на техническую терминологию: тут я стараюсь выбирать лучший термин, адекватный своим представлениям на текущий день.)
 
В данном случае использован банальный перевод:  посвященный <--> dedicated (и он притом имхо точнее, чем "выделенный").
 
 
Добавлено:

Цитата:
Формулировка может сбить с толку, суть в том, что и гостю доступны различные пути (не обязательно совпадающие с путями в ESX).  

 
Меня сейчас как раз интересует случай совпадающих физических путей от хоста и гостя к одному и тому же луну.
 
Инициаторы хоста и гостей ничего не знает о настройках мультипаса друг у друга. Какого рода проблемами чреват выбор тех или иных настроек? Естественно, предпочтительно выжать максимум (актив-актив повсюду).

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 22:35 22-05-2012 | Исправлено: LevT, 22:58 22-05-2012
slavpa



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
Цитата:
В данном случае использован банальный перевод:  посвященный <--> dedicated (и он притом имхо точнее, чем "выделенный").  
imxo не точнее, в технике именно "выделенный, специальный, назначенный"
посвященный  - это в другом контексте (эта песня посвещяется и т.д...).
 

Цитата:
Меня сейчас как раз интересует случай совпадающих физических путей от хоста и гостя к одному и тому же луну.  
Инициаторы хоста и гостей ничего не знает о настройках мультипаса друг у друга. Какого рода проблемами чреват выбор тех или иных настроек? Естественно, предпочтительно выжать максимум (актив-актив повсюду).  

 
Можешь пояснить зачем такое нужно и что это дает? Зачем мешать разные уровни с одной зачей?
Или я что то недопонял.

Всего записей: 2010 | Зарегистр. 05-02-2003 | Отправлено: 23:45 24-05-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Физических линков мало, по разным причинам - экономическим и эстетическим.  Не люблю когда много возможностей что-то физически поломать из-за собственной неаккуратности.
 
У меня например один из ESXi в десятках метров от серверной подключён двумя гигабитными линками. Железо хоста очень добротное, терять такой ресурс не хочется. 10GbE у меня на трехметровой оптике, через перекрытия дотянуть такую нереально.
 
По этим двум линкам гуляет вообще всё.
 
Вчера моя циска 3750 (единая точка отказа, конфиг которой я всё усложнял) наконец взбрыкнула и потеряла iSCSI вланы. Я был вынужден переползти на 10GbE SAN не дожидаясь свича. Луны на нексенте зацепились, достаточно проассоциировать существующий iqn-таргет с новой таргет-портал-группой.  
 
Сервак тот остался сиротинушкой, выключил его покамест, до тех пор, пока не разрулю гигабит.
 
 
Добавлено:
 

Цитата:
imxo не точнее, в технике именно "выделенный, специальный, назначенный"  
посвященный  - это в другом контексте (эта песня посвещяется и т.д...).  
 

 
имхо, это сдача позиций русского языка накокаиненным пидарам из СМИ и доширачным студентам-филологам, которых нанимают вендоры переводить свои доки.

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 09:56 25-05-2012 | Исправлено: LevT, 09:57 25-05-2012
OOD

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите пожалуйста  VMware ESX Server 4.1.0 как её пролицензировать, нужна ли вобще лицензия?

Всего записей: 3378 | Зарегистр. 20-05-2006 | Отправлено: 15:05 25-05-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru