Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
golychev



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
На SSD или рамдрайвах  

 
тоесть SSD sata 3Gb лучше скажем 15K SAS2 6Gb?

Цитата:
Все зависит от нагрузки.  
Если эти ситемы сейчас успешно работают на физ.серверах исходи из этого, меряй нагрузки этих серверов...  
 

 
Сейчас работает все скажем на SCSI RAID5 без виртуализации, вопрос не в том, будет ли также работать, а в том, чтобы уменьшить время чтения/записи в 2 раза хотябы чтоли...
 

Цитата:
а локальные диски и рейды на esx хостах совсем или плохо мониторятся, и выдают не самую оптимальную производительность.  

 
ну с мониторингом это последний вопрос, меня интересует только производительность, потому перефразирую вопрос - что производительнее аппаратный СХД (не знаю моделей для примера) или хороший контроллер на 8х PCI с raid10 из скажем 8ми дисков... и диски 6Gb ... 10тка с 4 параллельными потоками записи/чтения, что может быть быстрее??
 

Цитата:
переносить машины с одной на другую без остановки и т.п.), делать отказоустойчивые конфигурации (запуск машин на втором esx при смерти первого, одновременно работающие виртуалки на двух хостах) и прочие прелести. возможно более удобный баккап образов машин сразу на уровне хранилища.  

 
это все чудесно, но опыт работы с варькой более 3 лет показывает, что городить такое смысла лично для моей компании нет, считаю самым важным:
 
-простота организации
-качественное железо
-стабильное сетевое питание
-кондишка
 
у меня гости без перезагрузки по 2 года работают...
но если СХД позволит увеличить скорость доступа к диску ... буду использовать его.
 

Всего записей: 634 | Зарегистр. 09-02-2005 | Отправлено: 01:23 28-04-2011
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
тоесть SSD sata 3Gb лучше скажем 15K SAS2 6Gb?  

по иопсам - лучще. по линейной - вопрос, зависит от. по надежности - дохнут быстро (и внезапно) под такой нагрузкой. по цене - заметно дороже. по объему - заметно меньше.
 
можно попробовать вариант sas raid+ssd (уже есть даже в достаточно бюджетных контроллерах, от 300 баксов) когда чтение/запись дополнительно кэшируется прозрачно на ssd диск. но пока однозначной практики, по этому решению нет.
 

Цитата:
Сейчас работает все скажем на SCSI RAID5 без виртуализации, вопрос не в том, будет ли также работать, а в том, чтобы уменьшить время чтения/записи в 2 раза хотябы чтоли...  

без реальных цифр сложно понять что там происходит сейчас, и как будет потом.
нужно смотреть статистику.
если окажется что sql сжирает 200 иопсов, а ты построишь рейд/схд которая выдает 150 то у тебя оно и ону виртуалку не потянет, не говоря уж о трех.
 

Цитата:
ну с мониторингом это последний вопрос, меня интересует только производительность,

люблю я таких админов, вот честно. :) после них приходишь и вопрос "зачем переплачивать за надежность" уже не возникает.
 

Цитата:
что производительнее аппаратный СХД (не знаю моделей для примера) или хороший контроллер на 8х PCI с raid10 из скажем 8ми дисков... и диски 6Gb ... 10тка с 4 параллельными потоками записи/чтения, что может быть быстрее??

естественно производительнее отдельная СХД, потому что она 1) маштабируется 2) они бывают очень большие, по два и более 42U шкафов целиком заполненные сверху донизу дисками. да, ты такую СХД никогда не купишь, но раз ты спросил схд - производительнее. :)
 

Цитата:
но если СХД позволит увеличить скорость доступа к диску ... буду использовать его.  

она в первую очередь позволит отделить мух от котлет.
и гибче работать и с тем и другим. например если одной схд (по объему или производительности) тебе будет не хватать ты сможешь в онлайне поменять ее на другую или добавить вторую.
 
а ты все про скорость. один и тот же рейд, будь он стоящим в самой esx, или будь в отдельной машине - даст примерно одинаковую скорость (за исключением отсутствия дисковых кэшей в памяти, если он в esx).
но с рейдом ты ограничен 1) слотами в машине 2) количеством дисков которые можно в нее поместить, 3) производительностью шины этой машины, а с внешним(-ними) СХД можно делать любые извраты, какие только позволит тебе твоя фантазия.
 
так что ответ на твой вопрос - одно и то же железо даст одинаковую скорость, но СХД предполаает большую гибкость.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 01:42 28-04-2011
golychev



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
люблю я таких админов, вот честно. после них приходишь и вопрос "зачем переплачивать за надежность" уже не возникает.  

 
это я написал для того чтобы акцентировать внимание на вопросах производительности, и заметь, речь шла о мониторинге а не об отказоустойчивости в целом.
 

Цитата:
естественно производительнее отдельная СХД, потому что она 1) маштабируется 2) они бывают очень большие, по два и более 42U шкафов целиком заполненные сверху донизу дисками. да, ты такую СХД никогда не купишь, но раз ты спросил схд - производительнее.  

 
если скажем поставить win2008 + starwind с 10тым рейдом и 8 гигами мозгов, будет ли она работать как iSCSI таргет с 8ГБ кешем? или просто как железный рейд в самом ЕСХ? и какого размера сетевой линк должен их связывать?
 

Цитата:
естественно производительнее отдельная СХД, потому что она 1) маштабируется 2) они бывают очень большие, по два и более 42U шкафов целиком заполненные сверху донизу дисками. да, ты такую СХД никогда не купишь, но раз ты спросил схд - производительнее.  

 
я имел ввиду соизмеримые со стоимостью простого рейда.

Всего записей: 634 | Зарегистр. 09-02-2005 | Отправлено: 02:09 28-04-2011
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
это я написал для того чтобы акцентировать внимание на вопросах производительности, и заметь, речь шла о мониторинге а не об отказоустойчивости в целом.  

ну уж и попередергивать нельзя.
но в целом мониторинг нагрузки и здоровья - это важная часть практической реализации надежности.
 

Цитата:
если скажем поставить win2008 + starwind с 10тым рейдом и 8 гигами мозгов, будет ли она работать как iSCSI таргет с 8ГБ кешем? или просто как железный рейд в самом ЕСХ?  

ничего не могу сказать про win, ге приходилось делать.  вероятно.
под linux существуют варианты с кэшированием.
 

Цитата:
и какого размера сетевой линк должен их связывать?  

необходимой тебе ширины. какова ширина, ни кто кроме тебя самого не скажет.
по моим личным наблюдениям одного гигабита вполне себе хватает. у меня 4г файбер, но пиков больше гигабита к одной esx почти не бывает. но у тебя может оказаться все по другому.
 

Цитата:
я имел ввиду соизмеримые со стоимостью простого рейда.

они никогда не бывают соизмеримыми.
в esx тебе (по деньгам) надо купить только контроллер+диски (+батарейка).
СХД на базе компа и софтового таргета как минимум требует покупку еще и этого компа.
отдельные покупные СХД так вообще стоят минимум от 5-10 тыс.долл.  
а может ты соберешь такой же из линуха и подручного хлама за 0 рублей да еще и производительнее и гибче покупного?

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 02:21 28-04-2011
golychev



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
 
спасибо за совет, буду думать в общем... а вообще щас есть надежные SSD? чтобы не умирали внезапно.
 
Добавлено:
easyjohn
а не подскажешь еще пару моментов...
 
когда создаешь виртуальный диск для гостей, есть вариант -  
1. Зависимый
2. Независимый
    а. Постоянный
    б. Непостоянный
 
если не трудно расскажи что для чего или просто ссылочку хорошую дай Понятно только то что в одном случае можно юзать снапшоты в другом нет. Но как это все влияет на производительность непонятно.  
 
И еще в ВМках есть галочка типа увеличить скорость между хостом и ВМкой... но там какоето предупреждение... непойму про что.
 
заранее спасибо.

Всего записей: 634 | Зарегистр. 09-02-2005 | Отправлено: 03:20 28-04-2011
Pascal0



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите, можно ли гостевой ОС отдать целиком винт (сата, без рейда),
где то в старых топиках читал что можно, но не могу найти.
И отдать так, что бы он был единственным для неё.
 
При создании гостевой ОС, такого варианта не предлагается.

Всего записей: 31 | Зарегистр. 01-11-2004 | Отправлено: 13:46 28-04-2011
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
а вообще щас есть надежные SSD? чтобы не умирали внезапно.

сложно сказать однозначно.
вообще надежными считаются slc диски типа intel x серии, но они и дороже раза в 3-4 чем анналогичные mlc.
вопрос в том, что ssd имеют исчерпаемый ресурс по записи, по этому хранить на них важные данные довольно опасно. нужно придумывать какие-то схемы регулярного миррора всех данных.  
при этом рейд не особо спасает, ресурс у дисков в рейде расходуется почти синхронно и велик шанс что сдохнут все диски разом.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 14:52 28-04-2011
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
вопрос в том, что ssd имеют исчерпаемый ресурс по записи, по этому хранить на них важные данные довольно опасно. нужно придумывать какие-то схемы регулярного миррора всех данных.  
при этом рейд не особо спасает, ресурс у дисков в рейде расходуется почти синхронно и велик шанс что сдохнут все диски разом.  

я не особо в теме, но встречал разные мнения по этому поводу
http://blog.aboutnetapp.ru/archives/669

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 15:21 28-04-2011
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
я не особо в теме, но встречал разные мнения по этому поводу
http://blog.aboutnetapp.ru/archives/669

- время работы дисков 3-5 лет, ссд же активно ипользуются пока хорошо если год-полтора. по этому еще нет достаточного количества практики по их отказам.
- во всех таких примерах в хранилищах используются самые надежные ssd  диски, топовых линеек.
- выше речь идет о нормальных СХД (netapp, emc), в которых просто больше механизмов для сохранности данных, постоянный контроль целостности, скорее всего дупликация данных дополнительно и на физических дисках и т.п.
 
человек же обсуждваший выше установку рейда прямо в esx явно расчитывает на другой уровень цен. по этому максимум что бы я в такой ситуации рекомендовал - это ssd диск в качестве прозрачного кеша. сгорит - не жалко, никакие данные не пропадут.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 16:17 28-04-2011
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Если бюджетно и быстро, то выделить сервак под СХД и колдуй на нем что хошь:
- Например, на виндовом старвинде можно сделать зеркальный таргет - зазеркалить SSD на HDD.
- В нексенте можно SSD диски использовать как кеш второго уровня, да и фишки RAIDZ будут полноценно работать и на SSD массиве.
- свои варианты....
МЕГАБЮДЖЕТНО - таргет на этом же хосте в ВМ :D
 
НО! Это все шаманство. По-хорошему и диски нужны энтерпрайзные и железо под СХД нужно нормальное, что будет уже сравнимо со стоимостью готового решения.
 
оффтоп
Самое парадоксальное, что оплата труда обратно пропорциональна геморою админа.
С башорга: Если у админа мало работы он получает премию, а если работы много и он не спит по ночам, то он не только не получает премии, но и получает ...лей!
 
Можно на коленке собрать все что угодно и будет работать, вот только фирмы которые экономят на внедрении решений - экономят и на оплате труда :(
 

Всего записей: 481 | Зарегистр. 19-06-2009 | Отправлено: 07:34 29-04-2011
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
подскажите как запустить dmraid.o на материнке Intel DQ57TM
модуль взял на http://www.vm-help.com/esx40i/customize_oem_tgz.php
пробую пишет:
 
Apr 27 14:58:59 shell[8946]: vmkload_mod dmraid.o
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)Loading module dmraid ...
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)Elf: 2082: <dmraid> has implied GPLV2 license
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)Elf: 2187: <dmraid> provides name-space <esx:nover>
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)Elf: 2225: <dmraid> : assuming to be an esx40 module
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 1742: Relocation of symbol <handle_args> failed: Unresolved symbol
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 1742: Relocation of symbol <init_locking> failed: Unresolved symbol
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 1742: Relocation of symbol <libdmraid_exit> failed: Unresolved symbol
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 1742: Relocation of symbol <libdmraid_init> failed: Unresolved symbol
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 1742: Relocation of symbol <perform> failed: Unresolved symbol
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 1742: Relocation of symbol <exit> failed: Unresolved symbol
Apr 27 14:58:59 vmkernel: 0:00:11:37.197 cpu3:9304)WARNING: Elf: 3080: Kernel based module load of dmraid failed: Unresolved symbol <ElfRelocateFile failed>

Всего записей: 2750 | Зарегистр. 17-11-2003 | Отправлено: 08:27 29-04-2011
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
у меня есть предположение, что esxi как-то умеет ограничивать скорость передачи данных по сети в зависимости от того, какой канал подключения.
 
скажем при миграции с одной головы на другую, в пределах одного сегмента локалки, через гигабитный свич, 30 гиговый гость передается минут за 25-30.
если мигрировать его с этой сети на другу сеть, через впн тоннель - скороть резко падает, это очевидно, но ! Скорость падает гораздо ниже самой пропускной способности тоннеля.
Это подтверждается следующей проверкой - параллельно можно запустить еще одно копирование или миграцию другого гостя между этими же головами и можно наблюдать картину как скорость передачи данных возрастает практически в два раза - то есть для второго процесса передачи данных _хватает_ пропускной способности тоннеля.
 
вопрос - почему первый процесс не занимает весь доступный канал ?
это наверняка рулится какими то параметрами или на голове в Advanced Settings или в настройках самой сферы..
Например на голове в доп настройках есть такой раздел - Migrate и в нем есть два параметра:
 
Migrate.SndBufSize = 562140
Min. = 65536
Max. = 1000000
TCP send buffer size for the source
 
и  
 
Migrate.RcvBufSize = 562140
Min. = 65536
Max. = 1000000
TCP receive buffer size for the destination
 
возможно это то, что я ищу.
 
вобщем я попробовал, не прекращая миграции изменить на esxi-сорсе значение Migrate.SndBufSize и на esxi-дестинейшине Migrate.RcvBufSize до 1000000
к сожалению ничего не поменялось - скорость переноса гостя остается на уровне 3-4 мегабит.  
и на закладке Perfomanse на каждой голове участнике чарт Network - параметр Data transmit rate на сорсе и Data receive rate на дестинешине - около 500 Kbps, причем видно что был максимум, который достигал 11200 Kbps в момент когда копировалось два гостя..
 
вот такая задачка.. где бы почитать про эти адвансед параметры и что можно потюнить в этом плане..

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 15:58 30-04-2011 | Исправлено: GaDiNa, 16:04 30-04-2011
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Dimsoft

Цитата:
подскажите как запустить dmraid.o на материнке Intel DQ57TM  

 
Скажи, а у тебя там PCI passthrough работает?  Видео не пробовал гостю отдавать?
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 16:57 30-04-2011
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
кажи, а у тебя там PCI passthrough работает?  Видео не пробовал гостю отдавать?

LevT
работает,  
но после добавления видео VM перестает нормально стартовать:
 
Unable to connect to the MKS: Error connecting to /bin/vmx process ..
 
соседняя VM к которой не добавлял пазтру видео стартует нормально
 
Добавлено:
добавил к Intel DQ57TM контроллер sil3132
добавил в esxi драйвера на него, перевел ICH10R в режим RAID =>
 
не работает  

Всего записей: 2750 | Зарегистр. 17-11-2003 | Отправлено: 18:30 30-04-2011 | Исправлено: Dimsoft, 18:50 30-04-2011
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Dimsoft
ну... я на пасстру чипсетных устройств и не рассчитываю: как мне кажется, они и сами по себе у интела виртуальные едва ли не все.
 
 
http://wiki.xensource.com/xenwiki/XenPCIpassthrough
http://wiki.xensource.com/xenwiki/XenVGAPassthrough
 
По ссылкам теория. Уверен, что если в xen что-то невозможно в принципе, то и от вари не стоит такого ожидать.
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 08:56 01-05-2011
valhalla



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Выкатили первый патч после update1.

Всего записей: 2917 | Зарегистр. 30-10-2001 | Отправлено: 10:42 01-05-2011
TheRealDamir



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ESX(i) и много памяти. Системы c NUMA. Виртуализация MS SQL
Пару вопросов плиз
 
1)Хотим виртуализировать  MS SQL 2008 / 2008 R2
Для ВМ хотим отдать почти всю память сервера- 3*8Gb*2=48Gb. Сервер с 2я CPU Intel Xeon 5620. Как я понял эта системе с NUMA. Будет ли слишком большое падение производительности от того что ВМ будет брать память от разных процессоров?
Также если отдать 6-7 ядер из 8 будет ли падение производительности из-за того что они на разных CPU  
2) Думаем делать кластер для MS SQL 2008 / 2008 R2 причем в ВМ Сильно ли будет падать производительность из-за доступа не через локальные диски (в RAID) а через СХД
Может кто подобное делал, посоветуйте плиз
3) Столкнулся с железячной проблемой Много памяти (48-64 Gb) планками по 4-8Gb DDR3 ECC Reg
Нечем тестировать - обчно использовал тест Memtest86+, а тут самый свежий 4.2 на этих новых системах не пашет. Чем вы тестируете, подскажите плиз? А то у меня система иногда после рестарта теряет 1-2 планки
4) Виртуализация терминального сервера. Какие подводные камни при переносе с реальной машины в ВМ
Кто сталкивался, были вроде отрицательные отзывы. Какие-то советы плиз

Всего записей: 77 | Зарегистр. 05-11-2007 | Отправлено: 20:06 01-05-2011
sadc



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
TheRealDamir

Цитата:
)Хотим виртуализировать  MS SQL 2008 / 2008 R2
Для ВМ хотим отдать почти всю память сервера- 3*8Gb*2=48Gb. Сервер с 2я CPU Intel Xeon 5620

А зачем его тогда виртуализировать? Если все ресурсы хоста  отдаются под одну систему.

Цитата:
4) Виртуализация терминального сервера

Пробовали, ИМХО терминальные системы (системы на Citrix) строить надо только на физике.
 

Всего записей: 677 | Зарегистр. 30-10-2006 | Отправлено: 15:47 02-05-2011
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Пробовали, ИМХО терминальные системы (системы на Citrix) строить надо только на физике.  

сам я citrix давно не использовал, но вот тут немаленький банк использует в виртуалках http://www.vm4.ru/2009/06/bank.html

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 16:33 02-05-2011
sadc



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
easyjohn
Из vm4.ru

Цитата:
Используется ферма Citrix до 1700 пользователей одновременно. Ферму обслуживают 8 хостов, хватило бы 4.
34 ВМ с Citrix.

Классная система, при выходе хотя бы одного из лезвий, теряется четверть фермы.
Что там у них крутится ,один АРМ?
В нашем случае, полностью рабочее место несколько АРМ-ов Microsoft Office.
 
Вот тут много интересных буков:
Оптимизация продуктов Citrix под VMware
Виртуализационный бум, о чем молчат вендоры

Всего записей: 677 | Зарегистр. 30-10-2006 | Отправлено: 17:00 02-05-2011
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru