Перейти из форума на сайт.


Система IP-видеонаблюдения "Линия". Скачать бесплатную демо-версию для 16 камер. НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mac_prepress

Цитата:
тоесть касается nfs, я пока тоже туда ушел  
дешего и сердито, нету надобности 24/7  

 
Я-то как раз не собираюсь совсем уходить на нфс. Просто есть такой ресурс под рукой, иногда полезен.  
А вот подлаживаться под ограничения не люблю, люблю, наоборот, их снимать для своего удобства.  
 
Добавлено:
Dimsoft

Цитата:
4) прицепил iscsi к каждому адаптеру (один и тот же но по разным IP  
5) в путях сказал Vmware robin round  

 
Смысл мультипаса в том, что количество коннектов между инициатором и таргетом может быть равно количеству активных путей.  
 
По одному коннекту скорость так и будет равна скорости одного коннекта )
 
 
Добавлено:
 
(мелкософтовский инициатор может ещё ВМЕСТО мультипаса поднимать несколько сессий по единственному коннекту, за вмваре я такого не знаю)

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 23:03 17-01-2012 | Исправлено: LevT, 23:13 17-01-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Смысл мультипаса в том, что количество коннектов между инициатором и таргетом может быть равно количеству активных путей.  

LevT
а как проверить переделать ?
у меня в свойствах этого "диска" горит два активных IO
 
Добавлено:
проверил туже хранилку но по NFS - синхронная запись просто убивает
 
           Sequential Read :   113.249 MB/s
          Sequential Write :    27.971 MB/s
         Random Read 512KB :   109.281 MB/s
        Random Write 512KB :    28.210 MB/s
    Random Read 4KB (QD=1) :    18.672 MB/s [  4558.6 IOPS]
   Random Write 4KB (QD=1) :     0.509 MB/s [   124.3 IOPS]
   Random Read 4KB (QD=32) :   111.936 MB/s [ 27328.0 IOPS]
  Random Write 4KB (QD=32) :     0.208 MB/s [    50.7 IOPS]
 
  Test : 1000 MB [F: 0.2% (0.1/40.0 GB)] (x5)

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 23:14 17-01-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
я так понял надо хранилку ковырять ? на предмет ускорения  
(там сейчас 6 по 1Тб sata WD Green в RAIDZ1 +  dedup)

 
Дедупу надо много памяти.
Очень сильно ускоряют дело кэши zil и l2arc.  
 
После того, как я обзавёлся кэшами, я окончательно успокоился насчет производительности. Работа виртуалок меня устраивает, теперь качественного прироста ожидаю только от перехода на 10GbE.
 
(Беспокоит меня не скорость, а недостаточные гибкость и управляемость, недостаток собственных знаний и умений, чтобы воспользоваться наличными ресурсами. Вот, ковыряю... )
 
И кстати, сеть гигабитную надо тюнить. Включить повсеместно mtu 9000, а заодно flowcontrol на хостах и хранилищах tx, на свичах rx.
 
 

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 23:25 17-01-2012 | Исправлено: LevT, 00:03 18-01-2012
mac_prepress

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
2Dimsoft, WD Green в хранилке - это не через чур экономно?
 
2LevT, round robin в локальной зоне?  
А он вообще разве так работает? Не будет нфс по нему в (n-1)/n случаях обламываться?  
да он ваще обламывается, если чото не по его :)

Всего записей: 134 | Зарегистр. 15-01-2008 | Отправлено: 23:27 17-01-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
WD Green в хранилке - это не через чур экономно?

mac_prepress
 
вообще то это хранилка для backup просто на ней тренируюсь (тк) скорость по NFS не устраивает

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 23:31 17-01-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
проверил туже хранилку но по NFS - синхронная запись просто убивает  

 
У меня тоже по NFS работает медленнее субъективно, чем по iSCSI. До синтетических тестов я не дорос, меряю производительность на ощупь.  
 
Запись на CIFS шару в моей первой оракловой хранилке (виртуализованной и нетюненной) была 8МБпс, cейчас типа 60-80 МБпс (в зависмости от того, виртуализованная она через пастру или физическая).  
 
Клонирование виртуалки на NFS датастор было и остаётся раза в полтора медленнее, чем на iSCSI.
 
 

Цитата:
а как проверить  

 
Запустить одновременно десяток Win 2008 серверов с разных клонов одного снапшота )))
 
 
 
Добавлено:
снапшота я имею в виду зфсного, а не вмварного

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 23:35 17-01-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
если делаю два вКоммутатора то пишет на каждый lun по 1 коннекту, а как сделать чтобы удвоение включить ?

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 23:41 17-01-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Броадкомовский инициатор железный, я с ним дела не имел. Кстати, краем мозга вспоминаю, что он не поддерживает mtu 9000.  (tg3 сетевушки у меня есть и точно его не поддерживают).
 
В софтовом инициаторе самая важная вторая вкладка Network Configuration. Туда надо добавить все годные vmk.  Негодные он не даст добавить.
 
 
 
 
Добавлено:

Цитата:
ли делаю два вКоммутатора то пишет на каждый lun по 1 коннекту, а как сделать чтобы удвоение включить ?

 
не факт, что это возможно. Удвоение достигается за счет параллельной работы с разными лунами.
 
 
Добавлено:
 
 
The secondary goal of multipathing is performance, but it’s a far, far second.  SAN administrators are so conservative, they make database administrators look like gambling addicts.  They’re perfectly comfortable leaving half or more of the infrastructure completely unused.
 
http://www.brentozar.com/archive/2009/05/san-multipathing-part-2-what-multipathing-does/

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 23:46 17-01-2012 | Исправлено: LevT, 00:12 18-01-2012
mac_prepress

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
у меня на nfs по сетке гигабит
скорость меняется только если вкл/выкл кеша на контроллере
все 100% виртуализированно, отдаю линухом nfs шару
контроллер старый (окурат не упирается в гигабит)
упирается в контроллер
 
Добавлено:
p.s конроллер может и дунул бы больше :)
диски не 15k

Всего записей: 134 | Зарегистр. 15-01-2008 | Отправлено: 00:41 18-01-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
отдаю линухом nfs шару

mac_prepress
у меня solaris у него синхронная запись хромает, а асинхронную боязно включать
 
Добавлено:

Цитата:
По одному коннекту скорость так и будет равна скорости одного коннекта

LevT
 
проверил локально с помощью dd  
 
10.24 GB in 10.9s = 939.45 MB/s Write
 
в свойствах storage пишет путь:2

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 07:29 18-01-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Dimsoft
 
Или я не понимаю о чем ты, или проверял ты на самом деле запись в локальной памяти. Оси достаточно умны, чтобы обходить сетевые стеки при локальном IO.
 
Я проверял в декабре через dd свой сторадж по реальному 10GbE линку. Было типа 600-700МБпс.  Правда запись из /dev/zero тоже не показательна - из-за компресссии и кэшей.
 
В общем, я давно решил что скорость дело наживное и достигается путем постепенных инфраструктурных улучшений там и сям. Мне нужны гибкость и "робастность" подручной инфраструктуры, чтобы не ограничивать себя несуществующей на деле якобы несовместимостью гетерогенных компонентов. А вот без проприетарного разгона - закрытого от изучения и модификации - я проживу вполне счастливо. (Потому что стрёмно зависеть от дяди: мне не должен быть страшен вылет любого компонента или подсистемы, или, что то же самое, крах отдельных необоснованных надежд. "Внезапное" обострение копирастии сюда тоже относится.)
 
 
И вдогонку совет по поводу мультипаса между варей и солярой: я создал "таргет портал группу", не включая в неё маршрутизируемый айпишник из LAN.
 
 
 
Добавлено:
 
 
 
http://sqlserverio.com/2010/06/14/the-fundamentals-of-storage-systems-introduction/

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 09:41 18-01-2012 | Исправлено: LevT, 10:24 18-01-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
приехали мирикомы - встали, драйвера на офсайте есть подо все: и под 4.x и под 5.0 и под solaris и windows
вполне себе сетка без IBoIP изысков, но за порт в 4 раза дороже

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 12:43 18-01-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
скачал veem backup 6 на рутрекере.. хочу разобраться как делать бекапы гостей не выключая их.  
делать бекапы хочу пока на сетевую шару..
скажите - его можно ставить на виртуалку ? или надо ставить на хост с вцентром ?
вообще есть какойто бестпрактикс для этой задачи - дайте линк почитать )

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 19:35 20-01-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
GaDiNa

Цитата:
скажите - его можно ставить на виртуалку ? или надо ставить на хост с вцентром ?

На виртуалку ставить можно...он вроде как даже понимает, что на esxi хосте и может напрямую цепляться к его датасторам. И на вЦентр тоже. ИМХО
У себя использую на виртуализированном вЦентре.
 
Бестпрактиса не видел, но вимовцы писали что прямой доступ к СХД сервера Veeam Backup сильно увеличивает скорость, чем если он будет работать через в центр.
 
Отсюда установка на виртуализированный вЦентр решает несколько проблем:
1. Veeam Backup всегда имеет связь с вЦентром, и если работает вЦентр, то работает и Veeam Backup
2. Veeam Backup имеет прямой доступ к СХД.
 
ИМХО

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 20:20 20-01-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LanStateMap
а если у меня нет СХД ? просто есть куча серверов с локальными датасторами, и я хочу бекапить гостей с них, не выключая их при этом..
так получится ? и есть ли смысл при этом ставить Veem на виртуалку с вЦентром ?
чесно говорят подумывал сделать отдельную ВМ для этого..

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 14:07 23-01-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
GaDiNa
А сколько хостов?
Я не знаю как и в каких случаях вим понимает что находиться на esxi хосте и может работать с дадастором напрямую.
Но я думаю для максимальной производительности в вашем случае, имеет смысл ставить отдельные вимы (раз уж он пиратский) на каждый хост и настраивать бекапы на каждом хосте. Иначе если поставить на вЦентр будет использована его сетевая карта и его менеджмент линк к хостам.
 
Хотя для себя я бы все равно ставил на вЦентр. Скорость бекапов мне не так важна как удобство администрирования ИМХО
 
Отдельная ВМ под вЦентр то же вариант. Просто это лишная система, лишная Win лицензия и лишняя нагрузка и т.д. И встает вопрос о канале всязи этой отдельной ВМ  с  вЦентром и его ширине. Если ВМ с вимом и вЦентр на одном хосте, то все окей, а если на разных, то канал может стать узким местом.
 
Такие мысли...

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 15:31 23-01-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LanStateMap
несколько локаций, максимально до 15 хостов в локации.. есть такие где всего пару хостов.. все в одной сфере.
Вот и хочется иметь ОДНУ панель управления бекапами для всех хостов.  
Идея у меня была такая - в каждой локации, а пока только в моей, на одном из хостов сделать отдельную ВМ для Вима.
А потом просто указать какой бекап куда записывать (NFS или обычная шара) и настроить расписание. Конечно хочется чтобы трафик шел исключительно между хостом на котором таргет бекапа и местом куда он бекапится. Если такого функционала нет - весьма грустно..
Ставить Вим на виртуалке на каждом хосте не дело..
В будущем хочу для бекапов собрать самодельный СХД в своей локации, для того чтобы по iSCSI подключить.. ну типа хоть как-то попробовать использовать эту технологию, ибо бюджет пока не дают на норм СХД - слишком много инфраструктуры надо для него если по нормальному делать - и свичи резервировать и питание.. как минимум..
 

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 16:59 23-01-2012 | Исправлено: GaDiNa, 17:01 23-01-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
GaDiNa

Цитата:
Конечно хочется чтобы трафик шел исключительно между хостом на котором таргет бекапа и местом куда он бекапится.

Трафик пойдет между вимом и хостом.
Т.е. в вашем случае могу предположить установку вима на место бекапа, если это WIN машина. И к этому виму цеплять вЦентр и/или отдельные хосты....
Тогда будет одна панель управления бекапом и трафик пойдет между хостом и местом куда он бекапится.
ИМХО
 
А вообще, я вашу топологию себе плохо представляю:
- есть несколько локаций (2-15хостов в каждой), с этим понятно
- есть единый вЦентр в одной из локаций, так?
 
Вопросы:
Какая связь локаций(т.е. хостов в этих локациях) с вЦентром, сколько и каких линий и топология?
Где предполагаемое место хранения бекапов, оно одно или их несколько, его расположение и связи с хостами и вЦентром?

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 21:32 23-01-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
- есть единый вЦентр в одной из локаций, так?  

да, в главном офисе.
 

Цитата:
Какая связь локаций(т.е. хостов в этих локациях) с вЦентром, сколько и каких линий и топология?  

IPSEC тоннели. в каждой локации есть роутер, между ними тоннель, по другу сторону роутеров куча локальных подсеток, одна из которых это виртуалки.
 

Цитата:
Где предполагаемое место хранения бекапов, оно одно или их несколько, его расположение и связи с хостами и вЦентром?  

 
конечно же я планирую создать Backup Repository в каждой из локаций..
Но хотелось бы управлять бекапами из одной консоли.
хотя ничего страшного, а может и лучше будет если в каждой локации будет свой Вим.
 
И таки да, я уже понял, что надо ставить Вим на сервер куда будут складываться бекапы..
Просто думал что както можно в нем указать таргет и трафик пойдет между только между ним и сорсом..

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 23:31 23-01-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
немного потестил Вим.
Поставил его на виртуалку на одном из хостов.
Подключил к отдельному железному компу 1,5Т винт и в Виме создал на его базе Backup Repository. Забекапил виртуалку с одного из ESXi хостов.. Все вроде прикольно так.
Было бы круто если бы Backup Repository можно было создавать на винте который подключен напрямую к ESXi хосту. Прада я чтото не нашел такой возможности.
Тогда бекапить гостей можно было бы в рамках одного хоста - и никаких проблем с производительностью сети при бекапе.
 
А так, видимо надо делать СХД, подключать его ко всем хостам одновременно по iSCSI и лучше по отдельной физической сети, на этот СХД создавать Backup Repository и делать бекапы на СХД.. Вот пока такие идеи.  
Поправьте если чтото неправильно сказал.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 16:21 24-01-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2017

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru