Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
alm007

Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kharkovmax
не боись)))
сначала побыстрому сделай посекторный бэкап диска на который слил все виртуалки.
желательно средством, которое позволяет подключить, потом, это бэкап к рабочей системе.
я пользую акронис. давно и удачно.
 
Добавлено:
kharkovmax
пока делается бэкап, вкуривай http://code.google.com/p/vmfs/

Всего записей: 357 | Зарегистр. 11-03-2003 | Отправлено: 19:46 10-04-2011
RemComm



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LanStateMap

Цитата:
Недостатка вижу два:
- Необходимость конфигурацииь при добавлении хостов и реконфигурации при изменении параметров самих хостов для достижения оптимальной скорости возобновления всех систем.
- Нет информации кто на каком питающем порте сидит.  

при использовании правильного аппаратного решения - недостаток один - стоимость.
Нет необходимости ре-конфигурирования при добавлении хостов. Есть 4 группы устройств.
 
1 - уровень обеспечения сетей (коммутаторы и роутеры LAN и SAN)
2 - СХД - полки, жбоды, экспешены и прочая. (у меня IBM - стачала пускал в два этапа, но на практике выкурил, что и в один этап - кошерно).
3 - хосты ESX.
4 - хосты vCenter.
 
Информация есть всегда, т.к. порты подключаются непосредственно человеком и прилежно документируется и самостоятельно (без его участия) схема подключения изменяться не должна - иначе применять колдунство против барабашек.
 
Основные эффекты: -15 к содержимому казны. +7 к умению разруливать старт-стопные процедуры.
Побочные эффекты : +2 к крепокости сна и +7 к спокойности сна.
 

Цитата:
У меня ESXi. На них как?  

+2 к грусти и +3 к печали.

Всего записей: 838 | Зарегистр. 30-09-2003 | Отправлено: 00:55 11-04-2011 | Исправлено: RemComm, 00:58 11-04-2011
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
RemComm
Спасибо
 
Мне бы +10 к высыпаемости
и -10 к времени в пути по столице ))

Всего записей: 481 | Зарегистр. 19-06-2009 | Отправлено: 13:16 11-04-2011
DJ_Diablo



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Качаю сейчас 4.1_U1_Feb_2011_ESXi_HD_USB_SDImgeInstlr_Z7550_00031.iso для HP серверов. Задача:
 
Стоять два сервака
 
один HP DL 380 G5 на 4.1.july.2010.esxi.hd.usb.sd.image.installer.cd.583772.005.iso
второй самосбор на vmware.vmvisor.installer.4.1.0.260247.x86.64.iso
 
Ну собственно нужно прокачать их до 4.1 U1
 
Пока на руках есть такие файлы с рутрекера:
update-from-esxi4.1-4.1_update01.zip
VMware-VMvisor-Installer-4.1.0.update1-348481.x86_64.iso
VMware-viclient-all-4.1.0-345043.exe
 
ВЦентра нет. Можно ли обновить до U1 загрузившись с диска?  
 
Или нужно обновлять то что стоит так:
 
vim-cmd hostsvc/maintenance_mode_enter
esxupdate update --bundle /vmfs/volumes/<datastore_name>/<update_file_name>.zip
reboot
 
Заренее спасибо!

Всего записей: 2217 | Зарегистр. 09-08-2007 | Отправлено: 15:12 11-04-2011
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun
разобрался c SNMP...
тестовые трапы и трапы от разных событий в вцентре получаю ..
 
а вот выдернул САТА кабель с одно винта из RAID1 массива - никакого трапа не получил...
это значит, что можно сливать воду и сушить весла ?
никак больше не отследишь состояние контроллера ?
 
как же так выходит - ESXi нормально работает на этом контроллере и определяет его  нормально  
 
000:001:00.0 Mass storage controller: Adaptec ASR-2405 [vmhba2]
 
а вот никаких алертов от него не получает ? я даже в логах ничего похожего найти не могу на предмет отключения одного из винтов в массиве..
 
но куда еще можно посмотреть ?

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 15:23 12-04-2011
Jaba_B_Ta3e



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
GaDiNa

Цитата:
а вот никаких алертов от него не получает  

 
Всё верно. Потому что у 3ware драйвер умеет ругаться о DEGRADED, а у Adaptec`а - нет.
НО! В обоих случаях ESXi ничего не знает о состоянии контроллера, в лучшем случае мы видим только строчки в логе, и это уже огромный плюс.
Зато 3ware очень серьёзно просаживается при нагрузках, вплоть до "Connection to storage lost".

Всего записей: 342 | Зарегистр. 28-11-2005 | Отправлено: 15:37 12-04-2011
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Jaba_B_Ta3e

Цитата:
в лучшем случае мы видим только строчки в логе

даже этого не обнаружил
но !
 
свершилось чудо !
я таки получил доступ к этой инфе с головы! Ехуууууууууу !
 

Код:
 
/vmfs/volumes/4d9cd750-be43a498-6653-001b218759f7/New Folder/cmdline # ./arcconf GETCONFIG 1 LD
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical device number 0
   Logical device name                      : test
   RAID level                               : 1
   Status of logical device                 : Degraded
   Size                                     : 304118 MB
   Read-cache mode                          : Enabled
   MaxIQ preferred cache setting            : Disabled
   MaxIQ cache setting                      : Disabled
   Write-cache mode                         : Disabled (write-through)
   Write-cache setting                      : Disabled (write-through)
   Partitioned                              : Yes
   Protected by Hot-Spare                   : No
   Bootable                                 : Yes
   Failed stripes                           : No
   Power settings                           : Disabled
   --------------------------------------------------------
   Logical device segment information
   --------------------------------------------------------
   Segment 0                                : Present (0,1)      WD-WCARW0971872
   Segment 1                                : Rebuilding (0,0)      WD-WCAPZ2056358
 
 

 
теперь осталось приделать парсер и можно дергать эту командочку из нагиоса )

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 21:52 12-04-2011
Jaba_B_Ta3e



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
GaDiNa
 

Цитата:
Цитата:
в лучшем случае мы видим только строчки в логе
 
даже этого не обнаружил  

 
Только у 3ware.
 

Цитата:
теперь осталось приделать парсер и можно дергать эту командочку из нагиоса )

 
Не может не радовать. Кстати, а как ещё это можно дёргать, чтобы хост по минимуму настраивать? Потому что городить нагиос ради одной только вещи - многовато.

Всего записей: 342 | Зарегистр. 28-11-2005 | Отправлено: 22:12 12-04-2011
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Jaba_B_Ta3e
ну у меня нагиос уже есть и активно используется.
вобщето и задача была - добавить в него esxi сервера, а точнее их RAID составляющие..
 

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 22:20 12-04-2011
kuah



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
сменили настройки ДНС сервера в сетевом подключении сферы 4 и получили алерты на всех хостах "Host connection and power state"
 
вернули настройки, ничего не изменилось, пробовали убрать-добавить хосты, убирать HA, перезапускать сервисы, перегружать хостs - результата нет
поиск решений в сети ничего не дал
может у кого было такое?
как бороться?
 

 
update: обновил vSphere до последней версии и проблема ушла

Всего записей: 260 | Зарегистр. 16-05-2005 | Отправлено: 09:32 13-04-2011 | Исправлено: kuah, 16:18 13-04-2011
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
подскажите как лучше реализовать - с помощью vCLI или vMA следующую задачку.
Есть несколько ESXI серверов, с них нужно регулярно, примерно раз в 5 минут снимать результат выполнения одной команды.
так же нужно парсить этот вывод и както передавать в нагиос, но это я наверное сам решу..
вопрос в том как лучше всего автоматизировать запуск этих команд и получать от них вывод..

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:57 13-04-2011
nospher



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
GaDiNa
А можно по подробнее как ты получил этот доступ с головы?
 
А может тебе cron'om выполнять эту команду и слать логи, или потом их цеплять по фтп?

Всего записей: 32 | Зарегистр. 06-08-2008 | Отправлено: 14:24 14-04-2011
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nospher
 

Цитата:
./arcconf GETCONFIG 1 LD  

 
все дело в портированой версии родной адаптековской утилиты.
основная проблема была в том чтобы запустить эту утилу на ESXi платформе.  
она требует для работы одну либу и небольшого патчинга.
 
 
все таки, кто подскажет - как лучше снимать вывод этой утилиты с ESXi
например я могу запускать ее в кроне и перенаправлять вывод в некий лог-файл:
 
 > /var/log/out.log
 
но как мне этот файл передавать на обработку парсеру..
 
или как вывод утилиты перенаправить в /var/log/messages - тогда можно будет  настроить remote syslog. правда там будет очень много лишнего

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 18:49 14-04-2011
Alexandrnew

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
есть два esx сервера, на них стоят адаптеки 3405 и 5405, каждый с батарейкой, установлены adaptec store manager - на винде последний, на 1 сервере более старый, на втором - последний rpm, раньше работало, а сейчас перестало показывать процент выполнения работ (verify\rebuild и тд), с чем связано - понять не могу.... посему на втором и обновил, стояли одинаковые рпмки...  
кто подскажет с чем может быть связано? куда копать?

Всего записей: 583 | Зарегистр. 30-04-2003 | Отправлено: 19:05 14-04-2011
TheRealDamir



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Есть задача сделать 2 узла устойчивых к падению одного из них
Подскажите куда копать плиз
 
С серверами на которых ESX(i) более менее понятно
Как сделать СХД таким устойчивым пока не ясно
Как сделать чтобы VC был устойчив тоже не очень понятно
 
Узлы планируется соединить по 10Gb
В СХД тоже по 1 порту 10Gb
 
По оборудованию кто-то сориентировать может
Тк даже непонятно какие сетевые 10Gb брать с учетом того что в свичах 10Gb SPF+ (расстояние 5-10м сетевая-свич)

Всего записей: 77 | Зарегистр. 05-11-2007 | Отправлено: 00:35 17-04-2011
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Как сделать СХД таким устойчивым пока не ясно  

см. для справки http://communities.vmware.com/thread/303763?tstart=0
 
насколько знаю, можно сделать относительно дешево используюя программные хранилища (например starwind или вроде даже microsoft iscsi target так умеет),
или заплатить много денег за соответствую лицензию\надстройку над системой хранения, производители серьезных СХД предлагают такие решения.
 

Цитата:
Как сделать чтобы VC был устойчив тоже не очень понятно  

если очень надо, то есть специальная кластерная служба - VMware vCenter Heartbeat.  
 
да и просто Microsoft Failover CLuster вроде можно приспособить.
 

Цитата:
В СХД тоже по 1 порту 10Gb

один порт нехорошо - точка отказа.
 
 


----------
Книга "Администрирование VMware vSphere".
Блог про виртуализацию.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 00:47 17-04-2011 | Исправлено: Michigun, 00:47 17-04-2011
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Есть задача сделать 2 узла устойчивых к падению одного из них
Подскажите куда копать плиз
С серверами на которых ESX(i) более менее понятно  

ну так задачу "сделать два узла с падением одного" ты с помощью esx и решаешь.

Цитата:
Как сделать СХД таким устойчивым пока не ясно  

это отдельная задача. в самом примитивном варианте решается скажем на линухе с помощью drbd, в более продвинутом - узлы хранилища собираются выше уровнем узлами в зеркало, дублируются,  делаем до них мультипас и экспортируются вычислительным узлам (esx).
только это уже отдельная задача, в которой может использоваться масса разных устройств и хостов.

Цитата:
Как сделать чтобы VC был устойчив тоже не очень понятно  

в этом нет необходимости, вариант "падения одного из esx" второй запускает на себе машины первого без VC, с помощью агентов, а там и VC среди виртуалок запустится.

Всего записей: 481 | Зарегистр. 15-03-2005 | Отправлено: 13:43 17-04-2011
valhalla



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
В пятницу на vSphere 4 была поставлена чистая Ubuntu 10.0.4 64 бит без VMWare Tools и оставлена в таком состоянии.
Сегодня обнаружил в Performance, что:
- загрузка процессора - пила от 25 до 100% (C3000, сервер BL 460 G1 CPU Cores - 4CPUs x 2.5 GHz, 12 Gb)
- данная VM что-то передает со скоростью 2000000 KBps (т.е. 2 Гигабайта/с на гигабитном Ehternet).
- на MSA 2312i (iSCSI) отъедает 200 тыс IOPs (хотя до этого при дикой нагрузке маленькими файлами видел максимум - 2,2 тыс. IOPs), наблюдаются тормоза других VM на этом же хранилище.
И все это на чистой свежепоставленной VM.
Есть ли разумной объяснение?

Всего записей: 2917 | Зарегистр. 30-10-2001 | Отправлено: 15:20 17-04-2011 | Исправлено: valhalla, 15:20 17-04-2011
BbIPODOK

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Добрый день.
Имеется HA кластер из 2-х esx 4.1 с общим SAN.
Поднят MSCS на windows 2008 R2.
В документации советуют при создании MSCS на разных узлах использовать RDM.
Почему нельзя использовать vmdk, созданый с помощью опции "Support clustering features such as Fault Tolerance"?
Сейчас появилась проблема - при непонятных обстоятельствах на обоих узлах mscs видны общие диски одновременно, кластер валится.

Всего записей: 12 | Зарегистр. 04-12-2007 | Отправлено: 11:13 18-04-2011
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Почему нельзя использовать vmdk, созданый с помощью опции "Support clustering features such as Fault Tolerance"?  

потому что VMware не будет это поддерживать.

----------
Книга "Администрирование VMware vSphere".
Блог про виртуализацию.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 12:27 18-04-2011
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru