Перейти из форума на сайт.


Система IP-видеонаблюдения "Линия". Скачать бесплатную демо-версию для 16 камер. НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
alex sikorsky

Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
zeliboba

Цитата:
Еще такой вопрос: скачать VMware-VMvisor-Installer-4.1.0.update02-502767.x86_64.iso перед окном приветствия установки пробегает что то красным шрифтом (не успеваю даже посмотреть), выходит окно "нажмите ентер", но сервак глухо висит.

 
Насколько я помню где-то в те времена в установщике была багофича - не работали PS/2 клавиатуры. Выглядело, действительно, как глухой висяк, попробуйте USB'ную клаву.

Всего записей: 225 | Зарегистр. 11-12-2006 | Отправлено: 14:41 05-02-2012 | Исправлено: alex sikorsky, 22:34 05-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Тоже склоняюсь к мысли, что надо заводить PowerCLI в качестве обязательного элемента инфры. Можно сразу взять за правило устанавливать вместе с вцентром.
 
Другое дело, что на этапе инвентаризации физ. ресурсов и когда человек еще не набил руку с инсталлятором ESXi, это перегруз мозга. Для этого этапа больше подходит освоение клиента IPMI View и установки систем через него на физ. сервера.

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 14:46 05-02-2012 | Исправлено: LevT, 14:47 05-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
В общем обновился я по 5 версии, подписка еще действовала на момент выхода 5 версии. Поставил 5 и без висяков сервака на 4 при установке с ps/2 клавой и крысой. По поводу IPMI все работает, хотя на 4 работало только как View. Вот только не могу понять в чем у меня засада с флешкой? При установке выбрал USB свою, все поставилось без ошибок. Перегружаю сервак, а грузится с флешки он не хочет, черный экран и в верхнем-левом углу моргает курсор и все на этом. Поставил на винт - все в норме. Сижу гуглю.

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 15:16 05-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

На всякий случай: в биосе выберите явным образом эту флешку в качестве загрузочного "НDD". Могут мешать недоделанный искусственный интеллект (Removable Devices, USB Keys) вкупе с эмуляцией USB устройств IPMI контролером (Remote Media).

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 15:41 05-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Переставил еще раз на нее же, все пошло. хз, да и ладно, лишь бы работало.
Я может не в ту ветку пишу, если что направьте - как мне мониторить мой железный Адаптек из под ВМ, что бы софт от него мог уведомления на мыло слать, к примеру?

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 15:56 05-02-2012 | Исправлено: zeliboba, 16:57 05-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 инфинибанд  и эзернет (любой) - РАЗНЫЕ технологии


Цитата:
кабеля и разъёмы могут быть одинаковыми

 
LevT
 
Да, говорили про две темы:
1) дешевые карточки по 22$ на ebay MELLANOX INFINIHOST MHEA28-XTC DUAL PORT 10GB/s NEW
на них у меня получилось только IPoIB под windows и все
 
2) дешевый (но дороже перного) 10G ethernet - MYRICOM "10G-PCIE-8A-C" 10GB NETWORK ADAPTER CX4 - по нему вопросов вообще нет - работает везде и esxi 4,5 и solaris и windows, НО карточки в 4 раза дороже и 1 портовые.
 

Цитата:
IPoIB солярка не хуже винды должна отдавать

Я это еще не пробовал - у меня на 5 карточек 1 кабель CX4 . С Китая 7 штук идут, да все никак не доберутся до меня.
 
Основная задача у меня - хранилку для 1-2 ESXi с линейной скоростью побольше (на 1G за ночь не успеваю сделать backup).
 
Первая попытка была SAS target - не удачно
Вторая попытка IB - ESXI не завелся, Solaris еще не пробовал
Третья ethernet - тут все ок, скорость под 500 мегабайт. НО экономически не нравится.
Сейчас жду кабели и буду проверять схему ESXI - DGS3120-24 - ESXI

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 23:06 05-02-2012
flysats



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
С mellanox поосторожней - карты до первого коннектикса поддерживаться 5кой не будут!
только если пробрасывать внутрь - что согласитесь совсем не одно и тоже...

Всего записей: 67 | Зарегистр. 28-02-2003 | Отправлено: 01:51 06-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
http://www.starwindsoftware.com/forums/starwind-f5/starwind-combine-ssd-and-sas-storage-t2567.html
Одна из идей комбинирования обычных дисков с твердотельными на базе старвинда
 
Т.е:
- имеем обычный файл сервер с виндой и нормальным рейдом, какой имеется в любой организации
- даем ему в пару любой сервер или пк с SSD дисками. Ставим винду и объединяем SSD в виндовый страйп
- ставим на оба сервера Starwind и поднимаем HA между файлом на первом и на втором сервере
- в ESXi настраиваем путь к первому(SAS) резервным, ко второму(SSD) основным
 
В итоге получаем отказоустойчивую СХД, в режиме activeSSD-passiveSAS.  
Первый сервер в большинстве организайций уже есть, а нагрузка на нем будет мала, если используется преимущественно чтение с СХД. Из вложений остается лицензия на starwind, какой-нибудь сервер или ПК и собственно сами SSD под хранилку, ну и доп.сетевые линки, если не хватит существующих.
 
Ваше мнение?

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 08:30 06-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
С mellanox поосторожней

flysats
к сожалению покупались во времена esxi 4.0  
 
а новые меланоксы они дорогие
 
проще на чистый ethernet 10G перейти.

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 10:30 06-02-2012
Starshark2007

Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
А при уставновке LVM не надо знать, что это такое, и адекватно оценивать последствия принятого решения?

 
О чем Вы?
Я Виндозник  и никакого LVM в установке OF не упоминается никаким боком. Просто "Выберите место для хранилища" - всё!
 

Цитата:
От "железных" рейдов избавляет только ZFS, афаик

 
Дык в том то и цимес, что не нужно избавляться от железного рейда если он есть и работает. Зачем же отказываться от специального железа, кешей, батареек, софта итп?
Сдохнет?  - Бекапы есть. Согласитесь без бекапов никуда.

Всего записей: 338 | Зарегистр. 03-02-2006 | Отправлено: 13:53 06-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
О чем Вы?  
Я Виндозник  и никакого LVM в установке OF не упоминается никаким боком. Просто "Выберите место для хранилища" - всё!  
 

 
О том например, что вмваре конвертер неспособен сконвертировать lvm-разбитый диск в thin provisioned.  (Для тех линуксоидов, у которых рука набита управляться с lvm, не проблема отмиррорить содержимое на тонкий диск средствами гостя, но мы же с Вами не из таких, да? Надо лезть в доки, учиться чему-то новому...)
 
И ещё о том, что линуксовый lvm и виндовые таргеты место для снапшотов требуют на отдельном томе.  В отличие от zfs (где снапшоты реализованы по месту через Copy-on-Write).
 
 

Цитата:
Дык в том то и цимес, что не нужно избавляться от железного рейда если он есть и работает.

 
Дык и для zfs не нужно. Только в этом случае теряется одна из её плюшек - сквозной контроль целостности данных. В фирмваре железных рейдов в общем случае он тоже есть, но не для простых админов, а для партнёров со спец. утилитами от вендоров.
 
Без бэкапов никуда как в случае железного, так и софтового рейда, без разницы.
 
 
Добавлено:
 
Зато софтовый рейд работает на всех мегагерцах от интела/амд64, а не на (сравнительно) ущербном процессоре железного рейда.
 
 
Добавлено:
 
Покажите мне железный рейд, который способен перечислить файлы со сбившимися чексуммами. А?  
 
Zfs способна. Но понадобится это только в том случае, если чексуммы умудрились сбиться сразу на обоих дисках зеркала и т.д: иначе zfs всё восстановит сама, а сбойнувшим дискам выставит "чОрную метку".
 

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 15:43 06-02-2012 | Исправлено: LevT, 16:04 06-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
О том например, что вмваре конвертер неспособен сконвертировать lvm-разбитый диск в thin provisioned.

Речь была исключительно про lvm на СХД. Зачем переводить разговор на ненужность lvm на виртуальной машине? Это очень разные ситуации.
Ну и далее
- thin в продашкене вообще не рекомендуют. особенно для нагруженных машин.
- плюс странно говорить о том, что lvm это минус, если у вас уже есть линуксовый сервер, странно, что вы не знаете, как превратить раздел lvm в не lvm (3-4 команды).
 

Цитата:
И ещё о том, что линуксовый lvm (..) место для снапшотов требуют на отдельном томе.  В отличие от zfs.  

бред.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 16:03 06-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
- thin в продашкене вообще не рекомендуют. особенно для нагруженных машин.  

 
Я какбэ в курсе. Но я о возможностях доступного софта. Вмваре конвертер lvm понимает плохо, согласны?  Или я недоглядел?
 
 

Цитата:
странно, что вы не знаете, как превратить раздел lvm в не lvm (3-4 команды).  

 
Я не коллекционирую ненужное знание: мозги у меня не резиновые. Осилю если-когда появится мотивация, например, почувствую, что мне этим предстоит заниматься регулярно - как осилил zfs.
 
А пока предпочёл бы поиметь этот lvm как черный ящик, средствами конвертера например.  
 
 

Цитата:
Цитата:И ещё о том, что линуксовый lvm (..) место для снапшотов требуют на отдельном томе.  В отличие от zfs.  
 
бред.

 
А что, не так?  Рад буду ошибаться, с удовольствием узнАю, что там тоже copy-on-write.
 

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 16:11 06-02-2012 | Исправлено: LevT, 16:16 06-02-2012
zveroyacher



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
1) дешевые карточки по 22$ на ebay MELLANOX INFINIHOST MHEA28-XTC DUAL PORT 10GB/s NEW  

нихрена себе дешёвые они на прайс.ру по 19662 р. Это ахтунг. Я бы себе парочку точно взял если бы не цена. А как их обжимать??!!  
Так для ламеров обьясните.
А что если с доставкой из заграницы заказать в районе тыщи рублей будут? или больше? там поди кредитка нужна?

Всего записей: 807 | Зарегистр. 03-04-2011 | Отправлено: 16:17 06-02-2012 | Исправлено: zveroyacher, 16:20 06-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Но я о возможностях доступного софта. Вмваре конвертер lvm понимает плохо, согласны?  Или я недоглядел?  

Имеет ли это (если это дейсвительно так, я не проверял) хоть какое-то отношение к lvm на СХД, которое мы тут обсуждали?
 

Цитата:
А пока предпочёл бы поиметь этот lvm как черный ящик, средствами конвертера например.

Так он в толстый диск же конвертится? Чем не ящик? Чего не хватает?
 

Цитата:
Цитата:И ещё о том, что линуксовый lvm (..) место для снапшотов требуют на отдельном томе.  В отличие от zfs.  
А что, не так?  Рад буду ошибаться, с удовольствием узнАю, что там тоже copy-on-write.  

Да собственно все не так.  
Какое имеет отношение "copy-on-write" к "lvm требует место для снапшотов на отдельном томе." ?
И, конкретно отвечая на вопрос:
- да, lvm умеет copy-on-write (на сколько я помню через модуль ядра dm_snapshot).
- нет, lvm не требует отдельного тома для снапшотов.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 16:21 06-02-2012
murphy2000



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Ребята - lvm прост как тапочки. Он является очень тонкой прослойкой между реальным устройством хранения и файловой системой. В базовом случае, просто по другому организует пространство (в том числе и снапшоты). На линухе уже очень давно его пользую, особенных проблем не испытывал (даже при удалении нужных lv).

Всего записей: 185 | Зарегистр. 19-04-2006 | Отправлено: 16:32 06-02-2012
zveroyacher



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
не забывайте про реальное устройство. В конторе в кторой я работал рабочие станции были мощнее сервера есикса на котором контроллер домена крутился и эксчендж. Ну хозяин барин - технических директор так возжелал. Тормоза грандиозные, не смотря на матёрость директора.
 
Я вот не вижу реального прибавления скорости работы от виртуального рейда, если его физически не существует.  
 
Был какой то тест-бенчмарк для вмваре особый, забыл как зовётся.... дабы доказать мои слова.
 

Цитата:
MELLANOX INFINIHOST MHEA28-XTC DUAL PORT 10GB/s NEW  

 
дошло кажись. Оптоволокно? Тогда я пас, его хрен обожмёшь....

Всего записей: 807 | Зарегистр. 03-04-2011 | Отправлено: 16:47 06-02-2012 | Исправлено: zveroyacher, 16:50 06-02-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
чет не вкуриваю - зачем нужны vSAN решения ?
зачем поднимать, скажем NexentaStor в виртуалке под ESXI ?
все равно надо пробрасывать железо (RAID контроллер) внутрь гостя, так зачем его делать виртуальным ?

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 18:27 06-02-2012
flysats



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
дам вводную по инфинибэнд
 
бу - именно бу - карточки на 10/20гиг - весьма недорогоие
но! не это самое главное - самое главное КОММУТАТОРЫ - они БУ тоже недорогие и они есть в отличии от ETHERNET 10G  
насчёт коммутации - стандарт толстая медь - стоимость КОНСКАЯ  
CX4 - стандартный разьём (его потом прикрутили на Ext SAS и 10G ethernet)
оптика - это активные конвертеры - редкие и весьма дорогие штуки - это только под большие пролёты
в 40гиговых и выше идут другие разьёмы(обратная совместимость есть)
 
! ахтунг
ethernet на этих карточках софтовый - т.е. драйвер пакует ethernet в инфинибэнд
отсюда проблемы - драйвера сильно задерживаются - ибо тяжелая софт часть.
на 5ку вообще сейчас нифига нет
 
на 4ке - активно используется в крупных проектах
5ка - до первого сервиспака считается теслабом - больших внедрений нет - драйверная поддержка можно сказать никакая - до sp1 никто особо и не шевелится
 

Всего записей: 67 | Зарегистр. 28-02-2003 | Отправлено: 19:32 06-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
все равно надо пробрасывать железо (RAID контроллер) внутрь гостя, так зачем его делать виртуальным ?  

что бы положить пачку гостей на аппаратный raid?
 
Добавлено:

Цитата:
дам вводную по инфинибэнд

Было бы хорошо, если бы ты озвучил примерный уровень затрат: карты, свитчи, кабеля.
 

Цитата:
ethernet на этих карточках софтовый - т.е. драйвер пакует ethernet в инфинибэнд  

Да, еще интересен такой вопрос: если сеть пускать по обычным 1g, а на IB только доступ к СХД, то там можно убрать лишний слой ip-эмуляции или нет?

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 19:51 06-02-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2017

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru