Перейти из форума на сайт.


Система IP-видеонаблюдения "Линия". Скачать бесплатную демо-версию для 16 камер. НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
Тогда диски из хостов он вынуть сможет, а вот добавить в свой стор - у него вроде как порты кончились.  
 Ну или ставить еще один raid-контроллер в стор.

Естественно все сторное в стор....
все адаптеры в стор, все диски в стор (сначала быстрые ssd и sas, потом медленные sata)
сколько влезет....в копус
 
Вопрос только в том, а нужно ли ему сетевое хранилище под его задачи?
 

Цитата:
Вот раньше, когда везде была scsi можно было два контроллера соединить внешней шиной, и с одного видеть диски другого. Но где теперь та scsi...

А чем тебе sas не угодил?  
Все то же самое только лучше:
Ты можешь каждый диск подключить куда хочешь, у него же две линии...
Ты може експандер подключить сразу к паре серверов...
Ты можешь вообще полку взять и sas свитч и подключить к инфраструктуре все диски....
Какие проблемы?
 
Добавлено:
Просто если следовать концепции виртуализации, то хосты долны быть максимально обезжелезены...фактически процессор, память и сеть...

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 10:23 03-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
sas+sata для важных данных и не очень.

Так и есть
объем SAS ~800 Гб SATA ~1 Тб

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 11:31 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
Вот раньше, когда везде была scsi можно было два контроллера соединить внешней шиной, и с одного видеть диски другого. Но где теперь та scsi...  

 
 
А не могли бы Вы с Вашим линуксовым опытом оценить применимость для самодельной инфры вот этого  
http://scst.sourceforge.net/
 
Исходные условия: используем под сторадж опенфайлеры, запасаемся HBA c внешними портами (хотя бы Dell LSI 6Gb SAS HBA  за < 3000 деревянных), отдаём их опенфайлерам через пасстру...    
 
И придумываем варианты использования.
 
(оракл что-то как-то задушил аналогичный фреймворк внутри COMSTAR - все упоминания mpt_target относятся ко временам opensolaris и не внушают доверия сегодня)
 
 
 
Добавлено:
LanStateMap

Цитата:
Просто если следовать концепции виртуализации, то хосты долны быть максимально обезжелезены...фактически процессор, память и сеть...

 
Это вопрос денежной жабы.    
 
Если в серверной УЖЕ ЕСТЬ есть некоторое количество многодисковых корпусов, некоторое количество набортных контроллеров...
 
А суперстор супермногодисковый стоит дополнительных денег и нехилых...  Я лично предпочту тратить сомасштабные деньги сначала на сетевой интерконнект 10GbE.
 
 
Если конечно варя не научится уже в ближайшей версии 5.1 работать с SAS  в кластерной конфигурации... Лишь в этом случае сегодняшние инвестиции в 10GbE станут спорными (задним числом).  

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 11:33 03-02-2012 | Исправлено: LevT, 11:49 03-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT

Цитата:
Это вопрос денежной жабы.    
   
 Если в серверной УЖЕ ЕСТЬ есть некоторое количество многодисковых корпусов, некоторое количество набортных контроллеров...

 
все так.....
 
я о том же:

Цитата:
Вопрос только в том, а нужно ли ему сетевое хранилище под его задачи?

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 11:58 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
А не могли бы Вы с Вашим линуксовым опытом оценить применимость для самодельной инфры вот этого  
http://scst.sourceforge.net/
Исходные условия: используем под сторадж опенфайлеры, запасаемся HBA c внешними портами (хотя бы Dell LSI 6Gb SAS HBA  за < 3000 деревянных), отдаём их опенфайлерам через пасстру...    

Я не понял, какую именно структуру вы хотите построить.
По этому не очень вижу смысла в этой прокладке.
В целом рейд на линуксе можно собирать из любых блочных устройств - локальных дисков, локальных рейдов, сетевых, и т.д. и т.п.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 12:06 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
 
В простейшем варианте - использовать 4-х канальный SAS кабель между внешними портами HBA  для соединения двух многодисковых корпусов.  

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 12:14 03-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT

Цитата:
В простейшем варианте - использовать 4-х канальный SAS кабель между внешними портами HBA  для соединения двух многодисковых корпусов.  

 
а зачем вам этот мудреж?
Узкое место в большинтсве случаем не в канале меджу двумя СХД в кластере, а в самой дисковой...тем более есть 10GbE....
 
Чего вы хотите добиться?

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 12:18 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Я имел в виду не канал синхронизации между двумя СХД, а самодельный экспандер SAS-iSCSI/FCoE (и/или наоброот).  
 
 
 
 
Добавлено:
 
А 10GbE есть пока только несколько адаптеров с прямыми кабелями:  свичи никак не доедут на тестирование.  ((
 

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 12:59 03-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT

Цитата:
Я имел в виду не канал синхронизации между двумя СХД, а самодельный экспандер SAS-iSCSI/FCoE (и/или наоброот).  

Я понял...а зачем? какие цели?
Не вижу смысла такого подключение ни к серверам в виде СХД ни к хостам...

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 13:33 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Ну, благородная цель - объединить в один массив диски из нескольких  унаследованных корпусов (виртуализовать физические дискоместа).
 
Не сильно потеряв в при этом в производительности. И жестко контролируя образующийся многослойный хаос.
 
 
Добавлено:
 
пришивать к собранному в голове хранилки софтверному рейду сетевые блочные устройства - это в продуктивной сети годится только для редких опытов.  
 
Для такой конструкции нужна или выделенная SAN, или вот... кажется, можно попробовать использовать SAS таргет.
 
 
Добавлено:
 
Или инфинибанд?  
dimsoft, прокомментируй идею пожалуйста (если я достаточно разъяснил).
 
 

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 13:59 03-02-2012 | Исправлено: LevT, 14:27 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Ну, благородная цель - объединить в один массив диски из нескольких  унаследованных корпусов (виртуализовать физические дискоместа).  

Ну так не надо ничего мудрить. Разбиваешь свой "стор" на фронтенд и бэкэнд.
На бэкэнде у тебя пачка разнородных корпусов с дисками. Они раздают свои диски по iscsi.
Эти корпуса ты собираешь на фронтэнде, делаешь поверх сетевых дисков нужный тебе рейд, и экспортируешь хостам опять по isсsi.

Цитата:
И жестко контролируя образующийся многослойный хаос.

И никакого хаоса, это стандартный бутерброд для надежных сетевых хранилок.
 

Цитата:
пришивать к собранному в голове хранилки софтверному рейду сетевые блочные устройства - это в продуктивной сети годится только для редких опытов

Или ты что-то не так понимаешь или не так описал.
 

Цитата:
Для такой конструкции нужна или выделенная SAN,  

Что под этим понимать то?
Отдельный свитч/влан - да, крайне желательно, что бы точно ни кто из соседей не просаживал нам скорость работы. Строить, как ниже написано, отдельную FC/IB/10G сеть - очень спорно, только если она _реально_ хоть когда-нибудь будет востребована.
В моем реальном окружении с 50 виртуалками на десятка хостах хоть и используется 8g FC, реальная нагрузка на пропускную полосу выше 1G почти никогда не поднимается. При этом iops-ы сетевых хранилищ сжираются под максимум.
Просто сама суть одновременной работы массы серверов такая, что там линейного чтения/записи почти никогда не бывает. Ну разве что когда какую-нибудь виртуалку клонируешь уеликом, но это редкая задача, ради нее строить более быструю сеть смысла нет.
 

Цитата:
Или инфинибанд?    

Боже. Да не важно же, какие проводки использовать, на структуру самого хранилища это не влияет никак. Если вам где-то по скоростям будет не хватать гигабита - там и надо думать чем заменить и как ускорить, а до этого выдумывать сверхэкслюзивные инфинибэнды толку совершенно точно нет.
 
Добавлено:
В меру моей криворукости изобразил схему стораджа в экселе.
http://kawai.spb.ru/files/storage_network.png
Естественно на любом уровне могут применяться разные рейды, страйпы - как душе угодно.
Например один знакомый крупный облачный провайдер (десятки тысяч вирт.машин) использует на фронтэндах тройное зеркало (из трех бэкэндов). А на бэкэндах какую-то хитрую структуру типа десятый рейд поверх пачки пятых рейдов.
Все в софте, все на линухе.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 15:56 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
а до этого выдумывать сверхэкслюзивные инфинибэнды толку совершенно точно  

 
Я сам так думал недавно, но они не эксклюзивные уже.  Один коллега успешно закупается на ебее двухпортовыми адаптерами по 30 баксов.
 
Надеюсь, поделится достижениями.
 
Я тоже почти решился уже заказать, но останавливает неопределённость с кабелями. Их тоже можно заказать баксов по 20 - но слишком много разновидностей, рискованно покупать совсем вслепую.
 
Даже не денег жалко, а времени. Облома "внезапного" хочется избежать...
 
 
 
Инфинибанд хорош ещё тем, что винда, соляра и линукс (но не ESXi) имеют уже драйвера не только для IPoIB, но для его нативного использования (rDMA) в обход IP.
 
 
 
Добавлено:

Цитата:
В меру моей криворукости изобразил схему стораджа в экселе.  

 
Спасибо!  
Если ещё выложите исходник - можно взять за основу нашего здесь общего языка для последующих обсуждений.

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 17:33 03-02-2012 | Исправлено: LevT, 17:43 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Я сам так думал недавно, но они не эксклюзивные уже.  Один коллега успешно

Посмотрел. Честно говоря забавно, но не очень видно смысла в нем сейчас, старый IB это те же 2-8G, более быстрые - значительно дороже
А по эзернету 1-2 гигабита для большинства небольших инсталляций хватает за глаза. И все комплектующие лежат в любом супермаркете, что как бы гарантирует восстановление в реальные сроки, а не ожидание поставки в 2-4 недели.
Плюс строить на бу можно только что-то для дома. И еще нужен IB свитч, хоть они бу то же не сильно дорогие.
То есть если кто-то мне подарит инфраструктуру IB - я конечно же ее воткну поиграться, а вот вкладывать в нее денег, особенно для продакшена кажется сомнительным удовольствием. В этом смысле более логичным с т.з. эксплуатации и дальнейшего роста выглядит FC или 10G.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 18:19 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
К 10GbE бесплатно прилагается FCoE.  По крайней мере в моих интеловских карточках
 
Какая поддержка нужна со стороны свитчей - выясню, когда заказанные уже хоть какие-то свитчи доедут.
 
 
Добавлено:

Цитата:
Плюс строить на бу можно только что-то для дома.  

 
А почему собственно?  
 
Конечно, одно дело если в конторе всё лицензионное на гарантии и покрыто сервисом, по окончании гарантии немедленно списывается, как в лучших домах Парижа кое-где в богатых банках Страны Абсолютного Добра.
 
А если используются внегарантийные комплектующие - не всё ли равно, где они выработали свою гарантию, тут под боком или за океаном?
 
На мой взгляд, можно и с ебея. Лишь бы была уверенность корректной работы железок в продуктиве и оттестированный запас на случай вылета.
 
 
 
Упдатед.
Конечно, критерий корректной работы такой железки - собственные глаза, мозги и опыт, а не наличие действующей гарантийной бумажки.
 
Бумажка все равно ничей зад не прикроет в случае потери данных.
 

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 19:12 03-02-2012 | Исправлено: LevT, 19:55 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
А если используются внегарантийные комплектующие - не всё ли равно, где они выработали свою гарантию, тут под боком или за океаном?  

Все равно. Вопрос как ты эти покупки по бухгалтерии проводить будешь.
Даже в мелкой фирме главбух повесится покупать что-то за бугром.
А если у местных перекупщиков брать, так там и цена раза в два выше, и сроки побольше.
 

Цитата:
Бумажка все равно ничей зад не прикроет в случае потери данных

В приличной конторе гарантия подразумевает, что ее тебе заменят в этой стране в адекватные сроки (а при доп-гарантии еще и в течении суток). Так что нельзя говорить, что гарантия не нужна. А иметь свой склад запаса для мелкой фирмы опять же достаточно дорого может оказаться.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 20:15 03-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Или инфинибанд?    
dimsoft, прокомментируй идею пожалуйста (если я достаточно разъяснил).

 
в применении к esxi у меня "полетело" только чистый 10G ethernet  
IB - из коробки заработало IPoIB между двумя windows 2008R2, больше никак не получилось.
 
к ESXi 4.0 нашел драйвера SRP IB но не справился (пока ?) с таргетом
 
к ESXI 5.0 просто нет драйверов на мои карточки
 
для esxi у меня  проблемы интерконнекта:
- backup не успевает по 1G за ночь
- дисков не хватает или по iops(hdd) или по объему (ssd), а на соседнем сервере используя всю память в solaris с большого массива выжимаю кучу iops, но объединить solaris и windows на одном esxi не хватает памяти (сейчас хост с 32Гб постоянно жалуется на 95% памяти и начинает жесткий "балунинг@? а хост с 96Гб очень хорошо себя чуствует
 
по мне решение:
 
хост  А  - много памяти + ssd + много HDD под solaris отдает ZFS по IB (SRP)
хосту Б - много памяти и мощные процессоры крутиться windows  
 
но пока не осилил.
 
Добавлено:

Цитата:
 А иметь свой склад запаса для мелкой фирмы опять же достаточно дорого может оказаться.

easyjohn
intel 10G у нас 25тр, а 10* MYRICOM 10GB NETWORK ADAPTER 10G-PCIE-8A-C на ebay с доставкой  3 тр - их можно 8 штук купить.

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 20:30 03-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
Все равно. Вопрос как ты эти покупки по бухгалтерии проводить будешь.  
Даже в мелкой фирме главбух повесится покупать что-то за бугром.  

 
cр.ную комплектуху куплю за свой счёт, по договорённости с руководством, а контора мне компенсирует премией.
 
Убивается сразу несколько зайцев, включая главного моего личного врага - необходимость иногда прерывать работу по специальности ради гнусного ненавистного занятия (сопровождения закупок).
 
 
 
 
Добавлено:
 
Нет, я понимаю, что существуют конторы, где главная задача - максимальные распилы безнала. Там этот метод не катит, конечно. Иное дело, если для руководства важна экономическая эффективность закупки и оно доверяет моей оценке риска и технической эффективности.

Всего записей: 9791 | Зарегистр. 14-10-2001 | Отправлено: 20:43 03-02-2012 | Исправлено: LevT, 20:46 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
нашел драйвера SRP IB но не справился (пока ?) с таргетом  

вообще интересно. а что для таргета не хватало?
 

Цитата:
к ESXI 5.0 просто нет драйверов на мои карточки

Ага, т.е. проблема совместимости со старым оборудованием встает в полный рост.
То, что на ебае по 20 баксов могут выпилить из любой ближайшей версии esx, и получаем или сиди на старой или покупай новую инфраструктуру. Для серьезной фирмы - не вариант.
 

Цитата:
- backup не успевает по 1G за ночь  

ну это да, для баккапа иногда приходится мудрить с толстыми каналами.
или в течении дня снапшотить и сливать снапшоты.
 

Цитата:
 дисков не хватает или по iops(hdd) или по объему (ssd),

flashcache под linux или всякие l2arc для solaris - кеширование физ. дисков на ssd.
В продакте я еще не использовал, но в тестовой лабе очень порадовало.
 

Цитата:
по мне решение:  

может таки уже внешний стор и набивать хосты только процами и мозгами?
 

Цитата:
intel 10G у нас 25тр, а 10* MYRICOM 10GB NETWORK ADAPTER 10G-PCIE-8A-C на ebay с доставкой

Это карточки. Ок, а как на счет свитчей?
10g будет постепенно становиться все более массовым и дешевым.
И его можно будет покупать в ближайших супермаркетах.
Что будет с эксклюзивом - понятно, дешевле он не станет, а вот покупать его, искать дрова будет становиться все сложнее со временем.
Ладно, каждый выбирает что ему интереснее, мое мнение: для дома - хорошо, для вновь создаваемой инфраструктуры - пожалуй не надо.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 20:57 03-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Мужики, я конечно понимаю, что мой самый дешевый свич Д-линк не айс, но и бабла на хороший никто не даст. Есть еще 1 такой же и 1г сетевух (тоже бюджетных) штук 10 есть. Имеет смысл это барахло как то приспособить к делу?

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 21:05 03-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
вообще интересно. а что для таргета не хватало?

easyjohn
первый раз пробовал давно и на чем поднять SRP таргет просто не знал
 
когда стали появляться статьи в основном про linux уже перешёл на 5.0 - там карточки не работают.

Цитата:
То, что на ебае по 20 баксов могут выпилить из любой ближайшей версии esx

уже выпилили еще на 4.1 без u1  
 

Цитата:
Ок, а как на счет свитчей?

сейчас пробую Dlink DGS 3120-24 там в новых прошивках можно переключить ДВА порта для агрегации в обычные, пока останавливает то, что Dlink поддерживает только 1 метровые CX4, а к меня сейчас только 3-х метровые.
 
на 3-х метровых линк падает раз в пару секунд.
 

Цитата:
Это карточки

 
карточки 2006 года, но сетевой стек не менялся, драйвера 2011 года и есть подо все windows solaris esxi 4 esxi 5
 
Добавлено:

Цитата:
может таки уже внешний стор и набивать хосты только процами и мозгами?

easyjohn
да, но стор самодельный на основе solaris, т.к аналог от например Netapp намного дороже

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 22:34 03-02-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2017

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru