Перейти из форума на сайт.


Система IP-видеонаблюдения "Линия". Скачать бесплатную демо-версию для 16 камер. НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Плюс не стоит забывать про софтварные решения: берем любую серверную платформу (классически у нас берут супермикру или хп - у них есть корпуса сразу с кучей корзин под диски) ставим туда недорогих sas-нba, собираем софтовый рейд, добавляем парочку-другую ssd дисков для кеша (в линуксе flashcache, в bsd/solaris/nexenta - arc2 на zfs) и получаем отличнуюп полку за в 2-3 раза меньшие деньги.  

Вот это уже очень полезно.
А есть ли отдельные корзины (недорогие), чтобы только туда диски вставлять?
Хотя, им нужен контроллер... Если использовать sas-нba, то это уже и не SAN, и не NAS. Это DAS.
На этом не построить кластера. Так? FT, HA, vMotion на нём не будут работать?
LevT

Цитата:
есть вцентр с упдейтманагером

Поняло))
 
 
Добавлено:
easyjohn
Такой момент ещё: софтварные решения и софтовый рейд - почему не аппаратный?
 
Добавлено:
И ещё:
сегодня прогнал тест на скорость чтения.
RAID1 LSI на матери  - около 200, RAID1 Adaptec 6805 - около 400. Пробовал на нём и RAID0 - почти также.
Диски и контроллер описаны раньше в моих постах. Диска пока 2, скоро должны ещё 2 привезти. Буду делать RAID10, как советовали выше.
 
Очень досадно, что мне посоветовали оставить кабели, что шли с серваком. Поглядел - они в обрез. До контроллера не дотянутся. Спешно заказал этот http://www.nix.ru/autocatalog/cables/Adaptec_ACKImSASx44SATAx1SB0.5M_SFF80874xSATA_0.5_78811.html и этот http://www.nix.ru/autocatalog/cables/Adaptec_ACKImSASx44SATAx1SB1M_SFF80874xSATA_78812.html.
Потом гляжу на оф.сайте Adaptec:
The ACK-I-mSASx4-4SATAx1-SB-0.7M R is an internal 6 Gb/s Mini Serial Attached SCSI x4 (SFF-8087) to (4) x1 Serial ATA (controller based) fan-out cable with SFF-8448 sideband signals.
а я заказывал:
The ACK-I-mSASx4-4SATAx1-SB-0.5m R is an internal Mini Serial Attached SCSI x4 (SFF-8087) to (4) x1 Serial ATA (controller based) fan-out cable with SFF-8448 sideband signals.
Вот думаю, что теперь будет - 6 или 3  Gb/s  

Всего записей: 496 | Зарегистр. 31-01-2006 | Отправлено: 22:53 08-08-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
А есть ли отдельные корзины (недорогие), чтобы только туда диски вставлять?  

Полно разных.
 

Цитата:
Если использовать sas-нba, то это уже и не SAN, и не NAS. Это DAS.  

Почему вдруг? Мы делаем самодельную полку и дальше раздаем ее по сети. раздаем по FC или iscsi получаем SAN, раздаем по nfs или samba - получаем nas.
 

Цитата:
На этом не построить кластера. Так? FT, HA, vMotion на нём не будут работать

какие именно кластера? esx-кластера - запросто. все вышеперечисленное работает.
 

Цитата:
акой момент ещё: софтварные решения и софтовый рейд - почему не аппаратный?  

Потому, что софтварный дает большую гибкость, прозрачность и переносимость. Например, обычно забывают, что диски в рейде должны регулярно проверять на чтение всю поверхность, в т.ч. и незанятую, что бы как можно раньше узнать про бэд блок в т.н. cold data. В почти всех аппаратных рейдах, которые я встречал эта проверка или отключена по умолчанию, или вообще ее не имеется. А в софте одна строчка в smartctl и все будет регулярно проверяться на всех дисках, средствами smart, почти не замедляя скорость обычной работы диска.
Единственная проблемма - когда дисков становиться больше 15-20, то мы можем упереться в скорость уже шины сервера. Тогда есть смысл ставить небольшие аппаратные контроллеры, собирать на них рейды, которые поверх все равно объединять в софтрейд общего объема.
 

Цитата:
сегодня прогнал тест на скорость чтения.  

Скорость линейного чтения, я так понимаю?
У тебя, в виртуальной среде, почти никогда не будет линейного чтения.
Делай тесты случайного чтения и записи (66% чтение 33% запись) блоками не больше 4-16кб, желательно одновременно в 5-10-20 потоков, с размером тестового файла минимум в два раза больше, чем установлено памяти на машине.  
Вот это будут примерно приближенные цифры к реальной производительности дисковой подсистемы для пачки виртуальных машин. Причем больше обращать внимание стоит не на максимум, а на минимум, какую минимально гарантированную скорость ты сможешь получить со своих дисков в худшем случае, когда всем машинам понадобится что-то записать/прочитать.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 00:15 09-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn
Уфф!
Спасибо за столь подробное разъяснение!
А тестировал я просто ради сравнения. У Adaptec скорость, в любом случае, должна быть повыше.

Цитата:
Полно разных  

Ткните носом - как их хоть правильно называть (для поиска)?

Цитата:
Мы делаем самодельную полку и дальше раздаем ее по сети

А кто именно будет раздавать? Нужен же контроллер iSCSI. Или как?

Цитата:
какие именно кластера? esx-кластера

Да, они самые.

Всего записей: 496 | Зарегистр. 31-01-2006 | Отправлено: 00:28 09-08-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
ИМХО, софтварный рэйд обязывает держать второй сервак как сетевое хранилище, со всеми вытекающими, если диски sas, то мама не из дешевых, + FC для достаточных скоростей.

Всего записей: 1155 | Зарегистр. 02-12-2011 | Отправлено: 00:40 09-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Цитата:
По этому flashcache, как способ кеширования дисковой подсистемы на хранилище к esx никакого отнощения не имеет.

 
Я решил, что murphy2000 спрашивал про host cache. Если не про это, то прав  easyjohn
 
 
Добавлено:
Sauron_zombie

Цитата:
Нужен же контроллер iSCSI. Или как?  

 
В ESXi софтовый iSCSI контроллер. Который вплоть до последней версии вмваре рекомендовала как предпочтительный (нехотя поддерживая "железные" поделия ради  тех клиентов, кто уже попал на "защиту инвестиций").
 
В 5-й версии ситуация изменилась - потому что вмваре решила поддержать сценарий загрузки хоста с iSCSI. Для него (и только для него) софтовый контроллер хоста не катит.
 
 
Добавлено:

Цитата:
А кто именно будет раздавать?

 
А раздавать как всегда будет SCSI-таргет. (Если он локальный, то получается "DAS").
 
А еще бывает нелокальный (с ним получается "SAN"), например, iSCSI-таргет. Его у вмваре нет: его нужно организовывать средствами гостя или держать на соседней машине.
 
 
Добавлено:
karavan

Цитата:
ИМХО, софтварный рэйд обязывает держать второй сервак как сетевое хранилище, со всеми вытекающими, если диски sas, то мама не из дешевых, + FC для достаточных скоростей.

 
Никто никого ни к чему не обязывает. У меня вот работает и так, и эдак. (Оставил пути для отступления, но до сих пор серьёзных противопоказаний для "all-in-one" дизайна  не обнаружил).

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 02:29 09-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Нет, вру.  
 
Для серверных приложений, которым потребна хорошая отзывчивость UI (это не только 1С на терминальнике, но и шняги типа шарепойнта-CRM-SSL гейтвеев типа UAG) желательны гигагерцы каждого отдельного ядра. Мелкомягкие в таком случае пишут "2.66 Ghz minimum" в системных требованиях.
 
"Серверным" неразгоняемым оборудованием обеспечивать хорошую скорость проца слишком накладно. Для виртуализации таких приложений куда больше подходят декстопные разогнанные матери.  Вот с ними обеспечивать "все-в-одном" - отдельная проблема и скорее искусство (потому что обычно не хватит слотов расширения одновременно для хороших HBA и хорошего сетевого коннекта). Возможно я займусь её решением (подбором подходящей комплектухи и периодическим пересмотром рекомендаций), когда не останется более актуальных задач.
 
 
Еще одна нерешенная пока проблема, для меня более приоритетная - возможность попеременного запуска виртуализованного хранилища на физическом железе. Уверен, что только такая конструкция сделает осмысленными сравнительные тесты.
 
На пути решения этой проблемы встали непобедимые и необъяснимые пока глюки инициализации сетевых PHY при передаче их гостю через passthrough (без DirectPath).  
 
 
Добавлено:
 
Если речь о виртуалке на солярном ядре, то настроить гостя с такими интерфейсами можно всегда (заранее приготовившись к дополнительным "чудесам" на казалось бы ровном месте). Но эти настройки сбиваются после каждого изменения конфига пастру девайсов хоста или физической загрузки в ту соляру.
 
Наверное, хорошая идея попробовать другою операционку хранилища для попеременной загрузки - но у меня ресурсов на это до конца года не предвидится: все хранилища уже под солярой.  Если удастся хотя бы одно из них вывести в "maintenance", возможно попробую раздать существующий солярный пул бсдёй или линухом...

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 10:38 09-08-2012 | Исправлено: LevT, 10:59 09-08-2012
murphy2000



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
А вот кстати, врезавшись в дискус спрошу, а есть ли flashcache в esx ??? Было бы крайне удобно...
 
как вы себе это представляете?  
ESX это гипервизор, у него нет модулей или средств, для организации файловых хранилищ. По этому flashcache, как способ кеширования дисковой подсистемы на хранилище к esx никакого отнощения не имеет.

 
В локальном режиме вполне ничего не мешает поддерживать flashcache для локальной файловой системы. Например ZFS поддерживает.

Всего записей: 185 | Зарегистр. 19-04-2006 | Отправлено: 11:30 09-08-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Ткните носом - как их хоть правильно называть (для поиска)?  

sas/sata корзина/rack.
 

Цитата:
А кто именно будет раздавать? Нужен же контроллер iSCSI. Или как?  

Софтовый то же. Под линуксом iet (http://iscsitarget.sourceforge.net/) или open-iscsi (http://www.open-iscsi.org/).
 

Цитата:
Да, они самые.

Все работает. Правда у меня все дисковые полки - внешние. То есть собраны отдельные сервера набитые дисками, зеркалируются друг с другом через drbd, софтовый iscsi, multipath (можно отключать одну из двух половинок зеркала для обслуживания и обновления, благодаря multipath хосты не заметят пропажи, а благодаря drbd после включения все синхронизируется), к ним подключаются по сети (выделенной) хосты esx.  
 
Но если же ты будешь делать iscsi-таргет прямо на esx, пробрасывая контроллеры дисков внутрь виртуалки, то тут, конечно, могут быть какие-то ньюансы, я такими извращениями не занимался, тонкостей могу не знать.
 
Добавлено:

Цитата:
ИМХО, софтварный рэйд обязывает держать второй сервак как сетевое хранилище, со всеми вытекающими,

Странный вывод.
Во первых, человек спрашивал про то, что купить отдельную дисковую полку, плюс говорил о vmotion и т.п. Это значит, что esx хостов у него и так больше двух.  
Во вторых вариант "один единственный esx с дисками прямо на нем" это не то, что рекомендует вмварь, хоть эта конфигурация и поддерживается, но далеко не оптимальна.
 
Плюс, если работает проброс дисковых контроллеров внутрь виртуальных машин, мы можем все диски экспортировать в виртуальную машину, собрать в ней из этих дисков софтовый рейд, и отдать остальным гостям этот диск по nfs/iscsi. То есть можно и на единственном хосте так извратиться.
 

Цитата:
 если диски sas, то мама не из дешевых, + FC для достаточных скоростей.

FC используется вовсе не для достаточных скоростей, а для уменьшения задержек в среде передачи (латентность у FC меньше, чем у ethernet, а значит и выше отзывчивость в вирт. машинах, но на самом деле мало кому это важно на столько, что бы делать именно FC сеть). У меня есть пара вирт. сред с FC сетью, и при реальной пропускной способности сети в 4-8G, по статистике я почти никогда не видел, что бы нагрузка в сети была выше, чем 0.7-1G, при том, что там десяток хостов, несколько десятков виртуалок и достаточно тяжелых. Опять же потому, что почти никогда не нужно/не встречается линейное чтение больших объемов.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 11:31 09-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Фундаментальное, но широко не афишируемое о стораджах: http://3nity.ru/viewtopic.php?f=24&t=9497
http://exlh.blogspot.com/2009/08/lun-raid-array.html

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 16:32 09-08-2012 | Исправлено: LevT, 16:32 09-08-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Буду со всеми согласиться ради аргументированных мнений отличающихся от моего.
И никогда не забывать, что для каждого проекта лучшее решение всегда индивидуальное.

Всего записей: 1155 | Зарегистр. 02-12-2011 | Отправлено: 18:07 09-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Благодарю всех!
 
Цель, конечно, добиться обслуживания отдельных серверов-хостов без отключения виртуалок на них.  
easyjohn очень точно сказал про зеркалирование.  
 
FC не потянем, скорее всего. Думаю и надеюсь только на iSCSI. Буду организовывать самоварный проект с полками.  
Да и с бэкапами у меня пока всё плохо. Живу, как на вулкане, т.к. полного рез. копирования не производится (только критичных данных).  

Всего записей: 496 | Зарегистр. 31-01-2006 | Отправлено: 20:44 09-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Внимание!
То, что написано во второй половине поста по вышеприведённой ссылке (начиная со слов "Обладатели PCI контроллеров могут дальше не читать") -  
 
1) действительно, не касается зациклившихся на "железных" рейдах
2) НАПРЯМУЮ ЗАТРАГИВАЕТ тех, кто имеет дело с софтовым iSCSI и самоварными проектами.  
 
 
Но по ссылке есть одно недопустимое (на сегодняшний день), на мой взгляд, упрощение в следующих словах:
 
"Логический диск фактически является партицией массива - только не на уровне операционки, а внутри контроллера. "
 
Во многих случаях логический диск фактически является не партицией массива, а  виртуальным блочным устройством, созданным средствами продвинутой файловой системы (zfs а также, вероятно, btrfs и аналогов). На что из этих двух вариантов больше походят такие устройства, созданные линуксовым менеджером томов - решать не мне, а линуксоидам.
 
Слова "внутри контроллера" - в нашем контексте следует читать как "внутри самоварной СХД".

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 21:09 09-08-2012 | Исправлено: LevT, 15:52 10-08-2012
Umlyaut

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Поставил VMware-VMvisor-Installer-5.0.0.update01-623860.x86_64.  
Как узнавать, какие версии вышли позднее?  

 
Загляните сюда:
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1014508
 
Добавлено:
Кстати о ssd-кешировании...
 
Да простит меня ув.LevT , но я очень давно и много использую в работе аппаратные RAID-контроллеры (EISA/VLB/PCI/PCI-X/PCI-E карты "тяжелого" класса). Не буду заостряться на том, что современные контроллеры позволяют качественно обслуживать носители (check consystensy и пр. функционал, patrol и пр.) не хуже, чем в софтовых схемах, скажу лишь о том, что фича подпирания хардов ssd-кешем очень неплохо показывает себя на практике.
 
Так ssd-кеш из трёх не самых выдающихся носителей (Corsair 64GB Performance Series), сделанный опцией CacheCade на контроллере LSI MegaRAID 9265, поднимает IOPSы 100% рандомного чтения тома R10 из восьми SAS 10k дисков на порядок -  с 2000 до 20000.
 
Для размещённой на этом томе БД с преобладанием OLTP-чтения это даёт весьма комфортную работу ~50 пользователей в активном режиме.  
 
Запись же идёт мимо ssd на харды, но предварительно кешируясь бортовой RAM контроллера (1GB) - в сочетании с Forced write=off у сервера БД это обеспечивает минимальные задержки на запись (в САМОМ плохом случае - не более секунды-полутора на коммит сложной транзакции по десятку таблиц... обычно пол-секунды и меньше).
 
ИМХО, это делает такое решение очень интересным для продакшена... у меня в планах удвоить число ssd в кеше (до шести) - с учётом того, что ssd-кеш организован как R0, прирост IOPSов на чтении ожидается...

Всего записей: 89 | Зарегистр. 20-11-2008 | Отправлено: 17:58 10-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Umlyaut

Цитата:
скажу лишь о том, что фича подпирания хардов ssd-кешем очень неплохо показывает себя на практике.  

 
Наверное Вы не в курсе, что в пулах ZFS оная фича давно реализована (и успешно юзается в продуктиве не только мною). А по слухам - да подтвердит их easyjohn - аналогичная конструкция собирается и в линуксе.
 
Иопсы я не мерял - потому что считаю тесты лишенными смысла вне полностью контролируемой среды.

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 20:17 10-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Фундаментальное, но широко не афишируемое о стораджах: http://3nity.ru/viewtopic.php?f=24&t=9497
http://exlh.blogspot.com/2009/08/lun-raid-array.html

Спасибо. Раньше уже попадалась эта статья.
 
 
Если кому интересно, выложу переписку с техподдержкой Adaptec по поводу их кабелей (читать снизу вверх).
На последний вопрос пока жду ответа...
 
А суть проблемы описана здесь.
 
 
 
Adaptec by PMC  Technical Support
 
Добавлено:
Вот у меня к вам вопрос: используете ли вы SGPIO или I2C (думаю, что - да)?
И, самое главное, как ESXi это использует (или не использует)?
Нужно ли это для него?

Всего записей: 496 | Зарегистр. 31-01-2006 | Отправлено: 00:28 12-08-2012 | Исправлено: Sauron_zombie, 00:55 12-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Я не использую. Об этих способностях ESXi ничего не знаю ещё и потому, что диски хранилищ у меня все отданы солярному ведру (на отдельной матери или на пасстру HBA в госте под ESXi). Sideband разъёмы у меня подключены куда надо, индикаторы активности моргают, но как будут индицироваться уловленные железом и-или осью сбои - я не тестировал и не собираюсь: ZFS мне всё покажет более удобным для меня образом.
 
В соляре есть проприетарный интерфейс для автоматизированного управления сановскими (а теперь оракловскими) корзинами (может, через упомянутые интерфейсы, а может и нет) - но он в свободных стораджах не задействуется.  Вместо автоматического заполнения имён дисков типа /dev/sunstorage2/row3column2  можно что-то подобное руками прописать в конфиге... но мне до сих пор было лениво этим заниматься.
 
А ZFS работает напрямую с дисками: любая виртуализация стораджа под ней отменяет часть её преимуществ.  Для собственной уверенности я просто переписал те же самые  уникальные идентификторы "логических устройств" naa... (равные вмварным) под которыми фигурируют диски моих пулов(массивов) в девайсах соляры.  Если что-то нехорошее случится c определённым диском, ZFS на него покажет, и я физически вычислю виновного по тому уникальному номеру.
 
Удобное свойство создавать  /dev/с№naa500NNNNNNNNN..  в соляре имеет по крайней мере драйвер mpt2sas (6Gb SAS LSI 2008 чип, по крайней мере с IT[arget]-прошивкой).  
 
А вмваре эти же самые идентификаторы (обусловленные стандартом SCSI-3 и передаваемые не через боковые шины, а в основном потоке команд SCSI) выковыривает из всех лунов какие видит на любых vmhba и активно ставит их на вид админу. Но после виртуализующего сторадж-контроллера они уже не соотносятся однозначно с "входными" дисками, находящимися в его распоряжении: так, для выходных лунов соляры они генерятся при создании логических юнитов (lu) внутри "сторадж-контроллера" (солярного таргета). Алгоритм генерации есть в свободных исходниках солярной либы - но я его даже не пытался пока читать (в надежде отреверсить из него закопирайченную вендорами документацию SCSI-3). Кто располагает мотивацией и возможностями для этого, может такое проделать.
 

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 02:10 12-08-2012 | Исправлено: LevT, 13:24 12-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
Вы используете файловую систему Solaris (ZFS) для ESXi?
В чём для вас преимущества? Как организованно (подробнее, если можно)?
Насколько надёжно и переносимо, если вдруг что?
 
Добавлено:
Solaris 11 - платная, OpenSolaris - прекратила существовать.
Наверное, пока не для меня такие высшие сферы.
 
Добавлено:
Хотя, ZFS может использоваться не только с Solaris...

Всего записей: 496 | Зарегистр. 31-01-2006 | Отправлено: 19:22 12-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Использую на хранилищах. Которые есть у меня и на отдельном хосте, и в гостевой виртуалке.
 
Использую нексенту - но переносимость пулов стораджа со всем содержимым (как файловым так и блочным) проверена мною между многими дистрами на солярном ядре (для раздачи импортированного в составе zpool блочного стораджа требуется небольшая ручная достройка логических единиц и таргетов, которую у меня до сих пор не получилось автоматизировать). Остальное подхватывается автоматом (разрешения на шарах устаканиваются после smbadm join ad domain и настройки маппинга рута в доменадмина).
 
Самая крутая ось - потомок соляры - smartos; не исключаю что со временем свалю туда от вари совсем. (туда KVM портирован)
 
 
Добавлено:
 
Выход 2012 винды многих окончательно отвратит от интереса к соляре. Но понять что-то о сетевом SCSI можно только с помощью соляры (ну и в первую очередь всё-таки клиента вмваре, показывающего релевантную инфу) - а винда запудрит мозги своей проприетарщиной.

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 00:03 13-08-2012 | Исправлено: LevT, 00:22 13-08-2012
Sauron_zombie



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
А btrfs пользовали? Что можете сказать?

Всего записей: 496 | Зарегистр. 31-01-2006 | Отправлено: 00:38 13-08-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

нет. ничего.

Всего записей: 9794 | Зарегистр. 14-10-2001 | Отправлено: 01:05 13-08-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2017

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru