Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Продолжаю про стораджи
 
Многоцелевая ось имеет нативные средства управления, которые могут быть обрезаны в проприетарном фирмваре стораджа, вместе с другими ненужными вендору функциями.
 
Управление проприетарным фирмваре осуществляется через проприетарный фронтенд, занимающийся  
 
1) фейс-контролем лицензий
2) поднятием чувства комфорта и защищенности пользователя (доширак-админа).
3) навязыванием проприетарных терминологии и логики использования, удобных вендору стораджа.
 
Проблема админа, не желающего доширачить: inversion of control.  Из объекта управления, выученного давить на проприетарные рычажки и продавать своему работодателю платные опции, стать субъектом управления стораджем.
 
Для этого необходимо анализировать нижележащие кроссплатформенные технологии и приобретать "стереоскопический  взгляд", свободный от птичьего языка маркетологов и платформозависимости (включая зависимость от линуксовых реализаций, ага-ага).
 
 
Кросс-платформенной документации очень мало. Мне помогают best practices от netapp (WAFL - проприетарная реализация тех же самых идей, которыми вдохновлялись создатели ZFS). Читать их очень непросто: приходится постоянно фильтровать маркетологический птицеяз и ссылки на проприетарные рукоятки управления, подбирая доступные средства достижения поставленных целей.
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 12:41 19-02-2012
slech



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите пожалуйста про Power CLI
Написал я скприптик клонирования некоторых VM.
После выполнения увижел что что-то не прошло. Решил прикрутить обработку ошибок.

Код:
if ($LASTEXITCODE -eq 0) {$BackupStatus = "Backup Successeful"} else {$BackupStatus = "Error ocured during backup"}
echo "$ElapsedTime time elapsed for backup - $BackupStatus" | Out-File $Log -append

 
После выполнения скрипта обнаружил  

Код:
00:00:00.00 time elapsed for backup - Error ocured during backup

Для всех VM.
 
Заметил что  

Код:
echo $LASTEXITCODE

Возвращаяет пустое значение при выполнении любых своих Cmd-Let.
 
Как можно отслеживать код выполнения New-VM ?
 
Спасибо.

Всего записей: 4893 | Зарегистр. 10-11-2004 | Отправлено: 16:50 19-02-2012
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Доброго времени суток всем.  
Возникла такая проблема: установил ESXi 5 на блейдовый сервак, присвоил IPшники, рутовский пароль назначил....а вот в Vcenter данный хост не смог добавить (вылезла ошибка cannot complete login due to an incorrect user name or password, полез на установленный хост через vSphere client -вылетела такая же ошибка. Юзеров не создавал, под логином и паролем, которые создавались в процессе установки -не могу войти через клиент, хотя в граф. интерфейсе самого esxi настройки под этой учеткой (root) менять могу.  
В чем может быть проблема? На 4 версии с таким не сталкивался((  
Заранее благодарен за ответ

 
в локальном БИОС-подобном меню посмотрите - не включен ли Lockdown-режим.
Он как раз блокирует доступ любому пользователю, кроме пользователя vCenter.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 17:13 19-02-2012
slech



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Решилось
 

Цитата:
$LastExitCode
       Содержит код завершения последней выполненной программы Windows.
$?  
       Содержит состояние выполнения последней операции. TRUE, если  
       последняя операция завершилась успешно, FALSE, если она  
       завершилась с ошибкой.
 

Всего записей: 4893 | Зарегистр. 10-11-2004 | Отправлено: 17:27 19-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Стораджи.
 Взгляд на волнующую меня проблему с другой стороны баррикад
 
 
Добавлено:
 
Поднял свою старую тему посвященную многостадийной загрузке осей, универсализации и недоинсталляторам.  
 
Кто заинтересован - велкам.

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 19:10 19-02-2012 | Исправлено: LevT, 19:10 19-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
karavan

Цитата:
P.S.: Остался вопрос на результаты ни как не влияющий, но хотелось бы решения для общего развития. Используя функцию Passthrough удалось пробросить только DFE-520TX, т.к. TG-3468 отсутствует в выводе lspci. Вопрос: "Почему? и Что делать?"  
 А точнее, с какой стороны подойти к ESXi чтобы он заприметил железку в PCIe?

Видеть esxi должен все железки. Особенно при включенной опции в BIOS  "list all pci".
Другое дело, что пробрасываться они могут некоректно: не стартует ВМ или не работает железка внутри ВМ.
 
Для начала проверить саму карту и настройки BIOS.
 

Цитата:
OffTopic: У меня ни когда не будет покоя, pppoe не поднимался из-за кривого ifcfg-ppp0. От смеха плакать хочется )) А я тут о высоких материях и пересборках "на коленке"

А что за шлюз вы используете и почему кривой ifcfg-ppp0?
 

Всего записей: 481 | Зарегистр. 19-06-2009 | Отправлено: 15:50 20-02-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
А что за шлюз вы используете и почему кривой ifcfg-ppp0?  

В смысле шлюз? обычное подключение к провайдеру.
а конфиг был кривой т.к. скопировал его с другой системы и забыл строчку подправить через какой интерфейс делать запросы на сервер pppoe
 
Добавлено:

Цитата:
Видеть esxi должен все железки. Особенно при включенной опции в BIOS  "list all pci".  

Ничего подобного в биосе и близко нет.
А проброс будет только тогда, когда esx будет видеть, что пробрасывать, а железку мы не видим и пробрасывать ее я не могу ему приказать.

Всего записей: 1962 | Зарегистр. 02-12-2011 | Отправлено: 16:24 20-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Да, в продолжение мыслей о производительности RevoDrive 3 x2 на СХД:
 
Я спрашивал почему такая разница между:
1. Скорость диска внутри ВМ
http://i065.radikal.ru/1202/46/edfdc7cec3d5.png
2. Скрость диска отданного старвиндом
http://s018.radikal.ru/i526/1202/89/96b5261564c6.jpg
Хост один. Сеть VMXNet3. Гости 2008R2.
 
Есть интересная мысль, которая раньше в голову не приходила: возможно при таких иопсах и времени доступа диска, такую просадку создает сама задержка сети?
ping -d -s 8972 -c 200 11.11.11.1
PING 11.11.11.1 (11.11.11.1): 8972 data bytes
8980 bytes from 11.11.11.1: icmp_seq=0 ttl=128 time=0.152 ms
8980 bytes from 11.11.11.1: icmp_seq=1 ttl=128 time=0.184 ms
8980 bytes from 11.11.11.1: icmp_seq=2 ttl=128 time=0.210 ms
8980 bytes from 11.11.11.1: icmp_seq=3 ttl=128 time=0.168 ms
8980 bytes from 11.11.11.1: icmp_seq=4 ttl=128 time=0.192 ms
8980 bytes from 11.11.11.1: icmp_seq=5 ttl=128 time=0.213 ms
8980 bytes from 11.11.11.1: icmp_seq=6 ttl=128 time=0.192 ms
8980 bytes from 11.11.11.1: icmp_seq=7 ttl=128 time=0.188 ms
8980 bytes from 11.11.11.1: icmp_seq=8 ttl=128 time=0.247 ms
8980 bytes from 11.11.11.1: icmp_seq=9 ttl=128 time=0.212 ms
 
Если сравнить локальный и сетевой скриншоты, то видно, что разница времени доступа как раз в эти ~ 0.200 ms на мелких пакетах и отсюда просадка в иопсах. На больших пакетах разница увеличивается, так как большой пакет проходит с еще большей задержкой, но в процентном соотношении падение скорости значительно меньше (на мелких пакетах просадка в 3-4 раза на крупных в 2).
 
Получается, при большом времени доступа задержка сети почти незаметна, но при задержке доступа в десятые доли милисекунды задержка вносимая сетью оказывается существенной...
 
Нужно учитывать, что HDTune делает тест с единичной очередью.
При большой дисковой очереди скорость должна быть гораздо ближе к максимальной для дисков или сети.
 
Я прав в своих рассуждениях?
 
Добавлено:
karavan

Цитата:
В смысле шлюз? обычное подключение к провайдеру.

Шлюз-Gateway, т.е. гейт по-вашему  
Имелось в виду какую ось под гейт вы используете, и почему в ней кривой ifcfg-ppp0.
 

Цитата:
А проброс будет только тогда, когда esx будет видеть, что пробрасывать, а железку мы не видим и пробрасывать ее я не могу ему приказать.

Повторюсь: ESXi должен видеть все железки. Он может не работать с ними или работать криво, но само присутствие неизвестного устройства в порте должен показать. Если он его не видит, то устройство может быть нерабочим или отключенным в BIOS. Загрузите любой лайв CD и посмотрите видна ли ваша карта системе. ИМХО

Всего записей: 481 | Зарегистр. 19-06-2009 | Отправлено: 17:01 20-02-2012 | Исправлено: LanStateMap, 17:57 20-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Всё о тех же стораджах. Ещё доза инфы и пара вопросов
 
Слово "таргет" имеет два значения. Таргеты (1) относятся к SAN и являются виртуальными объектами с именами вида "iqn..." или "eui...", другого рода таргеты (2) - софтовые пакеты в операционках, управляющие жизненным циклом первого рода таргетов: их созданием-удалением, контролем доступа инициаторов к ним, наполнением их лунами с контентом.
 
 
Вмваре жаждет видеть по крайней мере единственный нулевой лун за любым таргетом(1), а также не терпит перенумерации лунов за подключёнными к хостам таргетами(1). Последствие неосторожного несоблюдения этого правила -  недопустимая неуправляемость отдельных хостов (но виртуалки работают), эпидемически распространяющаяся на другие хосты вцентра: то есть реально даунтайм целой инфраструктуры, требующий перезагрузки хостов. (Содержимое стораджа за теми лунами, однако, остаётся в безопасности.)
 
Луны - это то, что ВИДНО за таргетом(1), глядя из SAN глазами инициатора.
 
 
В присущем солярке таргете(2) COMSTAR настраивается глобальный View (настраивается он отдельно от таргетов-1 и от предоставленного zfs реального стораджа - zvol-ов)
 
Нативный рычаг управления солярной хранилкой - единственный для всех потенциально желающих на неё взглянуть любых (независимо от транспорта SAN) инициаторов  
 нумерованный {0,1...} список кортежей (shared zvol {unique}, target group {default=All}, remote initiator group {default= All}).  
Добавляя туда запись, можно вручную задать (не занятый) номер луна, а можно положиться на автоматический инкремент.
Записи можно и удалять - но вмваре сносит крышу, если если речь идёт о видимых вмварным инициаторам лунах и потом под старым номером скрытого луна добавляется иной известный вмваре zvol. Делать такое следует только в крайнем случае, во время запланированного даунтайма всей инфраструктуры. Я предупредил.

 
Постепенно я пришел к выводу, что для безотказной работы нынешней Vsphere 5.0 необходим вручную созданный глобально пронумерованный список осмысленных лунов за каждым таргетом, скажем, 0,5,10,15...  То есть единожды попавший туда блочный девайс (RDM или контейнер для VMFS) не должен перенумеровываться! (удалить осмысленный для вмваре контент и затем создать под тем же номером новый девайс всё же можно).  
 
Мне лично этот вывод не нравится. Альтернативы?
 
 
А теперь просьба к опытным оленеводам: рассказать об устройстве и нативных рычагах управления мапингом лунов в других таргетах(2): линуксовых, бсдешных и более экзотических.  
 
 
Добавлено:
 
А также интересно, как решают вопрос перенумерации лунов без даунтайма инфраструктуры управлялки брендовыми стораджами? Или они не допускают даже и мысли о такой ереси?

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 23:23 20-02-2012 | Исправлено: LevT, 01:45 21-02-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Имелось в виду какую ось под гейт вы используете, и почему в ней кривой ifcfg-ppp0.  

Первым гейтом центось, а на втором экспериментирую с джентой.
А на счет кривости конфига выше отписал. На системе откуда копировал интерфейсы названы "inet" и "lan", а на новой "eth0" и "eth1", вот и забыл исправить строчку ETH=inet
Система стучалась к прову через несуществующий альяс.

Всего записей: 1962 | Зарегистр. 02-12-2011 | Отправлено: 00:37 21-02-2012
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
а также не терпит перенумерации лунов за подключёнными к хостам таргетами

Ну не знаю, не знаю. У меня при обмене номеров у двух лунов ничего страшного не произошло, разве что два раза пришлось сделать рескан, после первого изменённые луны исчезли, после вторго успешно появились со своими номерами.

Цитата:
Луны - это то, что ВИДНО за таргетом(1), глядя из SAN глазами инициатора.

С формальной точки зрения - вроде правильно, но чуствуется некоторое непонимание вопроса. Вообще к терминалогии надо подходить с рассмотрения исторических корней.
Стоит вспомнить что это SCSI, и пытаться найти модель с точки зрения именно SCSI. Инициатор - это усторйство инициировавшее обмен по шине (чаще всего HBA). Тагет - это усторйство, которому обращается инициатор для обмена. Тагетом в стандартной модели выступают диски, магнитафоны и пр. периферия. LUN - номер логического устройства, т.е. число, определеяющее логический раздел в общем конечном устройстве. Напимер, в обычных дисках в наличии только один логический раздел, он и представленин LUN-ом = 0, в системах хранения где таких разделов более 1 они отдаются разными LUN-ами.
Всё это справедливо там, где SCSI инкапсулируется в другие протоколы (FC, iSCSI etc)

Всего записей: 957 | Зарегистр. 01-09-2003 | Отправлено: 07:03 21-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Oleg_Kurilin

Цитата:
Ну не знаю, не знаю. У меня при обмене номеров у двух лунов ничего страшного не произошло

 
Уточню: для аптайма хостов в управляемом состоянии страшен не всякий обмен номеров лунов, а только если затронутые перенумерацией луны содержат сторадж, уже известный вцентру (VMFS).
 
 

Цитата:
LUN - номер логического устройства, т.е. число, определеяющее логический раздел в общем конечном устройстве.  

 
А вот тут я не согласен.  
По-моему, смысл лунов и разделов "диска" (луна) принципиально разный. Для меня что-то начало проясняться именно тогда, когда я их разделил.
 
 
Луны и партиции это номера на РАЗНЫХ координатных осях. Прежде, чем фирмваре компа (биос или уефи) станет искать активный раздел первого "диска" (а именно таков смысл партиций), оно должно определиться с тем, откуда оно возьмёт загрузочное меню блочных устройств (то, что доступно для выбора в биос сетапе и вылазит по клавише например F8 на асусах).  
 
 
При этом инициаторов (софтовых модулей-драйверов) в фирмваре может быть несколько. У каждого инициатора свой вид на доступные ему луны. (В случае старого SCSI луны на каждой шине заведомо разные, а вот в современных SAN с мультипасом приходится опираться на "видимость лунов": для SAN именно она понятие первичное, а луны не более чем "логические номера" за таргетами.)  
 
Общий SCSI-протокол проявляется в выделенной роли LUN0 за каждым таргетом. LUN0 это "management LUN" - то есть он является рукояткой управления таргетом, принимая соответствующие команды SCSI от допущенного инициатора.
 
 
Добавлено:
 
 
Современный сторадж может быть понят только "стереоскопическим зрением". У SAN и у хостов совершенно разные картины мира.
 
Путаница происходит от того, что управлялки SAN - приложения на хостах-инициаторах. Причем путаница не только у оперирующих окошками доширак-админов, но и у софтописателей проприетарной фирмвари. (Я даже допускаю возможность, что те заблуждаются честно: от них требуется не понимание, а другое.)
 
Разработчики свободного софта тоже часто не выходят за плоскость хостоцентричного взгляда. Именно потому, что считают себя разработчиками линукса, соляры и проч. - а не SAN.
 
 
Добавлено:
 
В SAN хосты называются узлами.
 
Дело SAN - предоставить узлам-инициаторам вид на наборы логических номеров за узлами-таргетами.
В iSCSI процедура двухуровневая: SAN предоставляет вид на "таргет-порталы", а уже те указывают на таргеты с лунами и, возможно, альтернативные порталы к тем же таргетам. Каким именно образом указывают, определяется статической и динамической конфигурацией target discovery на узлах.  
 
Дело SCSI-инициатора на узле - опрашивая LUN0 за сторадж-таргетом, интерпретировать весь предоставленный набор лунов как блочный сторадж (набор SCSI-таргетов разного типа: кроме дисков, это могут быть сидюки, ленточные библиотеки и т.д).
 
Дело сторадж-приложения - осмысленно интерпретировать содержимое этого стораджа. (Например, вмваре должна там разглядеть тома VMFS, винда NTFS и т.д.)

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 09:28 21-02-2012 | Исправлено: LevT, 12:47 21-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Вдогонку.  
 

Цитата:
Слово "таргет" имеет два значения. Таргеты (1) относятся к SAN и являются виртуальными объектами с именами вида "iqn..." или "eui...", другого рода таргеты (2) - софтовые пакеты в операционках, управляющие жизненным циклом первого рода таргетов: их созданием-удалением, контролем доступа инициаторов к ним, наполнением их лунами с контентом.  
 

 
Таки не два значения у слова "таргет", а как минимум три. Третье значение промежуточное между упомянутыми: это SCSI-таргет.
 
 
Добавлено:
 
Приготовление "вида на луны" в SAN осуществляется с помощью секретного кунфу зонирования.
 
Зонирование - административная настройка SAN, сама потребность в которой не осознаётся хост-ориентированными разработчиками фришного софта. Потому админы датацентров вынуждены искать утешения у вендоров проприетарных сан.
 
 
Технически зонирование может осуществляться как в собственно SAN (на узлах-таргетах и на свитчах), так и с помощью централизованного управления ос-специфичным софтом, установленным на узлах-инициаторах.
 
 
Добавлено:
 
Или вот как в Sansymphony - на проприетарном прокси-узле SAN.

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 11:36 21-02-2012 | Исправлено: LevT, 12:38 21-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Зонирование именно в iSCSI (не в любой SAN) делается через iSNS сервер.  
К сожалению, для нас это не катит: вмваре не умеет этот метод target discovery
 
 
Добавлено:
 
Вдогонку
 

Цитата:
Постепенно я пришел к выводу, что для безотказной работы нынешней Vsphere 5.0 необходим вручную созданный глобально пронумерованный список осмысленных лунов за каждым таргетом, скажем, 0,5,10,15...  То есть единожды попавший туда блочный девайс (RDM или контейнер для VMFS) не должен перенумеровываться! (удалить осмысленный для вмваре контент и затем создать под тем же номером новый девайс всё же можно).    
 
Мне лично этот вывод не нравится. Альтернативы?  

 
 
 
Могу теперь сформулировать, чем мне такое поведение вмваре не нравится: смешением уровней того сторадж-стека, который я только что описал.
 
Благополучие верхнего уровна (сторадж-приложения) не должно зависеть от деталей реализации сессионного или транспортного уровней.  Ну пофиг должно быть приложению на порядок лунов (    
Хотя бы всех остальных, кроме нулевого.
 
 
Предполагаю, что вмваре тут не одинока... разработчики сторадж-приложений привыкли к халяве: фирмваре SAN и драйвера на хосте разберутся с лунами при перезапуске, не наше это барское дело... типа.  
 
Мне не нравится то именно, что сторадж-приложение полагается на сервис нижнего уровня в пределах одного хоста - а не в целой SAN.  Изменения видимости лунов за таргетами возможны динамические, и сторадж-приложения (такие инфраструктуры управления сетевыми менеджерами томов, как присущая вцентру) должны быть к ним хотя бы устойчивыми (если не корректно обрабатывать, то хотя бы не выпадать в осадок и сигнализировать о проблеме  вопросом к админу)
 
 
 
Добавлено:
 
Возможно, что процедуру "разборки с лунами" (более глубокую, чем рескан датасторов) можно как-то инициировать на хосте без его перезагрузки.  
 
Например, полностью перезапусить подсистему стораджа, начиная с ядрёных модулей...
 
Какие будут мысли?

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 14:19 21-02-2012 | Исправлено: LevT, 15:13 21-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Чеканю формулировки.
 
 
Сторадж-приложение (level 7) - умеет интерпретировать тома определённых файловых систем, собирая их из подходящих экстентов SAN лунов (а в скором будущем также и NAS шар)
(это то, что в вмваре делает "Rescan for VMFS Volumes")
 
Сторадж-презентация (level 6) - умеет перечислять все сидюки, все ленточные библиотеки, все доступные "диски"...  от разных инициаторов
Умеет интерпретировать партиции на размеченных лунах (что важно например в фирмваре для старта расположенной на одной из этих партиций оси). Умеет собирать отказоустойчивый сторадж, шифровать, сжимать и дедуплицировать...
   
Сторадж-сессия (level 5) - умеет интерпретировать ответы от LUN0 за таргетом и в частности классифицировать остальные луны по SCSI-возможностям.
(Именно на этом 5-м уровне отваливается сторадж-стек вцентра при перенумерации лунов за таргетами)
 
 
Сторадж транспорт (level 4) - умеет интерпретировать ответы таргет-портала и предоставлять вид на луны, расположенные за конкретным таргетом.
(Это то, что делает "Rescan for Datastores")
Именно на 4-м уровне работает сторадж-multipathing, идентифицируя тождество лунов, достигаемых разными путями
 
Нижележащие уровни сторадж-сетевого взаимодействия устроены по-разному в зависимости от разновидности SAN или локального "SAN loopback" (а вот этот последний термин я только что выдумал из головы: признаюсь)
 
Начиная с 4-го уровня этой модели и выше нет разницы между локальным и сетевым стораджем. (За исключением таких особенностей сетевого стораджа, как мультипас на 4-м уровне и кластеризация на 7 уровне - для локального стораджа бессмысленных)
 
 
 
Опять же, не претендую на конечную истину описания, его полноту и безгрешность. Но определённого лаконизма я, кажется, достиг. )

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 01:43 22-02-2012 | Исправлено: LevT, 09:03 22-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Каналы управления стораджем.  
 
 
На средних промежуточных уровнях модели работают унаследованные от старых технологий in-band каналы управления SCSI-таргетом и iSCSI порталом. Все они работают для узла-инициатора и не предусматривают ни какого либо управления узлом-таргетом вне полосы пропускания сигнала соотв. уровня, ни тем более централизованного управления для SAN.
 
Каналы централизованного управления SAN все проприетарные. Каждый сторадж-вендор придумывает собственные язык и рукоятки управления (терминологию, GUI и CLI).  И такие теперь уже важнейшие функции, как мультипас и кластеризация, не управляются стандартизированно.
 
Собственно сторадж-функционал доступен свободно на любом уровне модели: вендоры SAN торгуют не самим функционалом, а дозированным допуском к проприетарному каналу управления им. И уже во вторую очередь, сформировав у клиентуры прочную зависимость, иногда решаются впаривать ей кастрированные железки.  
 
 
В условиях ОТСУТСТВИЯ СТАНДАРТА ничто не мешает каждому из нас стать сам-себе-вендором, выдумать свой язык и соорудить удобные именно для себя, адекватные своей собственной кухне управляющие рычажки.
 
И разным людям со сходными проблемами тоже ничто не препятствует общаться уже сейчас, выдумывая общий язык и обсуждая "лучшие практики": нет необходимости сидеть и ждать для этого денег (каждому своих) на "суперсан" и курсы сертфикации от её вендора.  
 
 
Добавлено:
 
 
Вмваре кстати, именно что исполняет эту мою программу, не будучи вендором SAN: её продукт вцентер является - в частности, среди многого прочего - распределённым менеджером томов (под конкретную файловую систему VMFS)
 
Они влезли на глобальный рынок стораджа, с компанией вынуждены считаться вендоры "аппаратных" стораджей.  Но в вмваре работают тоже люди, не все их решения продуманы со всех сторон и реализованы в совершенстве.
 
В частности, на данный момент вмваре как управлялка (не только сетевым стораджем, но и гипервизорами) мрёт при определённых условиях в результате изменений внутри сторадж-таргета. Возможно, это будет исправлено в след. версиях, а пока, пользуя их L7 и L4-управлялки это надо просто учесть и двигаться дальше, обходя уже известные грабли.

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 09:41 22-02-2012 | Исправлено: LevT, 11:36 22-02-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
(Именно на этом 5-м уровне отваливается сторадж-стек вцентра при перенумерации лунов за таргетами)  

 
а зачем делается эта перенумерация или в каких случаях она происходит ?
это чтото вроде - если на СХД сдох массив, приходится его или ребилдить или вобще создавать новый СХД - тогда эти луны и меняют номера ?

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:43 22-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Навёрнутая многоуровневая модель помогает в мышлении и общении, и на практике необходима для взаимодействия разработчиков из разных административно "организаций"
 
Волевым решением единоличного субъекта о конкретной реализации сторадж-инфраструктуры внутри организации возможно её упростить, выкинув несущественные подробности.
 
 
На мой взгляд, удачным упрощением является zfs с её layering violation, целостностью стораджа и свободными от наглых заяв проприетарщиков нативными рукоятками управления, в т.ч. близкородственным солярным таргетом.
 
Вкупе с управляющими возможностями вмваре, нативные рукоятки соляры на мой взгляд покрывают всё необходимое и сохраняют задел гибкости. Нексента - условно-доступная управляльная морда - ещё добавляет юзабельности и помогает в обучении. Дополнительно есть совершенно бесплатная napp-it.org
 
 
 
Добавлено:
GaDiNa
 
Щас отвечу
 
Добавлено:
 

Цитата:
а зачем делается эта перенумерация или в каких случаях она происходит ?  

 
В основном в процессе самообучения и экспериментов на живых котятах с данными.
 
В суровом продуктиве хаотичеких изменений не предвидится: напротив, должны быть определены все штатные операции с объектами стораджа и отработаны процедуры траблшута наиболее вероятных нештатных ситуаций.
 
Вот на пути к этому светлому будущему и возникает перенумерация лунов: в процессе уборки за собой хвостов из мусора, зашедших в тупик и устаревших проектов.
 
 

Цитата:
это чтото вроде - если на СХД сдох массив, приходится его или ребилдить или вобще создавать новый СХД - тогда эти луны и меняют номера  

 
Нет, перенумерация лунов на экспорт никак не связана с целостностью нижележащего сторадж-массива.
 

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 13:51 22-02-2012 | Исправлено: LevT, 14:18 22-02-2012
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
На мой взгляд, удачным упрощением является zfs с её layering violation, целостностью стораджа и свободными от наглых заяв проприетарщиков нативными рукоятками управления, в т.ч. близкородственным солярным таргетом.

Странно, для успешного подключения HP MSA P2000 G3 достаточно было нажать 3 раза на кнопочку и усё! А все эти разговоры про тонкую настройку производительности для неокрепших умов, с целью вовлечения в свою "секту".
Что-то разговор пошёл не по теме, может про vmware поговорим?

Всего записей: 957 | Зарегистр. 01-09-2003 | Отправлено: 14:35 22-02-2012
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Oleg_Kurilin

Цитата:
Странно, для успешного подключения HP MSA P2000 G3 достаточно было нажать 3 раза на кнопочку и усё!  

 
Для начала её надо было купить )
А сейчас купившие её тогда - выслушивают от сторадж-торгашей презрительные советы расставаться со старьём и прикупить что-нибудь ещё.
 
 

Цитата:
А все эти разговоры про тонкую настройку производительности для неокрепших умов, с целью вовлечения в свою "секту".  

 
Я тоже против этих разговоров. Если они преждевременны как сейчас, то есть не основаны на общевоспроизводимом опыте, общепринятой и технически обоснованной методологии тестирования.
 
 

Цитата:
может про vmware поговорим?

 
Я как раз за то, чтобы мой сторадж управлялся мною от начала до конца, на основе понимания мною механизма его работы и умения его самостоятельно чинить и развивать. И обязательно без наркоты купленного за большие деньги дозированного доступа к проприетарным кнопкам.
 
Потому на сей момент мой выбор вмваре плюс сторадж на зфс-бэкенде.

Всего записей: 17108 | Зарегистр. 14-10-2001 | Отправлено: 14:53 22-02-2012 | Исправлено: LevT, 16:48 22-02-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru