Перейти из форума на сайт.


Система IP-видеонаблюдения "Линия". Скачать бесплатную демо-версию для 16 камер. НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Продолжаю систематизацию представлений о современном сторадже.
 
 
Многоцелевая ось создает пригодные для собственного употребления и содания LAN шар тома на том, что она считает старорежимными "дисками". В настоящее время это её мнение является результатом многоэтажного обмана, как со стороны подсистем собственных, так и посторонних:  встроенных в "аппаратные рейды" осей специального назначения и иных скрытых за таргетами соседей по SAN.
 
 
Многоцелевые оси иногда содержат в себе подсистему сторадж-таргета, являющуюся поставщиком блочного стораджа для SAN. Также они всегда являются потребителями пригодных для локального форматирования контейнеров - локальных томов, изготавливаемых ими с помощью собственной подсистемы "менеджера томов". Иного рода тома улавливаются из астрала эмулируются их сетевым клиентом в виде готовых сетевых файловых систем (NFS, SMB/CIFS и т.п.). Последние экспортируются в виде шар серверами NAS, расположенными в LAN.  
 
 
Локальный том это контейнер для создаваемой осью локальной файловой системы. Том может состоять из одного или нескольких "экстентов" (если расширение поддерживается конкретной ФС); каждый экстент это блочное устройство, предоставленное менеджером томов.  Последние тенденции в сетевых файловых системах ведут к тому, что те также будут собираться из экстентов-шар, в общем случае обслуживаемых разными серверами.
 
 
Менеджер локальных томов занимается изготовлением экстентов из "дисков" (напоминаю, что "диски" также сущность поистине виртуальная во всех отношениях).  
 
Менеджер томов это миддлваре, в общем случае кросс-платформенное и распределённое, способное для изготовления экстентов использовать не только локально доступные луны, но и обмениваться блочным стораджем с аналогичным софтом на других узлах LAN.
 
Исторически сначала появились проприетарные сетевые менеджеры томов, но популярности они не приобрели и впоследствии недостающий в NAS сетевой сторадж-related функционал был восполнен SAN. Винда когда-то лицензировала для локального применения огрызок сетевого веритасовского менеджера (в 2008 винде он был переписан), линуксоиды написали свой lvm... их аналоги повсеместны.

 
Локальный смысл менеджера томов - в преодолении ограничений MBR-разметки "дисков".  
Частично этот смысл утратится с переходом на GPT-разметку, так или иначе вынужденным в связи с 2TB пределом MBR-размеченных "дисков"
 
Разметка "дисков" на разделы-партиции - это то, что способны интерпретировать аппаратная часть компьютера (точнее, его BIOS, UEFI или иного сорта фирмваре, с целью передать управление загрузчику оси)  и загрузчики осей (с целью найти подходящую файловую систему, откуда можно взять необходимые для дальнейшей загрузки ядро и конфиги).
 
Однако менеджер томов также занимается сборкой истинно софтовых "рейдов" (продукт которых обладает заданным уровнем отказоустойчивости, но ограниченной переносимостью, поскольку не может быть гарантированно интерпретирован другими осями).
 
Есть ещё "фейковые рейды" (fake raid) - это чипсетные и прочие дешевые контроллеры, "аппаратно" содержащие в себе загрузочный софтовый модуль. Благодаря ему их продукт может быть интерпретирован фирмварью с целью обеспечения загрузки c него винды с помощью проприетарных драйверов. Линуксоиды наградили их обидным прозвищем, но все же со временем умудрились их полноценно поддержать: деваться им было некуда. А вот вмваре сделать это не удосужилась.
 
 
 
"Диски", потребляемые менеджером томов, изготавливаются из лунов.
 
 
[TODO. Найти место в этой картине фейковым рейдам и линуксовому drive mapper.]
 
[TODO. Описать ZFS layering violation (упрощение описанной в этом посте запредельно навёрнутой сложности)]
 
 
 
На вход сторадж-стека в любой оси поступает массив лунов, предоставленных локальной дисковой системой либо транспортом бэкэнд-стораджа (драйверами SAS, FC или iSCSI-инициаторов).
 
В винде эти классы девайсов называются scsiport и storport, соответственно (в соляре и в ESX картина подобная). Последний, в отличие от первого, приспособлен для лун-multipathing и кластеризации.
 
"Аппаратный" лун обладает заданным уровнем отказоустойчивости, обеспечиваемым с точки зрения оси либо непонятно как невидимою рукою "облаком" SAN заверениями стороннего сторадж-бэкенда никак, либо вымирающим классом локального scsi-стека.
 
 
 
"Стереоскопические" уточнения от линуксоидов приветствуются ...и вообще буду благодарен за исправления.

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 22:19 16-02-2012 | Исправлено: LevT, 03:27 17-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ZFS-ось создаёт свои объекты (количество которых практически неограничено) на zpool-ах.  
Основные объекты это иерархия "zfs filesystems" ("файловые системы", создаваемые осью для локального монтирования и для экспорта в LAN в качестве шар SMB/NFS и проч.), внутри которых, наряду с обычными папками и файлами могут располагаться "zfs volumes" ("тома", для расшаривания в SAN блочных устройств по iSCSI, FC и проч.).  
 
zpool ею собирается из vdev-ов.  
При том, что это выглядит в процессе конфигурирования конкатенацией а-ля JBOD или spanning volume, реальный ввод-вывод сбалансирован по всем устройствам.
 
vdev собирается из блочных устройств, обладающих заданным уровнем отказоустойчивости (каждый из них может иметь отказоустойчивость никакую, либо зеркальную, либо иметь 1, 2 или 3 устройства чётности).  Кроме vdev-ов, составляющих полезную ёмкость, к zpool-у могут быть добавлены специального типа vdev-ы: это кэши (обычно собранные из SSD) log и l2arc, а также hotspares.
 
 
Однако из-за сквозного подсчёта контрольных сумм есть прямой смысл собирать vdev-ы не из виртуализованного чем-то ещё стораджа, а из старорежимных дисков (настоящих, без кавычек). Чтобы в случае чего определить сбойнувший девайс физически. А в случае непоправимых повреждений данных ZFS укажет не только конкретно пострадавшие zfs volume или zfs filesystem, но также конкретные пострадавшие файлы на последней.
 
 
В силу этого ZFS-оси идеально подходят на роль SAN таргетов и почти полностью побивают в этом качестве невнятное проприетарное фирмваре.  
 
Присущая солярке подсистема SAN-таргета называется COMSTAR и имеет рабочие "драйвера" для таких SAN транспортов, как iSCSI (over TCP/IP), FC (нативный и over Ethernet), iSRP (как-то связанный с инфинибандом)   К сожалению, благое намерение сановцев реализовать SAS таргет так и не пошло дальше экспериментального драйвера mptsas_target в 10-й соляре. Также, проприетарные сильно платные управлялки обеспечивают существенно больший уровень чувства комфорта и защищённости доширак-админу платных таргетов, чем любые бесплатные инструменты управления экосистемой ZFS
 
 
А вот какой милый бонус предлагает соляра при использовании в качестве NAS: к солярному CIFS-серверу можно подключиться виндовой оснасткой "управление компьютером", видеть оттуда нативные "Службы" собственно соляры и клиентские CIFS-сессии, а также управлять разрешениями на шарах.

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 02:30 17-02-2012 | Исправлено: LevT, 03:37 17-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
экспериментального драйвера mptsas_target

LevT
Ух ты, а я думал такое чудо только для LSI 1068 и только для Linux
 
Добавлено:
Подскажите в supermicro все вентиляторы крутятся со скоростью 2000, а вентилятор на процессоре 770 (так и должно быть), как убрать warning с датчика скорости в vCenter ?
Ругается на то что вентилятор плохо крутиться.

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 06:42 17-02-2012
CuMoH

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
 
 
Как побороть вот такую ошибку. Появилась сама собой

Всего записей: 33 | Зарегистр. 03-11-2007 | Отправлено: 10:53 17-02-2012
alex sikorsky

Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
CuMoH
Авест в систему ставили?

Всего записей: 225 | Зарегистр. 11-12-2006 | Отправлено: 11:13 17-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
CuMoH

Цитата:
Как побороть вот такую ошибку. Появилась сама собой  

без шифрования подключается?
вместо 172.18.1.114 ввести http://172.18.1.114

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 11:26 17-02-2012
PICASS0



Junior Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
может есть у кого vSphere Hypervisor ESXi 5.0 Driver Rollup 2, если несложно выложите или дайте ссылку в приват, за ранние спасибо.

Всего записей: 54 | Зарегистр. 12-06-2008 | Отправлено: 12:18 17-02-2012
CuMoH

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
CuMoH  
Авест в систему ставили?

 
 
Авест ставили, точно по идее после этого и на..нулось, как это побороть?
Какая установившаяся практика подружить авест и vm client

Всего записей: 33 | Зарегистр. 03-11-2007 | Отправлено: 12:41 17-02-2012 | Исправлено: CuMoH, 13:20 17-02-2012
alex sikorsky

Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
CuMoH

Цитата:
Авест ставили, точно по идее после этого и на..нулось, как это побороть?  
Какая установившаяся практика подружить авест и vm client

 
 
По нормальному - сносить нафиг эту гадость.
Ну если очень нужен, ходят слухи, что в последнем билде который лежить на avest.by кривую регистрацию криптопровайдеров поправили.

Всего записей: 225 | Зарегистр. 11-12-2006 | Отправлено: 01:10 18-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 уточнения от линуксоидов приветствуются

Да, ты почему-то слишком сосредоточен на zfs.
И просьба - придерживайся одной терминологии, а то у тебя в двух постах одно и то же называется тремя именами (похожими, но новичок может и запутаться).
 
Чуть по занудствую:

Цитата:
ZFS-ось создаёт свои объекты

Нет такого понятия ZFS-ось. Есть оси, с поддержкой файловой системы ZFS (нужной версии). Например у того же линукса поддержка zfs есть, т.е. можно видеть, читать, писать на такие волумы, но т.к. из-за лицензии модуль файловой системы нельзя добавить в ядро, он работает из пользовательского окружения, т.е. работать можно, но в продакшен такое не поставишь. А вот как resque - вполне можно и линуксом данные восстановить.
 

Цитата:
к солярному CIFS-серверу можно подключиться виндовой оснасткой

Все это делает стандартная samba (ну, плюс не забыть acl на фс включить) так что оно везде одинаково.
 
Теперь с т.з. линукса:
 
У нас есть следующие сущности:
- блочные устройства (работа с которыми идет на уровне "прочитать/записать блок 512байт", а не на уровне файлов), это может быть диск целиком, раздел на диске, рам-диск и даже файл на файловой системе можно считать блочным устройством. По SAN-сети экспортируются блочные устройства, файловую систему на них создают клиенты. Блочное устройство можно так же назвать луном (lun).
- файловые системы - создаются на блочных устройствах. Применимо для NAS-сети, клиенты пишут по сети файлы, не представляя какая на блочном устройстве реальная файловая система, samba/nfs это за собой скрывают.
 
С т.з. рейдов и т.п. - исповедуем unix-way, для каждой отдельной задачи - своя утилита (хотя все они - куски подсистемы dm - device mapper).
Для создания из кучи блочных устройств рейда - md(mdadm).
Для организации lvm-томов - lvm2.
Для создания кеша на других блочных устройствах - flashcache  
Для синхронизации блочных устройств между несколькими серверами - drdb
и т.д.
 
_MD_
Берет блочные устройства, создает из них raid любого уровня, на выходе получаем новое блочное устройство типа /dev/md0.
Любая степень вложенности, например нередко используется типа raid1, поверх двух raid5 из 5-8 дисков.
(Например для тестовых игр запросто создаем 3-10 файликов одинакового размера на диске (интерпритируем их как блочные устройства), и делаем из них тестовый рейд, портим их, смотрим как выживает и т.п.).
 
N.B. умеет интересные вещи, полезные в быту. Например 5-ый рейд можно создать в degrade на 2 дисках! (без создания четности). Так же 5-ый рейд можно динамически увеличивать, не прекращая работы. Был скажем из 3 дисков, добавили до 4, потом до 5 и т.д. - очень полезная опция для домашних raid, которые постепенно наращиваются по мере надобности.
 
_LVM_
Новый подход к созданию томов.
На нижнем уровне лежат "физические блоки"- PE (phisical extents) - любое блочное устройство можно обьявить PE для LVM.
На втором уровне - блоки принадлежат "группе томов" VG (volume group). Сами блочные устройства PE можно добавлять и убирать из VG, если не заняты.
На третьем уровне создаются логические тома LV (logical volume) - новые блочные устройства.
 
Создавалось все это для отвязывания логических дисков от физических, а так же всяких плюшек типа snapshot и т.п.
Во первых размеры LV можно изменять не прекращая работы (если не забудете позаботиться о файловой системе, что на них лежит - уменьшить фс до уменьшения lv, увеличить фс после увеличения lv. так же есть утилиты делающие это одной командой).
Во вторых lv не знает, и никак не привязан на каких pe (блочных устройствах) он лежит.
Пример - есть старый рейд, надо перенести его на новый. Добавляем новые диски в систему, добавляем новый рейд как pe в группу vg, говорим lvm, что старый pe будет удален (он сам перенесет все данные с одних pe на другие), удаляем старые pe из vg, вынимаем старые диски. Все это делается даже не прерывая работы софта с данными (lv никак не затрагивается), не говоря уж о перезагрузках.
 
Итого, типичный СХД сервер на linux:
Raid из физических дисков  (или raid поверх raid)  
Парочка ssd дисков (опять в raid) в качестве кэша (аналог l2arc) с помощью flashcache.
Поверх полученного устройства - lvm2, создаем нужные луны (lv) нужных размеров и т.п.
(Тут, если сервера СХД два и более - можно поверх lv надеть drdb - получить отказоустойчивое хранилище)
И наконец все (или отдельные lv) из lvm - экспортируются через iscsi.
 
Собственно это все точно так же служит отличной альтернативой проприетарным СХД, например используется у одного крупного провайдера вирт.машин. Хотя нельзя не сказать, что и ZFS на солярке, и linux все же не имеют некоторых аналогов фич, которые есть в крупных стораджах.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 12:19 18-02-2012
compprofi007

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Доброго времени суток всем.  
Возникла такая проблема: установил ESXi 5 на блейдовый сервак, присвоил IPшники, рутовский пароль назначил....а вот в Vcenter данный хост не смог добавить (вылезла ошибка cannot complete login due to an incorrect user name or password, полез на установленный хост через vSphere client -вылетела такая же ошибка. Юзеров не создавал, под логином и паролем, которые создавались в процессе установки -не могу войти через клиент, хотя в граф. интерфейсе самого esxi настройки под этой учеткой (root) менять могу.  
В чем может быть проблема? На 4 версии с таким не сталкивался((  
Заранее благодарен за ответ

Всего записей: 5 | Зарегистр. 17-12-2008 | Отправлено: 15:18 18-02-2012
CuMoH

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
По нормальному - сносить нафиг эту гадость.  
Ну если очень нужен, ходят слухи, что в последнем билде который лежить на avest.by кривую регистрацию криптопровайдеров поправили.

 
Авест снесли, поставили новый все заработало. СПС

Всего записей: 33 | Зарегистр. 03-11-2007 | Отправлено: 15:24 18-02-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Прошу оказать посильную консультацию, даже не помощь.
Имеется: ESXi 4.1U1
Требуется: добавить в oem.tgz поддержку для устройств DFE-520TX (via_rhine.ko) и TG-3468 (r8168.ko)
Проблема: Все хэлпы ссылаются на http://vm-help.com/esx40i/customize_oem_tgz.php ,
где имеется довольно подробная инструкция по манипуляциям с oem.tgz.
Но ни где не могу найти описания под какой версией ядра делать сборку самих модулей, есть только смутные подозрения, что ESXi представляет собой кастрированный CentOS.
Вывод команды `uname -a` не делает жизнь легче: VMkernel esxi41. 4.1.0 #1 SMP Release build-348481 Jan 12 2011 17:05:17 x86_64 unknown
Ограничения: нет возможности экспериментировать, т.к. гипервизор является рабочей лошадкой с двумя десятками виртуалок которым некуда мигрировать.  
 
P.S.: Еще одна проблемка, надеюсь решится с добавлением модуля r8168.ko:
lspci упоминает только про DFE-520TX, о TG-3468 нет ни одной строчки.

Всего записей: 1153 | Зарегистр. 02-12-2011 | Отправлено: 15:56 18-02-2012 | Исправлено: karavan, 16:11 18-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
easyjohn

Цитата:
Да, ты почему-то слишком сосредоточен на zfs.  

 
Именно потому, что до сих пор не знаю аналогов, способных от начала до конца  контролировать целостность данных (от контрольных сумм на физических дисках до указания админу на конкретный испорченный файл)
 
Возможно в линуксах это сможет btrfs когда-нибудь, когда будет готова в продуктив?
 
Важно то, что по смыслу такая система должна быть нижней в цепочке и работать именно с физическими дисками. То есть никаких слоёв виртуализации (включая SAS-транспорт в рейд-режиме) под собою не иметь.
 
 

Цитата:
И просьба - придерживайся одной терминологии, а то у тебя в двух постах одно и то же называется тремя именами (похожими, но новичок может и запутаться).  

 
Дык я как раз в процессе подбора  терминологии, адекватной задаче - систематическому описанию гетерогенного стораджа как такового, без проприетарного птицеяза и избыточных низкоуровневых подробностей конкретных реализаций.
 
В частности, вот, не признаю копирайта линуксоидов на понятие "блочного устройства"   и т.д.
 
 

Цитата:
Нет такого понятия ZFS-ось.  

 
Раз мы друг друга поняли - значит, теперь есть.   ))
Важно то, что во фринасе есть та же самая зфс, но вместо солярного COMSTAR таргета там что-то своё бздешное. Тем более в линуксах.
 
 

Цитата:
Хотя нельзя не сказать, что и ZFS на солярке, и linux все же не имеют некоторых аналогов фич, которые есть в крупных стораджах.

 
Важно то, что в крупных стораджах тот же самый линукс с scst/stgt или солярный таргет. Это в лучшем случае, а в худшем - нечто древнее-проприетарное на тормозном не-x86 асике.
 
А фичи - закопирайченный проприетарный софт, с жестким фейс-контролем, куда нас не пускают дальше дозволенных лицензией рычажков.

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 18:54 18-02-2012 | Исправлено: LevT, 12:07 19-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
karavan
В рамках консультации и огромного желания вам помочь советую не заниматься этим.
 
Следующие высказывания взаимоисключающие:

Цитата:
Требуется: добавить в oem.tgz поддержку для устройств DFE-520TX (via_rhine.ko) и TG-3468 (r8168.ko)


Цитата:
Ограничения: нет возможности экспериментировать, т.к. гипервизор является рабочей лошадкой с двумя десятками виртуалок которым некуда мигрировать.  

 
Я понимаю, когда люди занимаються прикручиванием дров в следующих ситуациях:
- тестовый компьютер, который должен быть максимально дешевым;
- специфическое железо, которое нечем заменить или замена повлечет за собой большие финансовые вложения;
- изучение в лаборатории самой возможности внедрения дров;
- прикручивание набортного железа при отсутсвии слотов;
- ...
 
В вашем случае ничего подобного не видно, ваши железки обычные бюджетные сетевушки занимающие отдельный слот. И вы хотите использовать их в продакшене?
 
Вы не написали самого главного: зачем вам это?
Именно в этом форум может оказать огромную помощь.
Поймите правильно, имею огромное желание вам помочь, но есть много ситуаций, когда человек бьется головой об стену, не зная что в полуметре слева есть проход.
Например:
- что мешает купить номальные сетевушки?
- возможно стоит пробросить ваши сетевушки внутрь нужной ВМ?
- может получить дополнительный интерфейс можно с помощью вЛанов?
- каковы ваши текущие физ.линки, нет ли там избыточных?
- как насчет vSphere 5? Говорят там есть нормальная поддержка реалтеков, тогда с TG-3468 будет проще, а DFE-520TX может все же на свалку ?
- и т.д.
 
Так зачем вам в продакшене поддержка DFE-520TX и TG-3468?

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 19:26 18-02-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LanStateMap

Цитата:
советую не заниматься этим.

Имеется успешный опыт по добавлению sata_sil24.o (хотя возможности железки меня не удовлетворили), но не помню в какой версии центоси и для какого ESXi я это собирал.
В принципе ничего страшного в этом не вижу. Упоминая об отсутствии возможности экспериментов, имел ввиду, что хотелось-бы уложиться максимум в пару ребутов с общим временем не более полу-часа. Отсюда следует, что не могу подходить к этому вопросу опытным путем методом перебора различных кернелов.
 

Цитата:
Вы не написали самого главного: зачем вам это?  

Вся ситуация выглядит следующим образом:
1. Гипервизор используется для нужд небольшой фирмы в которой я работаю.
2. Расположен в домашних условиях. (для удешевления интернет-каналов)
3. На борту две интегрированные NIC:
На NIC1 организован доступ к локальной сети виртуалок из вне (с домашнего ПК доступ ко всем сервисам виртуалок, а так-же vSphere Client для понятных задач).
NIC2 смотрит в свитч к которому подведены интернет каналы от двух провайдеров.
Доступ к NIC2 только у виртуализированного гейта, который держит оба канала.
Первый пров предоставляет обычную статику с реальным IP, второй работает через pppoe.
 
Возникла необходимость поднятия еще одного виртуализированного гейта для третьего провайдера (тоже pppoe). Ессно кабель воткнул в тот-же свитч и второму гейту предоставил доступ к NIC2, но канал ни в какую не поднимается.
Проблему решил тестировать на отдельной сетевушке из того барахла которое есть дома.
 

Цитата:
возможно стоит пробросить ваши сетевушки внутрь нужной ВМ?

Что-то запамятовал о Passthrough, сейчас буду пробовать. Наверное на этом проблема полностью решится.
 

Цитата:
как насчет vSphere 5? Говорят там есть нормальная поддержка реалтеков

Я заблуждаюсь, думая, что vSphere это клиент, а гипервизор это ESXi?
Если речь о пятом ESXi, то почитав чейнджлоги, кроме технологии удаленного предоставления usb-девайсов ничего существенного не увидел.
 
Огромное Спасибо за уделенное внимание!

Всего записей: 1153 | Зарегистр. 02-12-2011 | Отправлено: 20:31 18-02-2012 | Исправлено: karavan, 20:45 18-02-2012
brassnet



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
karavan

Цитата:
Если речь о пятом ESXi, то почитав чейнджлоги, кроме технологии удаленного предоставления usb-девайсов ничего существенного не увидел.  

Вы видимо читали их поперек, ибо начиная с версии 4.5 есть возможность проброса PCI, а не только USB...

Всего записей: 1773 | Зарегистр. 29-12-2005 | Отправлено: 21:27 18-02-2012
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
karavan
esxi 5 держит бортовые realtek, проверено.
и мне кажется даже лучше, чем допиленный 4.1 - сеть работает стабильно.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 22:34 18-02-2012
LanStateMap



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
karavan

Цитата:
1. Гипервизор используется для нужд небольшой фирмы в которой я работаю.

Думаю, фирма может выделить 1000р на покупку нормальной интеловской сетевушки. И никаких проблем.
 

Цитата:
NIC2 смотрит в свитч к которому подведены интернет каналы от двух провайдеров.


Цитата:
канал ни в какую не поднимается.

Свитч с поддержкой вЛанов? Каждый провайдер в своем вЛане? В гейте два виртуальных сетевых адаптера каждый в вЛане одного из провайдеров? Тогда , третьего провайдера в тот же свитч, в третий вЛан, в гейт третий виртуальный адаптер с вЛаном третьего провайдера. Не вижу проблем...
 
Если сейчас свитч без вЛанов, то на три провайдера надо три физических адаптера в хост.
 

Цитата:
Что-то запамятовал о Passthrough, сейчас буду пробовать. Наверное на этом проблема полностью решится.

Да, подключить и добиться стабильной работы ваших адаптеров внутри гейтов будет гораздо легче.
 

Цитата:
Я заблуждаюсь, думая, что vSphere это клиент, а гипервизор это ESXi?  
Если речь о пятом ESXi, то почитав чейнджлоги, кроме технологии удаленного предоставления usb-девайсов ничего существенного не увидел.

vSphere это платформа виртулизации. Гипервизор этой платформы это ESXi.
Я говорил, что по слухам, в пятом добавили поддержку реалтеков. Лично не тестировал за ненадобностью.  
 
 
Всегда рад помочь.

Всего записей: 479 | Зарегистр. 19-06-2009 | Отправлено: 22:45 18-02-2012
karavan



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Свитч с поддержкой вЛанов? Каждый провайдер в своем вЛане? В гейте два виртуальных сетевых адаптера каждый в вЛане одного из провайдеров? Тогда , третьего провайдера в тот же свитч, в третий вЛан, в гейт третий виртуальный адаптер с вЛаном третьего провайдера. Не вижу проблем...  
Если сейчас свитч без вЛанов, то на три провайдера надо три физических адаптера в хост.

Свитч наипростейший, и оба канала работают через один физический адаптер, на который в гипервизоре создал vSwitch, обе eth первого гейта повесил на него, туда-же подкинул eth второго гейта. Фактически объединил сети двух провайдеров в одном свитче, предварительно заручившись у обеих тех.служб, что они в этом проблем для себя не видят.
 
Всем спасибо, дальнейший этап задачи варю не касается.
 
P.S.: Остался вопрос на результаты ни как не влияющий, но хотелось бы решения для общего развития. Используя функцию Passthrough удалось пробросить только DFE-520TX, т.к. TG-3468 отсутствует в выводе lspci. Вопрос: "Почему? и Что делать?"
А точнее, с какой стороны подойти к ESXi чтобы он заприметил железку в PCIe?
 
OffTopic: У меня ни когда не будет покоя, pppoe не поднимался из-за кривого ifcfg-ppp0. От смеха плакать хочется )) А я тут о высоких материях и пересборках "на коленке"

Всего записей: 1153 | Зарегистр. 02-12-2011 | Отправлено: 23:07 18-02-2012 | Исправлено: karavan, 23:30 18-02-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2017

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru