#
Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX Server и VMware Infrastructure

Модерирует : lynx, dg

batva (04-04-2009 09:34): VMware ESX Server и VMware Infrastructure (часть 2)  Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165

   

rds



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VMware Infrastructure
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMware ESX Server и VMware Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMware ESX 3i: Скачать, FAQ, Управление VMware ESX 3i
 
Подборка полезных ссылок:  
FAQ,
утилиты для VMware ESX,
набор ссылок на сайты о виртуализации,
российский блог, посвящённый виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmware Update Manager
Гайд по командной строке.

Всего записей: 62 | Зарегистр. 13-05-2002 | Отправлено: 21:42 03-11-2003 | Исправлено: RussianNeuroMancer, 00:36 27-03-2009
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
pitblack
В свойствах виртуального адаптера указал тип шаринга?

Всего записей: 955 | Зарегистр. 01-09-2003 | Отправлено: 23:44 03-03-2009
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
    Ситуация:
dl580g5, fc адаптер в нем, eva4000-хранилище.esx 3.5
на сервере необходимо построить лабу. 2 win2003 на виртуалках+общий диск(для оракловой кластерной файловой системы). Нарезал на eva vDisk(LUN) 100gb, отдаю его первому хосту по
rdm(add->new disk->create new disk ->store with VM->physical-пишу по памяти так как не на работе)
Тоже самое делаю на втором хосте(add->new disk->create new disk ->store with VM->physical)
Пробовал persistent,independed и т.д. Стартую первый хост -все OK, второй хост не стартует вовсе пишет то файл не найден, то файл блокирован в зависимости от independed и т.д
 
Народ помогите словом или ткните носом в мануал

там все просто - когда создается RDM, в качестве диска ВМ все равно числится vmdk - можно посмотреть в свойствах ВМ.
это фиктивный vmdk, являющийся ссылкой на RDM LUN.
для второй ноды кластера надо эту луну подключать не как RDM, а выбирать "use existing " и выбирать тот фиктивный vmdk.
 
так же, общий диск необходимо вешать на второй SCSI контроллер(для диска выбрать scsi node не 0:1, а 1:0)
и в свойствах этого контроллера bus sharing поставить в physical.
 
вообще, есть смысл заглянуть в мануал по поднятию MSCS на ВМ - у vmware такой есть, там описаны эти и др. нюансы.
в частности, если оба узла кластера на одном хосте - в качестве общего диска можно не rdm а vmdk использовать.
bus sharing тогда должен быть virtual.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 09:59 04-03-2009
Serjevski



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Помогите пожалуйста заставить ESX 3.5 (не ESXi) увидеть диски на ICH8 (q963 chipset)
что нужно прописать в ahci.xml  и в какой момент? Можно ли это сделать после установки esx? Сам esx 3.5 u3 прекрасно встает.
 
Ps. Поиском не нашел, простите...

Всего записей: 212 | Зарегистр. 19-10-2006 | Отправлено: 11:19 04-03-2009
pitblack

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
спасибо, буду все пробовать. Доку про mscs нашел, курю
Пока же делаю вот так  
http://www.databasejournal.com/features/oracle/article.php/3690806/Oracle-RAC-How-shared-storage-works-on-VMware--Part-2.htm
Диск 118 Gb создается уже 1час прошло 60 %
 
по вашему совету не понятно одно. Вот есть виртуалка.
у нее есть уже один scsi контроллер-и там можно выбрать тип шаринга.
другой скази контроллер добавить из gui не выходит-нет в списке устройств которые можно добавить. Есть только лишь scsi-девайс, у которого в свойствах нет bus sharing
 
Добавлено:
извините, затупил-когда диск добавляешь, scsi контроллер появляется
 
Добавлено:
to Michigun
Вам вообще огромное спасибо-за ваши интернет-ресурсы. Ковыряешь esx-c vm4 и wiki -просто песня как все понятно становится, настраиваю sccm-опять Вы.
Спасибо Вам от всех кустарей самоучек Инета

Всего записей: 68 | Зарегистр. 30-04-2007 | Отправлено: 15:04 04-03-2009
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
pitblack
спасибо.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 15:39 04-03-2009
pitblack

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vmkfstools -c 10Gb -d eagerzeroedthick /vmfs/volumes/RACShare/asm01.vmdk
такой командой делал диск
так как обе ноды на одном сервере-тип шаринга ставил виртуал
scsi 1:0
Один узел нормально стартует, второй пишет
wmware esx не может открыть *.vmdk for clustering
Проверьте создан ли диск с thick option(а я блин с какой создавал?!)
reason:thin/TBZ disk cannot be opened in multiwriter mode/
Че делать ?

Всего записей: 68 | Зарегистр. 30-04-2007 | Отправлено: 17:14 04-03-2009
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 
Помогите пожалуйста заставить ESX 3.5 (не ESXi) увидеть диски на ICH8 (q963 chipset)  
что нужно прописать в ahci.xml  и в какой момент? Можно ли это сделать после установки esx? Сам esx 3.5 u3 прекрасно встает.  

 
 
После установки подпилить можно, тем более что напрямую на неизвестный дистрибутиву девайс сервер не встанет. Мне неизвестен способ модифицировать дистр (хотя он безусловно должен существовать)
 
Имхо палочкой-выручалочкой, позволяющей разделить проблемы, является вставная карточка sil, саташный системный диск и саташный дивидюк.
Сперва все втыкаем и ставим прямо на целевую мать, потом подпиливаем.
 
Другой вариант - перенести уже уставновленную на другой матери систему. В этом случае потом придётся править аплинки всвитчей.
 
 
Как? Надо посмотреть pciid девайса, допустим 8086:2922
подправить любую секцию или дописать аналогичную по шаблону в файл /etc/vmware/pciid/ahci.xml
 
затем выполнить тройственное заклинание esxcfg-pciid и т.д (см. пред. стр.)

Всего записей: 12707 | Зарегистр. 14-10-2001 | Отправлено: 19:47 04-03-2009 | Исправлено: LevT, 19:49 04-03-2009
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
vmkfstools -c 10Gb -d eagerzeroedthick /vmfs/volumes/RACShare/asm01.vmdk
такой командой делал диск
так как обе ноды на одном сервере-тип шаринга ставил виртуал
scsi 1:0
Один узел нормально стартует, второй пишет
wmware esx не может открыть *.vmdk for clustering
Проверьте создан ли диск с thick option(а я блин с какой создавал?!)
reason:thin/TBZ disk cannot be opened in multiwriter mode/
Че делать ?  

можно попробовать создать диск командой  
vmkfstools -c 10Gb -d thick /vmfs/volumes/RACShare/asm01.vmdk
 
а на 22 странице гайда http://www.vmware.com/pdf/vi3_35/esx_3/vi3_35_25_u1_mscs.pdf
предлагают такую команду:
vmkfstools -c <size> -d eagerzeroedthick -a lsilogic
/vmfs/volumes/<mydir>/<myDisk>.vmdk

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 08:55 05-03-2009
pitblack

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасиб, сейчас попробую-результат отпишу

Всего записей: 68 | Зарегистр. 30-04-2007 | Отправлено: 09:56 05-03-2009
Serjevski



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT

Цитата:
Как? Надо посмотреть pciid девайса, допустим 8086:2922
подправить любую секцию или дописать аналогичную по шаблону в файл /etc/vmware/pciid/ahci.xml
 
затем выполнить тройственное заклинание esxcfg-pciid и т.д (см. пред. стр.)  

 
Я это сделал, ID девайса мне выдал Everest 8086:2820 и 8086:2825, вставил 2 секции, выполнил заклинание pciiid и esxcfg-boot -p и -b (двумя командами, одну за другой.)
 
После перезагрузки на "главном" экране ESX (там где он свой адрес кажет) красное сообщение Initialization for ahci failed with -19.
Ну и дисков он так и не видит.
 
Где я дурак?

Всего записей: 212 | Зарегистр. 19-10-2006 | Отправлено: 13:31 05-03-2009
pitblack

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
приношу всем извинения за мозгое...-все работает, чиста глюк esx.
На одной ноде слетала настройка СИСТЕМНОГО диска(не шаренного)-он расшаривался!
А я невнимательно читал сообщения об ошибке

Всего записей: 68 | Зарегистр. 30-04-2007 | Отправлено: 14:12 05-03-2009
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Serjevski
а в биосе-то девайс в режиме AHCI? RAID или EIDE с этим драйвером не покатят.
(зато покатят c другим, с которым сторадж не создашь)
 
 
Добавлено:
ЗЫ. фишка в том, что pciid в разных режимах разные.
В зависимости от положения переключателя биоса получаются три разных устройства.

Всего записей: 12707 | Зарегистр. 14-10-2001 | Отправлено: 18:33 05-03-2009
Serjevski



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT
Ща пошарю в бивисе... блин это странный комп HP dc5700 бивис там... кастрированый мягкого говоря.... но я посмотрю, спасибки

Всего записей: 212 | Зарегистр. 19-10-2006 | Отправлено: 19:29 05-03-2009
maxhl

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Мой вариант шатдауна ESX из винды (винда - DC тушится последней парашютом APC)
 
1. Ставим на винду PowerShell.
2. Ставим на винду VMWare VI Toolkit.
3. Создаем батник гденить в винде с содержимым : shut_esx.bat
   - Это стандартный линк на запуск VI Toolkit только с допиской своего скрипта
4. Рисуем сам скрипт
5. В парашюте необходимо настроить эмпирическим путем время ожидания выполнения скрипта. В данном случае, на выполнение скрипта выключения виртуалок отведено 240 сек. - в парашюте 300.

Всего записей: 52 | Зарегистр. 20-06-2006 | Отправлено: 19:35 05-03-2009 | Исправлено: maxhl, 19:52 05-03-2009
Serjevski



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
LevT
Пошарил... нет там таких настроек
Похоже придется вставлять контроллер.

Всего записей: 212 | Зарегистр. 19-10-2006 | Отправлено: 20:22 05-03-2009
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Serjevski
ну значит извратный брендово-маркетологический комп тебе попался, с преднамеренно урезанным биосом. Любой интеловский южник технически способен работать в режиме ahci.  
 
И ещё ведь небось не гонится?  Ненавижу пидарасов!  Единственное в чём от такого компа может быть прок - набортная сетевуха e1000 или tg3. Во всех остальных отношениях те же асусы строго предпочтительны.

Всего записей: 12707 | Зарегистр. 14-10-2001 | Отправлено: 00:34 06-03-2009
evgenyponomarenko

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Добрый день!
Есть вопрос. Бывает ли, что под ESX падает сетевая карта?
Конкретнее,
есть сервер с 2мя сетевыми карточками - ISA2006, одна карта смотрит в DMZ, вторая в Internal.
Через некоторое время (месяца 2-3), на одной из сетевых карт начинаются жуткие глюки - дропаются пакеты, время задержки 200-300 мс, в то время, как остальные виртуальные машины работают нормально. При этом на ISA валится ругань о конфликте ip-адреса.  
После удаления сетевой карты и создания ее заново все работает. Потом история повторяется.
С чем может быть связано и есть ли где описание?
ИМХО, какой-то конфликт между удаленными NICами и существующими, т.к. удаленным тоже был назначен тот же адрес, но блин, физически ж ее там нет.
 
Заранее большое спасибо!

Всего записей: 16 | Зарегистр. 13-01-2007 | Отправлено: 04:58 06-03-2009
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
evgenyponomarenko
у меня был подобный глючок недавно. Стопроцентно не поручусь, что именно тот самый.
Воткнул в сеть комп с тем же адресом, который был на сервисной консоли. Пересоздавать пришлось не то vswif, не то целый vswitch
 
Сдаётся мне, что в Update3 внесли какую-то кривизну в esxcfg-vswitch (точнее в нижележащие системные вызовы).
Бум надеяться, что так же тихо вылечат в следующем апдейте.

Всего записей: 12707 | Зарегистр. 14-10-2001 | Отправлено: 10:24 06-03-2009 | Исправлено: LevT, 10:27 06-03-2009
sergavens

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Загрузочный диск Акрониса у кого-нибудь получалось заставить работать под ESX 3.5 ?
Уже весь мозг сломал пытаясь перенести Netware5.1 с ESX2 на ESX3.
С виндовыми машинами никаких проблем - образа снимаются и копируются по сети из под включенной винды. Хочешь VM Converter, хошь Акронисом.
А вот как перенести не виндовую машину с Netware? Я пробовал грузиться и с  BartPE и просто с диска Акрониса. Они не видят сетевые адаптеры ВмВари. Т.е., образ то Акронис создаст, а куда его записать, чтоб подцепить на соседней ESX3.5 ?

Всего записей: 24 | Зарегистр. 04-01-2006 | Отправлено: 13:07 10-03-2009
anr69

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sergavens

Цитата:
Загрузочный диск Акрониса у кого-нибудь получалось заставить работать под ESX 3.5 ?
Уже весь мозг сломал пытаясь перенести Netware5.1 с ESX2 на ESX3.
С виндовыми машинами никаких проблем - образа снимаются и копируются по сети из под включенной винды. Хочешь VM Converter, хошь Акронисом.
А вот как перенести не виндовую машину с Netware? Я пробовал грузиться и с  BartPE и просто с диска Акрониса. Они не видят сетевые адаптеры ВмВари. Т.е., образ то Акронис создаст, а куда его записать, чтоб подцепить на соседней ESX3.5 ?

Так поэтому и попреходили на ESX шобы не пользовать акрониксы а просто списывать сами машину куда надо. и запускать хошь с новым ID(клон) хошь со старым
А списываем просто по SSH вон FASTFTP быстро с этим справляется.

Всего записей: 119 | Зарегистр. 30-11-2007 | Отправлено: 16:05 10-03-2009
   

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX Server и VMware Infrastructure
batva (04-04-2009 09:34): VMware ESX Server и VMware Infrastructure (часть 2)


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2020

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru

Рейтинг.ru