Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX Server и VMware Infrastructure

Модерирует : lynx, dg

batva (04-04-2009 09:34): VMware ESX Server и VMware Infrastructure (часть 2)  Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165

   

rds



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VMware Infrastructure
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMware ESX Server и VMware Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMware ESX 3i: Скачать, FAQ, Управление VMware ESX 3i
 
Подборка полезных ссылок:  
FAQ,
утилиты для VMware ESX,
набор ссылок на сайты о виртуализации,
российский блог, посвящённый виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmware Update Manager
Гайд по командной строке.

Всего записей: 62 | Зарегистр. 13-05-2002 | Отправлено: 21:42 03-11-2003 | Исправлено: RussianNeuroMancer, 00:36 27-03-2009
panvartan

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Насколько я понял, в ESX есть встроенный файрвол в котором для управления достаточно открыть 902 and 903 порты. А вот что касается аунтификации пользователя esx - используется ли шифрование VI клиентом ?

Всего записей: 8 | Зарегистр. 30-11-2007 | Отправлено: 15:36 30-11-2007
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Сервер стоит на площадке провайдера, доступ к нему осуществляется посредством  VI Client, соответственно ESX имеет публичный ip адрес, по которому и происходит управление сервером.

Ну смотри - на ESX стоит файрвол, который закрывает управляющий интерфейс. Для VI клиента нужны 902 и 903(по дефолту, 903 для консоли к ВМ). Там по дефолту почти все остальное вроде и прикрыто, но это можно посмотреть. Трафик от VI клиента шифруется.  
 
Если через внешний интерфейс еще и ВМ в сеть ходят - то ESX их никак не прикрывает.
 
Сам смотри, наколько тебя это устраивает.
anr69
я сходил в vmware online library, поискал по слову raw , первую ссылку почитал и нашел
 
VMFS also supports raw device mapping (RDM). RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem (Fibre Channel or iSCSI only). RDM is useful for supporting two typical types of applications:

----------
Книга "Администрирование VMware vSphere".
Блог про виртуализацию.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 15:37 30-11-2007
ffk31337

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun
Блин, самого периодически подводит непрочтение сообщений об ошибке  
 перечитал пост ffk31337, обратил внимание на  
 Цитата:Unable to contact a primary HA agent in cluster cluster in datacenter  
 
вот это уже похоже на проблемы именно с сетью. А что именно - трудно сказать. Попробуйте, действительно, максимально простую конфигурацию. Проверьте разрешение имен.  
 
 
Да блин фигня какая то, раньше то HA работал,  блог у Вас хороший, читал раньше.
на циске по этим портам упростить нечего.
----------------------------------  
interface GigabitEthernet0/2  
!  
interface GigabitEthernet0/3  
!  
interface GigabitEthernet0/4  
!  
interface GigabitEthernet0/5  
-----------------------------------
А контроллер домена соответственно с DNS на одной из VM
 
Хосты По nslookup:  
 
Server:  servv.oktbrserv.local
Address:  192.168.0.200
Name:    vmserv.oktbrserv.local
Address:  192.168.0.130
 
 
Server:  servv.oktbrserv.local
Address:  192.168.0.200
Name:    vmserv3.oktbrserv.local
Address:  192.168.0.131
 
По пингам соответственно тоже все хороше.
 
Кстати а выключеные VM в момент активации HA считаються под ресурсы?
 
 

Всего записей: 27 | Зарегистр. 26-04-2007 | Отправлено: 16:21 30-11-2007
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Кстати а выключеные VM в момент активации HA считаються под ресурсы?

нет.
 
с одного ESX пинги на другой по имени ходят? И в обратную сторону.
 
Упростите конфиг со стороны ESX - оставьте одну сетевушку.
 
Посмотрите логи  
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*    

----------
Книга "Администрирование VMware vSphere".
Блог про виртуализацию.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 16:31 30-11-2007
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
panvartan

Цитата:
Сервер стоит на площадке провайдера, доступ к нему осуществляется посредством  VI Client, соответственно ESX имеет публичный ip адрес, по которому и происходит управление сервером.

вот к твоему вопросу на глаза попалось - http://searchservervirtualization.techtarget.com/expert/KnowledgebaseAnswer/0,289625,sid94_gci1281022_tax303515,00.html
 


----------
Книга "Администрирование VMware vSphere".
Блог про виртуализацию.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 21:49 30-11-2007
binagal



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun

Цитата:
Цитата:
Вот и хотелось бы знать - с какими "брендами" и "вендорами" лучше не связываться, потому что они гребут все под себя и их цель меня подсадить, а не продать мне качественную (совместимую) железяку.
 
Опять же ИМХО - если мы говорим о брендах(HP, IBM, Fujitsu-Siemens и т.п.), то их сервера(стораджи), явно указанные в списке совместимости на vmware.com - работают с VI3. Более того - саппортятся, если софт покупается честно.(кстати, по отзывам - с т.зрения саппорта VI3 лучше покупать не у вендоров, т.к. их саппорт esx'а для России так себе).

Прошу совета в выборе железа. Сейчас есть 8 серверов: HP DL385, остальные - Intel; возраст - 1-3 года.
Необходимо перейти на виртуальную инфраструктуру с учетом Microsoft Infrastructure Optimization.
 
На что переходить:
1. Обновить 4 сервера для поддержки аппаратной виртуализации + купить SAN
2. Продать все сервера и купить Blade от HP, IBM, FJS, ...
?
Что лучше, как правильней?
У кого Blade - как впечатления, как выбрали бренд?
 
Статья про блейды: http://servervirtualization.blogs.techtarget.com/2007/10/08/draft-scaling-up-or-scaling-out-revisted/

Цитата:
I hate blades in their current incarnation

Всего записей: 217 | Зарегистр. 26-07-2003 | Отправлено: 19:11 01-12-2007 | Исправлено: binagal, 20:10 01-12-2007
anr69

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun

Цитата:
я сходил в vmware online library, поискал по слову raw , первую ссылку почитал и нашел
 
VMFS also supports raw device mapping (RDM). RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem (Fibre Channel or iSCSI only). RDM is useful for supporting two typical types of applications:
 
 

нет локальное SCSI оно точно позволяет
тот топик что вы привели касается сетевого дискового подключения
 
но меня смущая то что у меня Стартер ESX и в VC пункт подключения диска по SAN не подсвечен.
и возможно они и локальные из-за этого не дают подключить.
 
 
binagal
 
у HP щас есть блейд сервера с внутренней шаред стореджью
вот тока если есть SAN то накой она нада  
 
по поводу что лучше ....
мне показалось что лучше купить HP DL5XX четырех процессорных по четыре ядра получив по 16 процессоров от сервера
и все это виртуализировать  
 
чем накупить кучу блейд модулей  
 
потому как платишь в ESX на СЕРВЕР и чем мощнее он тем дешевле стоимость виртуальной машины

Всего записей: 119 | Зарегистр. 30-11-2007 | Отправлено: 09:36 02-12-2007 | Исправлено: anr69, 09:55 02-12-2007
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
тот топик что вы привели касается сетевого дискового подключения

 

Цитата:
подскажите как к виртуальной машине на ESX 3(стартер) подключить физический сказевый диск?

 

Цитата:
RDM provides a mechanism for a virtual machine to have direct access to a LUN on the physical storage subsystem

Еще раз - чего вы хотите добиться???
 

Цитата:
у HP щас есть блейд сервера с внутренней шаред стореджью

Это как? Мне интересно просто.
 

Цитата:
потому как платишь в ESX на СЕРВЕР

Наглая ложь
 
Платишь в ESX за процессор(сокет). Так что в стоимости софта разница будет минимальна.
 
ИМХО, но это имхо не много стоит, ибо практического опыта сравнения эксплуатации на блейдах и на не блейдах у меня не много. Но так вот - разницы особо нет, мне кажется. Надо изучить специфику тех блейдов, с которыми предполагается работать, и из нее делать выводы устраивает или нет.
 
По, например, тепловыделению, потреблению и производительности сравнение десятка блейдов и пары больших 4 процессорных серверов я не знаю в чью пользу будет. Но это можно просто посмотреть.
У блейдов одна проблема кардинальная - хуже расширяемость, т.е. далеко не всегда можно сетевушку там еще воткнуть и т.п.  
Если планируется несколько приложению продолжать использовать на физической машине - блейды, возможно, будут интереснее - т.к. большого сервака для этих приложений может быть много. А с блейдами у нас единое решение и под ВМ и под тяжелые приложения без виртуализации.
В общем, я вижу много влияющих факторов, но все они зависят от вашей конкретной инфраструктуры, задач. Думаю, грамотный интегратор с вами внятно все это сможет обсудить.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 10:37 02-12-2007
anr69

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun

Цитата:
у HP щас есть блейд сервера с внутренней шаред стореджью
 
Это как? Мне интересно просто.  

наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi
 
 

Цитата:
Цитата:
потому как платишь в ESX на СЕРВЕР
 
Наглая ложь  

 
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx  
я только это имел в виду
 
я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN
 
хотя цены там ужасные и разобраться что экономически более выгодно сложно
скорее всего выгода появляется когда речь идет о больше 10 серверов в блейде
 

Цитата:
Еще раз - чего вы хотите добиться???  

на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD
 
вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D
 

Всего записей: 119 | Зарегистр. 30-11-2007 | Отправлено: 11:20 02-12-2007 | Исправлено: anr69, 11:21 02-12-2007
panvartan

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun огромное спасибо за содействие - по поводу безопасности VI кое что прояснилось.  
При настройке ESX столкнулся со следующей проблемой. При начальной установке ESX прописывается ip, mask and dns service console. При этом можно выбрать один из двух имеющихся у меня адаптеров. Я выбираю, прописываю вручную айпи, хотя в сети работает Dhcp сервер. Захожу через клиент - смотрю настройки. Действительно в cervice console port имеет присвоенный мной адрес, но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню  networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.

Всего записей: 8 | Зарегистр. 30-11-2007 | Отправлено: 12:02 02-12-2007
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi  

из такого объяснения не ясно, что такая возможность может дать для ESX.
 

Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx  

VMware продает лицензии на сокеты. Может быть, у HP как то по другому, а может ошибка это.
 

Цитата:
я понял что основное что блейд позволяет экономить это на возможности общего использования сетевых адаптеров и SAN  

Опять таки, не знаю как у HP.  Я знаю как у Fujitsu-Siemens - там каждый блейд это сервер. Мать, 2 камня, оперативка. От 2 до 8 сетевушек, от 0 до 2 FC hba. Все это в самом сервере. А в шасии могут стоят коммутаторы, как Ethernet, так и FC - вот они как раз шарятся между всеми "лезвиями". Ну и плюс именно в шасси стоят БП, вентиляторы, управлялка всем этим.
Вобщем, блейды интересны примерно тем же, чем и виртуализация - консолидацией. У  FSC шасси 7U, в нем до 10 2х процессорных серверов. Плюс коммутаторы. И эти 10 эффективнее используют БП и вентиляторы и сетевую инфраструктуру. Вкратце так. Я уверен, у других вендоров ситуация примерно такая же, с учетом того, что кто то позволяет не только серверные лезвия использовать, но и "хранилищные", "ввода вывода".
 

Цитата:
на воркстайшене можно легко подключить к виртуальной машине ЦЕЛЫЙ SCSI HDD
 
вот пытаюсь на esx3 стартер сделать тоже самое
пока только запутался с этими RAW :-D  

Подключить целый LUN к ВМ - для ESX это называется как раз Raw Device Mapping, или RDM. Тот документ, который я приводил, посвящен как раз ему. В свойствах ВМ добавляете новый HDD, в мастере говорите когда будет выбор что использовать как диск- Use raw LUN. Вам покажут список всех LUN, которые подходят для такого использования. На них, во первых, не должно быть никаких разделов, а во вторых - то, что написано в том документе - они должны быть на FC или iSCSI сторадже.
 
 
Добавлено:
Я точно просто не помню - МОЖЕТ БЫТЬ, заработает RDM и на локальном диске. А может и нет.
 
Добавлено:

Цитата:
но оба networks adapters имеют одинаковый ip, полученный автоматически и отличающийся от установленного мной вручную. Я так и не понял как поменять ip адрес networks adapters. Вижу, что можно поменять DNS, можно поменять ip адрес service console, но адрес физический адаптеров (те которые в меню  networks adapters ) то как изменить? Пробывал поискать команды для консоли, ничего подходящего не нашел - там теже самые варианты, что и в VI клиенте.

Где смотрите? Если во второй закладке в св-х vSwitch, строка вроде Network называется,  
то там пишется подсети, пакеты из которых были пойманы на этом сетевом контроллере. Это - справочная инфа, отображается для того, чтобы админу было проще сориентироваться, куда скомутированна эта сетевушка.
 
Самое главное - под ESX у физических сетевушек НЕТ ни MAC, ни IP адреса!
Коммутаторы и клиенты видят только виртуальные сетевушки - сетевушки ВМ, ServiceConsole или vmkernel.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 12:11 02-12-2007 | Исправлено: Michigun, 12:18 02-12-2007
anr69

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun
 

Цитата:
Цитата:
наскока я понял просто в корпусе блейд стойки есть небольшой дисковый массив и его можна шарить между серверами по scsi  
 
из такого объяснения не ясно, что такая возможность может дать для ESX.  

 
Я вот это имел в виду
http://h18004.www1.hp.com/products/servers/storageworks/c-class/sb40c/index.html
насколько  я понял этот массив будет доступен для любого из серверов
тем самым можно вазшарить хранилище виртуальных машин между esx серверами в блейде  
но живьем такого зверя не пробовал
и про совместное использование блейд серверами одного FAC подключения только читал
 
на сколько я понял в блейде есть общая шина данных а не только управления и через нее организует совместное использование сетевых и fac адаптеров  
 

Цитата:
Цитата:
в конфигураторе HP на четырех сокетные сервера DL5xx цена ESX указана таже самая что и на дву сокетные DL3xx  
 
VMware продает лицензии на сокеты. Может быть, у HP как то по другому, а может ошибка это.  

 
может и ошибка но у меня в лицензии написано максимум 4 CPU и насколько я понял это сокета а не ядер. А лицензирование HP потом всеравно на VMWARE перекидывает, так что разницы никакой. Но опятьже DL5xx я не лицензировал
у нас щас есть только DL380 c 8-ю ядрами  
 
по поводу RAW
 
в ограничения по использованию написано
Not Available for Block Devices or Certain RAID Devices – RDM (in the current
implementation) uses a SCSI serial number to identify the mapped device. Because
block devices and some direct-attach RAID devices do not export serial numbers,
they can't be used with RDMs.
 
может в этом вся проблема
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить
 
радует конечно што хоть SAN подрубить можно
 
попутно вопрос эксплуатирует ли кто файловый сервер на ESX не важно какой хоть самбу хоть винду или нетварь главное чтобы с хорошей нагрузкой и большим количеством пользователей , ну хотябы больше сотни. (нагрузка на дисковую подсистему и многими потоками)
справляется ли с этм ESX? понятно чудес не бывает ... но можно ли пожертвовать потерей производительности в угоду виртуализации инфраструктуры?

Всего записей: 119 | Зарегистр. 30-11-2007 | Отправлено: 13:00 02-12-2007
panvartan

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Самое главное - под ESX у физических сетевушек НЕТ ни MAC, ни IP адреса!

Теперь прояснилось, те получается, что service console это тоже своеобразная виртуальная гостевая система, который по умолчанию запускается на ESX и служит для управления.  Получается что VI клиент - это интерфейс управления виртуальной машиной service console. Поэтому и файрвол service console прикрывает только себя и не распространяется на другие гостевые системы. Поэтому и при создании virtual machine network айпи не приписывается - он прописывается из гостевой системы. Неужели до такой степени "голое" железо ?
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?
И еще вопрос, DNS and routing относится в таком случае только к service console и не распространяется на другие гостевые системы?

Всего записей: 8 | Зарегистр. 30-11-2007 | Отправлено: 13:25 02-12-2007
anr69

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Неужели до такой степени "голое" железо ?

вмварь делает виртуальный сетевой адаптер на виртуальной машине
и получается что гостевая совсем не знает что у вас за железо и в каком сетов окружении работает ESX. естественно настройки DNS и тд для каждой машины можно делать уникальными и никак не зависящими от настроек консоли
 

Цитата:
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?

это только для управления
допустим у вас есть изолированные подсети и необходимо управлять сервером
 

Всего записей: 119 | Зарегистр. 30-11-2007 | Отправлено: 13:43 02-12-2007
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
еперь прояснилось, те получается, что service console это тоже своеобразная виртуальная гостевая система, который по умолчанию запускается на ESX и служит для управления

Не совсем так. SC - полноценный Linux, стоящий РЯДОМ с гипервизором(vmkernel). Но вот сеть, и именно сеть для SC такая же виртуальная, как для ВМ.
 

Цитата:
Неужели до такой степени "голое" железо ?

Ограниченная поддержка железа ESX обусловлена необходимостью драйверов для vmkernel.
 

Цитата:
А если создается еще одна service console - это создается еще одна гостевая система или виртуальный сетевой адаптер? Интересно для чего?  

Невозможно создать "еще одну ServiceConsole". Вот для единственной добавить сетевушек(виртуальных само собой) - сколько угодно.
 

Цитата:
И еще вопрос, DNS and routing относится в таком случае только к service console и не распространяется на другие гостевые системы?

конечно.
anr69
по ссылке углядел только что это DAS, по всей видимости к одному и тому  
же диску доступ с нескольких лезвий получить не удасться.  
 

Цитата:
если так то все это странно почему в воркстейшене это допускать а на более функциональном ESX ограничить  

скорее всего потому, что для ворксешна сделать такую штуку помогает винда, под которой он стоит.


----------
Книга "Администрирование VMware vSphere".
Блог про виртуализацию.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 14:27 02-12-2007
ffk31337

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun
Цитата:Кстати а выключеные VM в момент активации HA считаються под ресурсы?  
 
нет.  
 
с одного ESX пинги на другой по имени ходят? И в обратную сторону.  
 
Упростите конфиг со стороны ESX - оставьте одну сетевушку.  
 
Посмотрите логи  
/opt/LGTOaam512/log/*  
/opt/LGTOaam512/vmsupport/*    
 
Спасибо за участие, ситуация разрешилась - в свое время была добавлена вторая service console , да еще без статического ip - удалил HA поднялся.

Всего записей: 27 | Зарегистр. 26-04-2007 | Отправлено: 09:22 03-12-2007
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
в свое время была добавлена вторая service console ,

 
это как?

Всего записей: 13848 | Зарегистр. 14-10-2001 | Отправлено: 11:21 03-12-2007
ffk31337

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
Как, как - клавишей ADD
Если серьезно, попозже побалуюсь с этим, в случае двух vswitch с своими железными картами может и имеет смысл для отказоустойчевости.

Всего записей: 27 | Зарегистр. 26-04-2007 | Отправлено: 11:34 03-12-2007
vecialfor

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Народ, такой вопрос. Есть VMware сервер - к нему я нормально подключаюсь через VI client. Все виртуальные машины доступны, консоль управления виртуальными машинами тоже доступна, вижу изображение виртуальной машины, могу с ней работать. А вот пользователи с других компов получают изображение своей виртуальной машины не всегда, порой после перезагрузки VI client, подскажите с чем это может быть связано.
 
И еще такой вопрос. Читал документацию по VMware и наткнулся на следующее:
 
 
Network File System (NFS) is provided by rpc.nfsd and would normally be launched by an nfs script in /etc/rc.d. To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps:
1. Change the ESX Server which is to be the NFS server, to use medium security (using the MUI is easiest for this).
 
2. Add an entry to the file /etc/exports on the NFS server by either using vi text editor (/vmimages *) or use the exportfs command
 
3. Check that the NFS client IP address or hostname is not excluded by the server file /etc/hosts.deny
 
4. It is up to you if you explicitly allow the NFS client by adding the NFS client to /etc/hosts.allow on the NFS server
 
5. Start the NFS server daemons
  a. /etc/rc.d/init.d/service portmap start
  b. /etc/rc.d/init.d/service nfslock start
  c. /etc/rc.d/init.d/service nfs start
 
6. Start the NFS client daemons
  a. /etc/rc.d/init.d/service netfs start
  b. /etc/rc.d/init.d/service portmap start
 
7. Mount remote export directory (on the NFS server) from the NFS client with the command
  a. mount –t nfs nfsserver:/export localdir/localmount  
 
Если я правильно перевел фразу: To start using NFS to mount directories on other ESX or Linux servers, we can use the following steps - то можно монтировать NFS директории на других ESX и Linux серверах. То есть получается что ESX сервер может быть NFS-сервером??? Если да, то как это сделать? Заранее спасибо
 

Всего записей: 197 | Зарегистр. 04-07-2007 | Отправлено: 12:51 03-12-2007
mihas83



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Ребят, поделитись пожалуйста ссылкой на русской FAQ для ознакомления с VMware, али сами поведайте каким образом правильно создавать образ для виртуальной операционной системы. Посмотрел в шапке, но FAQ на английском даже не знаю откуда начать штудировать. Да и чего тут говорить, кирилицу легче усвоить, чем вникать в басурманский. ))
 
Кстати, после установки VMware, обратил внимание на то, что система (WinXp) стала стартовать очень долго. Загружается рабочий стол с некоторыми треевыми программами, а затeм система усердно пытается что-то переварить. В это время ничего делать не дает, а отвисает только спустя 5 минут. Не сталкивались с такой проблемой? Может быть конфликт здесь между Касперским и VMware? После сноса VMware снова стал подыматься быстро и без фризов.

Всего записей: 7780 | Зарегистр. 15-07-2003 | Отправлено: 16:25 03-12-2007 | Исправлено: mihas83, 16:33 03-12-2007
   

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX Server и VMware Infrastructure
batva (04-04-2009 09:34): VMware ESX Server и VMware Infrastructure (часть 2)


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2020

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru