Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX Server и VMware Infrastructure

Модерирует : lynx, dg

batva (04-04-2009 09:34): VMware ESX Server и VMware Infrastructure (часть 2)  Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165

   

rds



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VMware Infrastructure
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMware ESX Server и VMware Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMware ESX 3i: Скачать, FAQ, Управление VMware ESX 3i
 
Подборка полезных ссылок:  
FAQ,
утилиты для VMware ESX,
набор ссылок на сайты о виртуализации,
российский блог, посвящённый виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmware Update Manager
Гайд по командной строке.

Всего записей: 62 | Зарегистр. 13-05-2002 | Отправлено: 21:42 03-11-2003 | Исправлено: RussianNeuroMancer, 00:36 27-03-2009
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
zadolbali
[root@ilik root]# vmkfstools -r "/vmfs/devices/disks/vmhba32:0:0" "/vmfs/volumes/ilik:80/Win2003-64/rawdevice120.vmdk"
Failed to create virtual disk: The specified device is not a valid physical disk device (20).
[root@ilik root]# vmkfstools -r "/vmfs/devices/disks/vmhba32:0:0:0" "/vmfs/volumes/ilik:80/Win2003-64/rawdevice120.vmdk"
[root@ilik root]#  
 
Добавлено:
Kammerer2006
не знаю, я не сравнивал. Сам из принципа везде сразу делаю максимальный кластер - но если сторадж уже захламлен, то понятно, ломает...
 

Всего записей: 13656 | Зарегистр. 14-10-2001 | Отправлено: 23:03 30-10-2008 | Исправлено: LevT, 23:05 30-10-2008
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Изменение размер кластера для VMFS имеет смысл только относительно максимального размера файла на ней.
С размером кластера по умолчанию файл может достигать размера в 256 гигабайт.
С максимальным размером кластера - 2 террабайт.
 
с т.зрения производительности данных тестов мне не попадалось, но если разница и есть - она вряд ли принципиальна.
 
Рекомендуется использовать минимально устраивающий размер кластера.

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 23:52 30-10-2008
Kammerer2006

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Michigun
 
А, ну тогда все ок, оставляю как есть.
 
Добавлено:
В какой-то из веток про  ESX кто-то запостил про MC под ESX и инструкцию по сборке. Никак не могу найти, ткни носом плз.

Всего записей: 40 | Зарегистр. 26-03-2006 | Отправлено: 23:53 30-10-2008
zadolbali

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
 

Код:
vmkfstools -r "/vmfs/devices/disks/vmhba32:0:0:0" "/vmfs/volumes/ilik:80/Win2003-64/rawdevice120.vmdk"

 
то есть все дело в кавычках и ilik:80?

Всего записей: 89 | Зарегистр. 01-03-2006 | Отправлено: 00:30 31-10-2008
Kammerer2006

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
 
Попробовал vmkfstools. Не получилось:
 
vmkfstools -i ukm-sgho01.vmdk ukm-sgho02.vmdk
Destination disk format: VMFS thick
Source disk type must be scsi.  'ukm-sgho01.vmdk' is an ide disk

Всего записей: 40 | Зарегистр. 26-03-2006 | Отправлено: 01:54 31-10-2008
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
zadolbali
не знаю, в чём. У меня победилось вот так. ilik:80 - это метка стораджа.
 
All
Организовал и окончательно отладил двойную загрузку. Два сата диска: на одном ESX, на другом винда. Любая из систем может быть хостом, другая гостём первой.  
 
Еще бы триггеры-скипты придумать - чтобы не лазить в биос выбирать загрузочное устройство...  
Подскажите, как в винде инициировать после рестарта однократный запуск ESX с другого диска? Ну или как сразу решить задачку комплексно?
 
 
Kammerer2006
ну значит конвертером. Там есть волшебное слово Reconfigure, давеча за полминуты исправил винду на RDM - не было дров lsi scsi, не стартовала под ESX.
А до того битый час вытягивал ее по сети в воркстанцию.

Всего записей: 13656 | Зарегистр. 14-10-2001 | Отправлено: 04:33 31-10-2008 | Исправлено: LevT, 04:34 31-10-2008
faust72rus



Full Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
topnadodm
Может проблема в аппаратной виртуализации? Поддержка включена в биосе? (вкладка Processor setting - VT setting)

Всего записей: 536 | Зарегистр. 28-10-2007 | Отправлено: 08:05 31-10-2008
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Ищу хоть какие-то доки и-или hавту об esxcfg-boot, размером больше двух абзацев.  
 
Пока нарыл единственное, в pdf с сайта Promise (как ставить сторонние дрова!):
 
VMware ESX Server 3.0.2, 3.5.0
New OS Installation
1. Download the VMware driver ISO image from the Promise Support Website.
2. Burn the VMware driver ISO image to a CD.
3. Place the driver CD in the CD-ROM drive.  
4. Reboot the computer.
5. When prompted for an upgrade or installation method, press Enter for  
graphical mode.
6. Specify your language.
7. Select a keyboard type.
8. If your Driver CD successfully loaded, you will be prompted to insert the ESX  
Server CD and restart.
9. Continue with the ESX Server installation.
 
Existing System
 
1. Download the VMware driver ISO image from the Promise Support Website.
 
2. Burn the VMware driver ISO image to a CD.
 
3. Log into the system as the Superuser.
 
4. Insert the driver CD into the CD-ROM.
If CD does not mount automatically, type the following comand and press  
Enter:
mount /mnt/cdrom
 
5. Type the following command and press Enter to install the driver RPM:
rpm -ivh /mnt/cdrom/VMupdates/RPMS/VMware-esx-
drivers-scsi-stex-<driver version>-i386.rpm
If the installation fails due to conflicts, try installing with the --force option.
 
6. Type the followig commands and press Enter to update the boot file and  
regenerate GRUB:
esxcfg-boot -rg
esxcfg-boot -b
 
If the ESX Server did not install on the SuperTrak EX controller, copy stex.o
From /usr/lib/vmware/vmkmod/
To /lib/modules/2.4.xxxxx/kernel/drivers/scsi/  
 
7. Reboot ESX Server.

Всего записей: 13656 | Зарегистр. 14-10-2001 | Отправлено: 11:56 31-10-2008 | Исправлено: LevT, 12:44 31-10-2008
oaf56

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
пытаюсь ставить WMWare ESXi3.5 Для обучения и тестов. Прочитал много документации  и посмотрел инет.
Выяснилась проблема. Не  находятся сетевые карты :
- внешние сетевые карточки PCI D-LINK DGE 528T/530T/550T
- встроеные PCI-X 2 MARVELL 88E8056(2х2=4 порта)
А сетевыев строеные  INTEL 82563EB(2 порта) определяется как одна карта.
 
Сетевых ИНТЕЛ ПРО 100 есть только одна. Денег нет.
Возможно их как то использовать на хостах. Подскажите как заменить драйверы и делал ли кто ? Будку благодарен за любые ссылки и информацию.

Всего записей: 124 | Зарегистр. 23-11-2006 | Отправлено: 18:55 31-10-2008
Apokrif

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
http://b2v.eu/b2vguide2vmware3.htm

Всего записей: 1580 | Зарегистр. 09-02-2008 | Отправлено: 19:56 31-10-2008
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Не  находятся сетевые карты :  
- внешние сетевые карточки PCI D-LINK DGE 528T/530T/550T  
- встроеные PCI-X 2 MARVELL 88E8056(2х2=4 порта)  

и не найдутся. Забей, раз и навсегда.
 
 

Цитата:
А сетевыев строеные  INTEL 82563EB(2 порта) определяется как одна карта.  

может быть, особенность embedded версии? мне кажется, что в "большом" ESX должно определиться две. Откуда ты вообще узнал, сколько там определяется карт - из VI клиента, или как?
 
фишка в том, что ESX(i) с успехом может обойтись одной сетевухой. Когда тебе захочется вторую сетевуху - вместо нее надо будет сконфигурить транк на свитче (если свитч управляемый). Если свитч неуправляемый - то тоже решаемо: на винде, которая туда втыкается, должны стоять транковые дрова (например Intel ProSet). То же самое, если винда соединена с ESX напрямую.
 
 
Добавлено:
Apokrif
спасибо, видел. Хотелось бы почитать об интересующих меня опциях esxcfg-boot -p и -b (которые я и до сего времени с успехом использовал вслепую). Молчанием там обойдён esxcfg-pciid...
 
А также меня интересует все что связано с файлами simple.map и pci.ids которые в ESX присутствуют так же, как и в ESXi. Кажется, для ICH10R мне понадобилось что-то вручную допилить и в них (опыт на будущей неделе повторю).
 
 
Добавлено:
 
Ещё вопросы: как или чем
 
1) заменять из-под винды файлики на флешке с ESXi? (Девайс манагер ругается на кривые партиции; неясен также более-менее стандартный способ потом отформатировать её на полную ёмкость).
 
В приниципе я уже сейчас понимаю, как это сделать из-под линукса или сервисной консоли, но хочется продлить немного виндовз-вея.
 
2) самостоятельно править файл oem.tgz?
 
а также - ПОЧЕМУ? Кто бы где-нибудь объяснил, чтО во всей это алхимии c pci id-ами является исходниками, что конкретно делают тулзы и почему в результате в ESX по нескольку файлов pci.id и simple.map в разных местах...
 
 
 
Добавлено:
 
И еще: кто-нибудь пробовал ставить ESX/ESXi на флешку из-под вмваре воркстанции - подключив её к гостю как жесткий диск?  
 
 
Добавлено:
 
Насчет последнего вопроса: 4Gb USB в качестве сырого диска автоматом подключается к вмваре воркстанции вот так:  
 
# Disk DescriptorFile
version=1
encoding="windows-1251"
CIDж8eef7f
parentCIDяffffff
createType="fullDevice"
 
# Extent description
RW 7856128 FLAT "\\.\PhysicalDrive4" 0
 
# The Disk Data Base  
#DDB
 
ddb.virtualHWVersion = "7"
ddb.uuid = "60 00 C2 9c 47 74 ee 38-f7 51 22 7a cc 9e 37 b8"
ddb.geometry.cylinders = "489"
ddb.geometry.heads = "255"
ddb.geometry.sectors = "63"
ddb.geometry.biosCylinders = "489"
ddb.geometry.biosHeads = "255"
ddb.geometry.biosSectors = "63"
ddb.adapterType = "lsilogic"
 
 
кто бы помог пересчитать геометрию в ide? Хочу попробовать.
Пример вот тут: http://communities.vmware.com/thread/50677

Всего записей: 13656 | Зарегистр. 14-10-2001 | Отправлено: 20:26 31-10-2008 | Исправлено: LevT, 21:13 31-10-2008
faust72rus



Full Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Народ повторяю вопрос (тот ответ что мне дали не подходит, он не полный)
Как через RCLI погасить хост машину под ESXi 3.5
или опишите переменные для запуска hoststop.pl (пока непонятно что за target_host)
???
 
Добавлено:
Кароче замучился и искать простые пути потому пишу чтото типа
Инструкция "Как подключить бесперебойник к ESXi 3.5 по USB\COM"
К сожалению не имея под рукой конвертера среды (COM->Ehternet) приходиться использовать левый компьютер который и будет контролировать состояние батареи (в моём случае это APC UPS SUA 1500 RMi2U - 1,5к Ватт 4 - резьёма, USB, COM) на него ставиться стандартное ПО умеющее запускать доп программу после разряда батареи, так мы и выключим сервер.
Создать эту программу можно в виде cmd но я решил сделать exe'шник и скачал Autoit версии 3.5
В редакторе кода пишем:
 
Run("c:\vmware\Shutdown.bat")
Sleep ( 200000 );
Run("c:\vmware\poweroff.bat")
Sleep ( 30000 );
Run("C:\vmware>plink.exe -v -ssh -2 10.10.1.100 -l root -pw Pa$$w0rd -m poweroff.txt")

 
Файл Shutdown.bat служит для мягкого гашения виртуальных машин при помощи Vmware tools и может содержать например дополнительные команды shutdown, net send и прочие.
У меня он выглядит так:
 
C:\Program Files\VMware\VMware VI Remote CLI\Perl\bin>perl.exe "C:\Program Files\VMware\VMware VI Remote CLI\Perl\apps\vm\vmcontrol.pl" --username root --password Pa$$ --operation shutdown --pool Windows --url https://10.10.1.100:443/sdk/webService

Хочу заметить что для удобства я организовал ВСЕ Вирты в Пул под именем Windows в файле vmcontrol.pl в конце есть иные варианты выключения
Далее Даём тайаут на 200 секунд для раздумья ос
После запускаем аналогичный скрипт но с командой  
--operation poweroff
для того что бы погасить задержавшиеся оси и не повредить datastore
 
На последок гасим сам сервер давая ему команду отбой
Для активации SSH (гуглил приличное время):

Цитата:
# В локальной консоли ESXi нажмите ALT-F1.
# Напечатайте unsupported.  Текста видно не будет - это не баг, это фича
вы войдете в режим Tech Support Mode и появится запрос пароля. Введите пароль пользователя root.
# Откройте файл inetd.conf командой vi /etc/inetd.conf
# Найдите строчку, начинающуся с #ssh и удалите символ #.
# Нажмите ESC и напечатайте :wq, чтобы сохранить изменения и выйти обратно в консоль.
# Перезапустите management services командой /sbin/services.sh restart.
# Теперь можно коннектиться через Putty.

вот так вот, кто может оптимизировать буду рад... )

Всего записей: 536 | Зарегистр. 28-10-2007 | Отправлено: 07:26 01-11-2008
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Обясните тупому насчет вышеупомянутой геометрии (которую воркстанция прочла с флешки и транслировала в scsi):  
7856128 = 64 sectors * 256 heads * 479.5 чего?  Почему в vmdk значится 489 цилиндров?
 
Создаём новый 4Gb scsi:
8388608 = 64 sectors * 256 heads * 512 чего?  Почему в vmdk значится 522 цилиндров?
 
Непонятно, не складывается уравнение...

Всего записей: 13656 | Зарегистр. 14-10-2001 | Отправлено: 09:47 01-11-2008
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
faust72rus
Вот и сам поимел возможность разобраться что там нужно, нужен был ещё один параметр --target_host, это хост, кого гасить (в нашем случае он сам, что в --server), и перед shutdown надо сделать enter_maintenance
У меня загасился!

Всего записей: 955 | Зарегистр. 01-09-2003 | Отправлено: 11:06 01-11-2008 | Исправлено: Oleg_Kurilin, 11:11 01-11-2008
faust72rus



Full Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
у меня просто сервер не в enter_maintenance режиме потому и не канало, а --target_host = --server я пробовал поставить...

Всего записей: 536 | Зарегистр. 28-10-2007 | Отправлено: 13:25 01-11-2008
sergi88



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ПОМОГИТЕ КТО В КУРСЕ.  
 
Есть 2 ESXa. Решил замутить СХД на Open-E. Использую бесплатную ESXi версию. Из возможных стандартов выбрал iSCSI как наиболее подходящее соотношение цена\качество.  
Сейчас на одном ESXе крутиться 10 машин: ISA, файловый сервер, DC... Соответвенно хочу их виртуальные диски перенести на этот СХД. И в случае падения одного поднять их на другом в ручном режиме.  
Работать естественно все это будет через сеть. Для этого дополнительно в СХД хочу поставить две двух портовые сетевые гигабитные карты и напрямую соединить их с серверами через транк. Два линка к одному серверу, два к другому.  
Вопрос:  
1. Хватит ли мне этой скорости?
2. Карты какого производителя лучше выбрать?
3. Есть ли смысл поставить не двух а четырёх портовые карты?  
4. Или не связываться с iSCSI а купить самые дешёвые Контроллеры Fibre Channel типа QLA2460-CK?
5. Что я делаю не так?
 
 

Всего записей: 10 | Зарегистр. 20-09-2007 | Отправлено: 15:13 01-11-2008 | Исправлено: sergi88, 16:07 01-11-2008
oaf56

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT. спасибо за участие.

Цитата:
Цитата:Не  находятся сетевые карты :  
- внешние сетевые карточки PCI D-LINK DGE 528T/530T/550T  
- встроеные PCI-X 2 MARVELL 88E8056(2х2=4 порта)    
 
и не найдутся. Забей, раз и навсегда.  
Не могу. Пояснения См. ниже.
Почему? На офф. сайтах Для Д-ЛИНКа и МАРВЕЛа(2008 года) Нашел драйвера под люникс. Не бинарные - С исходными текстамми. Их подключть никак не можно? VM Ware Сильно поменяла драйвера или добавила что-то а них существеное(свое для виртуализации)?

Цитата:
Цитата:А сетевыев строеные  INTEL 82563EB(2 порта) определяется как одна карта.    
 
может быть, особенность embedded версии? мне кажется, что в "большом" ESX должно определиться две. Откуда ты вообще узнал, сколько там определяется карт - из VI клиента, или как?  
 
фишка в том, что ESX(i) с успехом может обойтись одной сетевухой. Когда тебе захочется вторую сетевуху - вместо нее надо будет сконфигурить транк на свитче (если свитч управляемый). Если свитч неуправляемый - то тоже решаемо: на винде, которая туда втыкается, должны стоять транковые дрова (например Intel ProSet). То же самое, если винда соединена с ESX напрямую.  
 

1. Спасибо, будку это иметь в виду на будующее.
2. Карты определись как 2 штуки просто я не полез в консоль конфигурции на хосте. . Опаздывал. А тут  посмотрел: одна активна, а вторая есть, но не выбрана(отмечена).  
 
Добавлено:
Поможите кто такое проходил....
 
Из - за национальных особеностей - отсутствия денег хочу на сервере послабее(МАТЬ asus P5BV-C/4L) поднять ПО обеспечения ифраструктуры шлюза. Т.е. поднять сначала VM Ware ESXi, а в нем в виде отдельных VM поднять:
1.1. Шлюз(фаервол+машрутизатор)
1.2 Почта,
1.3 FTP
1.4 Сайт+HelpDesk(в планах).
 
Диск подключаю как SATA к встроеному LSI контролеру, Он Определяется SCSI. Хранище доступно.
А вот встроеные сетевые MARVELL и имеющиеся D-LINK не определяются никак. И это мне плохо.  
 
Решение Сегментации по отдельным VM конечно не рациональное, но единствено возможное для обеспечения большей доступности других сервисов на время поломки_и_ремонта, обновления ПО. Так как в никсах я еще почти полный 0. Возможно ли такое решение и будет ли оно приемлемо с точки зрения безопасности? Устоит ли хостовая VM Ware ESXi? Ведь если ее вскроют то - мало не покажется...
Инфой по этому ? не поделитесь?
 
В качестве виртуализируемых ОС(для шлюза) выбрал по бедности бесплатную FreeBSD. с составом ПО ПОКА определяюсь.
БОльшая проблема для меня при таком решении отсутствие нужного колва карт.(Имеющиеся не определяются) Ведь один интерфейс должен смотреть в Инет+ДМЗ, а другой в мою сеть. Может виртуализировать не на ESXi., а на FreeBSD типа на ХЕНе?

Всего записей: 124 | Зарегистр. 23-11-2006 | Отправлено: 14:53 02-11-2008 | Исправлено: oaf56, 09:03 05-11-2008
Kammerer2006

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
 
Да, конвертером.
Но опять же. Конвертер легко сконвертил саму виртуалку и перекинул ее в ESX, а вот отдельный диск vmdk просто не увидел. Я так понял что ему нужен был еще файл описания, но его у меня нет. Упс.
 
Добавлено:
А кто использовал Ghost ?
 
Есть некая проблема.
Создал виртуалку под Windows 2003 Server Standatr x64, сетевуха получилась E1000. В качестве CD указал ISO бутового сидюка, с которого грузится Ghost(все в DOS).
И получается какая-то фигня - диск бутится, драйвер E1000 скачанный с сайта Intel цепляется, а DHCP не цепляется хоть тресни. Выставил принудительно  IP - все равно. Причем в другой виртуалке где Server x32 и сеть AMD все ОК.
ESX смотрит в циску, думал там что, но другая виртуалка все видит. Значит проблема именно в E1000 ? Может есть какие родные дрова под DOS от VMWare ?
 
Куда копать уже не знаю.
 
Причем везде написано что мол типа сеть от AMD уже не канает и специально поставили E1000 тк это самый рулез.

Всего записей: 40 | Зарегистр. 26-03-2006 | Отправлено: 17:11 02-11-2008
Oleg_Kurilin



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Kammerer2006
Попробуй WinPE 2.0 (от Vista/Server 2008), ну и Ghost32. В такой конфигурации точно должно работать.

Всего записей: 955 | Зарегистр. 01-09-2003 | Отправлено: 17:43 02-11-2008
LevT



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
VM Ware Сильно поменяла драйвера или добавила что-то а них существеное(свое для виртуализации)?  

 
там в натуре другое ядро: проприетарное, а не люникс

Всего записей: 13656 | Зарегистр. 14-10-2001 | Отправлено: 18:55 02-11-2008
   

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX Server и VMware Infrastructure
batva (04-04-2009 09:34): VMware ESX Server и VMware Infrastructure (часть 2)


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2020

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru