Перейти из форума на сайт.


Система IP-видеонаблюдения "Линия". Скачать бесплатную демо-версию для 16 камер. НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Модерирует : lynx, dg

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Открыть новую тему     Написать ответ в эту тему

batva



crazy administrator
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору


Предыдущие темы

VMware vSphere (ESX 4)

Цитата:
VMwаre vSphere™, первая в отрасли ОС для «облачных» вычислений, использует возможности виртуализации для преобразования ЦОД в упрощенные пулы ресурсов на основе технологии cloud computing и дает ИТ-отделам возможность реализовать гибкие и надежные ИТ-услуги нового поколения, используя внутренние и внешние ресурсы — безопасно и с минимальными рисками.

VMware Infrastructure (ESX 3)
Описания:
VMware ESX Server
VMware VirtualCenter
VMware Consolidated Backup
 
VMwаre ESX Sеrver и VMwаre Infrastructure: Документация Скачать с официального сайта Скачать в Варезнике
Бесплатный VMwаre ESX 3i: Скачать, FAQ, Управление VMwаre ESX 3i
 
Подборка полезных ссылок:
Ежедневная газета о виртуализации VMware, Citrix, Microsoft, Parallels собирает новости с этих сайтов,
FAQ,
утилиты для VMwаre ESX,
набор ссылок на сайты о виртуализации,
сервер для esx за 900$.  
Лицензирование MS Windows под виртуализацию.
Русскоязычная неофициальная документация - wiki.vm4.ru
Бесплатные утилиты для ESX/ESXi
vSphere alarm triggers
 
 
Краткий указатель:  
Монтирование гостевых дисков через VCB
Обозрение процесса обновления хостов через Vmwаre Update Manager
Гайд по командной строке.
 
 
FAQ:
 
Q: У меня такой вопрос а можно ли VMwаre ESX Serve подсунуть драйвера для райд контроллера. Просто хотел сначала установить на сeрвер ESXi но он не видит рейда а только 2 отдельных диска. Вот я и думаю что если в VMwаrе ESX Serve есть доступ к линуксовой консоли то может можно драйвер подсунуть?
Q: Не работает клиент vSphere под Windows 7/2008R2
Q: Как узнать, поддерживает ли система виртуализацию на уровне железа (Intel VT \ AMD-V) на уже установленном гипервизоре?
Q: известно, что vSphere позволяет отдавать ВМ до 8 vCPU. Однако, не все гостевые ОС смогут столько переварить. Например, Win2003 Standart увидит только 4, а WinXP - 2. Обидно, да?
Q: Как включить доступ по SSH на VMware ESXi?
Q: Как создать статичную MAC запись для виртуального адаптера?
Q: У меня тормозит мышь в Windows7/2008 из клиента vSphere
 
VMware View – решение для развертывания виртуальных рабочих мест.

Всего записей: 12593 | Зарегистр. 07-01-2001 | Отправлено: 09:33 04-04-2009 | Исправлено: reff, 18:12 15-05-2015
GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
LevT
спасибо за все ваши ваши советы. только успевай читать..
 
Сегодня мне обломился 2-юнитовый старичек SR2400 с 3ware 9550SX-4LP
Оно вроде держит SATA2
собираюсь туда поставить 4 веника в 5рейд и надо таки чето построить )

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 22:51 03-02-2012
MrTroll



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите.
Есть корзина DS3500 (подключение к хосту ESXi через SAS) на ней создан LUN в ней логический диск к примеру на 5Тб. Есть ESXi 5.0. Могу подключить логический диск 5Тб как сторадж к хосту ESXi, а в нем создать виртуальные диски. А как подключить эти 5Тб напрямую к гостевой ОС? Спасибо.

----------
80ov

Всего записей: 1208 | Зарегистр. 05-08-2003 | Отправлено: 23:08 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Оно вроде держит SATA2
собираюсь туда поставить 4 веника в 5рейд и надо таки чето построить )

Для вирт.машин 5-ый рейд, да еще на sata - сильно плохо. Иопсов будет не хватать. Лучше 10-ый.
 

Цитата:
Есть еще 1 такой же и 1г сетевух (тоже бюджетных) штук 10 есть. Имеет смысл это барахло как то приспособить к делу?

Два свитча всяко лучше. На одном делать san сеть, на втором обычную (если все же делаешь выделенный дисковый сервер)
Бюджетные сетевухи можно смело ставить только в сторы, в esx смысла нет, драйвера то добавить для некоторых удается, но вот их стабильность тут уже много раз ругали - на тестах ок, а под нагрузкой начинают отваливаться.
 

Цитата:
карточки 2006 года, но сетевой стек не менялся, драйвера 2011 года и есть подо все windows solaris esxi 4 esxi 5  

Я просмотрел, думал там речь идет все еще о IB/Myrinet, а это обычные 10g ethernet. Против них я ничего не имею :)  Особенно если дрова есть и все их видят.
 

Цитата:
да, но стор самодельный на основе solaris, т.к аналог от например Netapp намного дороже

Толково сделанный самодельный от аппаратного практически не отличается. А местами и выигрывает.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 23:23 03-02-2012
brassnet



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
MrTroll

Цитата:
А как подключить эти 5Тб напрямую к гостевой ОС?

Наверно по RDM...

Всего записей: 1773 | Зарегистр. 29-12-2005 | Отправлено: 23:24 03-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Есть корзина DS3500 (подключение к хосту ESXi через SAS) на ней создан LUN в ней логический диск к примеру на 5Тб. Есть ESXi 5.0. Могу подключить логический диск 5Тб как сторадж к хосту ESXi, а в нем создать виртуальные диски. А как подключить эти 5Тб напрямую к гостевой ОС? Спасибо.

Страниц 10-20 назад обсуждалось и не раз. Если я правильно помню варианты:
1. Отдать raw lun в вирт. машину.
2. Если есть vt-d, передать целиком sas контроллер в вирт.машину.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 23:27 03-02-2012
MrTroll



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
brassnet
easyjohn
Спасибо за наводку. Подключил RDM, хотя vt-d тоже есть
 
Добавлено:
ПыСы:
Но теперь имея RDM диски я не смогу пользоваться такими фичами как vMotion и т.д.? Поправьте если я неправ. Спасибо
 
Добавлено:
ПыСыСы: LUN примапил к двум хостам ESXi, по идеи должно работать vMotion, проверить только не могу.

----------
80ov

Всего записей: 1208 | Зарегистр. 05-08-2003 | Отправлено: 00:09 04-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Мужики, я конечно понимаю, что мой самый дешевый свич Д-линк не айс,

 
По моему опыту, самое дешевое оборудование может быть не столь негодным, как  навороченное, но нестандартным образом (ради какой-нибудь маркетоложеской придури вендора)
 

Цитата:
 но и бабла на хороший никто не даст. Есть еще 1 такой же  

 
В обрез. Вам надо ОЧЕНЬ много труда вложить, чтобы заюзать их в инфраструктуре и обрести уверенность, что всё работает штатно (потому что нет наработанных опытом критериев штатной работы).  
 
И всё это ради того, чтобы потом жить как на пороховой бочке и ждать когда рванёт (хотя бы один из них заглючит). Оно вам надо?
 
 
 

Цитата:
 1г сетевух (тоже бюджетных) штук 10 есть. Имеет смысл это барахло как то приспособить к делу?

 
Про любые риалтеки забудьте, даже те, что работают из коробки со встроенными дровами. Хотя некоторые из них функционируют отлично в качестве 100-мегабитного аплинка к провайдеру или даже гигабитный vmotion способны обеспечить.  
 
Но на mtu 9000 - отваливаются, заразы.
 
 
Марвелы потестить руки не дошли, но судя по проблемам с ними в Hyper-V, яйца те же.
 
 
 

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 08:38 04-02-2012 | Исправлено: LevT, 08:46 04-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
mtu 9000

Я дико извиняюсь!
Это про это?
 
Добавлю еще вопрос: Как я понял 9000 имеешь смысл если я использую внешнюю хранилку. Я решил отказаться от нее. 2 сервера будут вертеться на собственных локальных железных рейдах. Настрою Вцентр и, в случает плановой необходимости, будут мигрировать МВ между ними. Так вот - свич у меня полное г. А если допихнуть в хосты по паре сетевух (дешевых)которые будут работать в локальную сеть, а родные "Интегрированный Dual Intel® 82575EB Gigabit Ethernet Controller " соединить кроссом мои 2 сервака и включать 9000. Даст это что то?

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 10:01 04-02-2012 | Исправлено: zeliboba, 10:21 04-02-2012
MrTroll



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
У меня есть еще вопрос. А как поступить с СХД. Из всех дисков создать один рейд и создавать в нем LUN'ы, или разбить СХД на несколько рейдов под конкретные задачи и хосты? Спасибо.

----------
80ov

Всего записей: 1208 | Зарегистр. 05-08-2003 | Отправлено: 10:05 04-02-2012
easyjohn

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 А как поступить с СХД. Из всех дисков создать один рейд и создавать в нем LUN'ы, или разбить СХД на несколько рейдов под конкретные задачи и хосты?

Все индивидуально.
Во первых не забывать про ограничения разделов vmfs, в 4-ке это было 2tb на раздел.
Дальше смотреть сугубо по задачам. Кому-то проще жить с одним большим луном, кому-то надо гарантировать iops для каких-то важных машин, и их лучше держать отдельно и т.п.

Всего записей: 475 | Зарегистр. 15-03-2005 | Отправлено: 12:12 04-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Я дико извиняюсь!  
Это про это?  
 

 
про это самое. В v.5 включается, кроме консольных команд, также и из окошек всферы клиента.
 
Cудя по результатам ping -d -s 8972, как раз каким-то волшебным образом оно работает через ваш свич, насквозь от хоста до хоста
 
А вот насколько надёжно???
 
 
 

Цитата:
Как я понял 9000 имеешь смысл если я использую внешнюю хранилку.  

 
Мое мнение таково, что это общий показатель зрелости сетевой физический инфраструктуры.  Если решено к нему не стремиться - то только и остаётся ограничивать свои планы.  
Например, отказываться от внедрения тяжёлых сетевых приложений, таких, как протоколы SAN..
 
 
Ваши физические ресурсы подобраны однобоко: сервера добротные, а о сети приличной забыли.
(Но я видывал и много более резкие несоразмерности...)

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 13:04 04-02-2012 | Исправлено: LevT, 00:58 05-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
прокинул внутрь q35 IB адаптерр на который могу делать IPoIB под windows
прокинул ICHR диски отдам solaris и заберу в esxi как NFS / iSCSI  
остался вопрос где для solaris 11 взять драйвера на VMXNET3 чтобы при установке подсунуть
vmware tools не ставятся

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 15:00 04-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Нет их покамест. И неизвестно, когда будут и будут ли вообще.
 
Добавлено:
http://communities.vmware.com/thread/337879
 
Потому я прокидывал в гостя еще и сетевые адаптеры igb  
Лихо насобачился их настраивать через dladm и ipadm
 
однако упёрся в глубоко зарытые глюки автосогласования flowcontrol, непонятно с чем связанные - то ли плохим взаимопониманием соляры и циски, то ли с вмварным passthrough
 
(Из-за них сетевые интерфейсы не все или не всегда поднимались автоматом, приходилось ковырять руками)
 
 
Оставил до времени затею с виртуализацией хранилки, отдам ей пока целый сервер и добьюсь четкой работы в развиртуализованном виде.
 

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 22:13 04-02-2012 | Исправлено: LevT, 22:31 04-02-2012
Dimsoft

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Нет их покамест


Цитата:
Оставил до времени затею с виртуализацией хранилки

LevT
 
Я хотел пойти по пути napp-it.  
В материнской плате на основе чипсета Q35 только 1 PCI-e его займет IB карта.
В PCI поставить sata адаптер для системного диска и диска под solaris и windows server 2008R2.
6 HDD вместе с контроллером ICHR прокинуть в solaris и сделать на них ZFS пул.
ZFS пул из solaris по "внутривиртуальной" сети отдаем windows 2008r2.
Windows 2008R2 поднимает IPoIB и на скорости 10G отдает данные по сети.
 
Получаем ZFS надежность+windows SMB2 скорость.
 
Весь "затык" сейчас в  том как отдать 10G от solaris в windows.

Всего записей: 2540 | Зарегистр. 17-11-2003 | Отправлено: 23:09 04-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
IPoIB солярка не хуже винды должна отдавать
 
 
Example 21 Creating an IB Partition
 
The following command creates a partition ffff.ibp0 with partition key 0xffff on the physical link ibp0.
# dladm create-part -P ffff -l ibp0 ffff.ibp0
 
далее стандартные команды
 
ipadm create-ip ffff.ibp0
ipadm create-addr -T static -a 172.16.1.1/24 ffff.ibp0/ipv4addr
(синтаксис по памяти, смотри в ман если сходу не пройдёт;  последнее /ipv4addr всего лишь текстовый лейбл объекта адрес, может быть любым;
 
проверить поднявшийся линк  
ipadm show-addr
ipadm show-if
dladm show-part
dladm show-link)
 
 
 
но пишут, что это костыли, а нативная скорость инфинибанда достижима через rDMA

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 00:02 05-02-2012 | Исправлено: LevT, 00:24 05-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Пригляделся внимательней к вчерашней переписке Dimsoft с easyjohn
 
 
Чего-то я определённо не догоняю.  Насколько мне известно, инфинибанд  и эзернет (любой) - РАЗНЫЕ технологии на уровне L2 (даталинк), и не факт что электрически совместимые на L1 (физическом).  
 
 При том, что кабеля и разъёмы могут быть одинаковыми с какими-то древними разновидностями 10GbE.
 
 
Так о каких карточках речь-то? Линукс, соляра, винда их видят как 10GbE или как инфинибанд?
 
Разве в ESX вообще нативные инфинибанд карточки поддерживались когда-нибудь?  
Если так, то, по идее, он должен сразу отрезать конвертировать их в IPoIB (то есть отрезать партицию и представлять их в виде L3 сетевого интерфейса). Наклейку скорости в интерфейсе может писать 10GbE, а что там на самом деле - без замеров не скажешь.
 

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 12:38 05-02-2012 | Исправлено: LevT, 12:49 05-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Ставлю ESXi4 на флешку. И если она нужна только для запуска и на нее ничего не пишется в процессе работы(логи,свапы) в отличии от ESX получается с нее нужно снять дамп и положить в архив на случай падения. Правильно или я то то упустил?

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 12:53 05-02-2012
LevT



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Ставлю ESXi4 на флешку.

 
Сервер как таковой переустановить - 10 минут. Стандартные настройки руками воспроизвести - ещё пять.
 
Дольше будешь вспоминать, где у тебя лежит архив, и как получить доступ у содержимому...
 

Всего записей: 9793 | Зарегистр. 14-10-2001 | Отправлено: 13:11 05-02-2012 | Исправлено: LevT, 13:12 05-02-2012
zeliboba



Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Еще такой вопрос: скачать VMware-VMvisor-Installer-4.1.0.update02-502767.x86_64.iso перед окном приветствия установки пробегает что то красным шрифтом (не успеваю даже посмотреть), выходит окно "нажмите ентер", но сервак глухо висит. Пробовал переписать балванку, результат тот же. Скачать VMware-VMvisor-Installer-5.0.0-469512.x86_64.iso все нормально, пошла установка. Когда на сайте вари вышел на окно загрузки, вылез серийник для 5. Вот теперь вопрос - это 60-дневный или полный серийник или это как то связано с моей платной лицензией на 4.1? т.е. у меня есть лиц Product: vSphere 4 Essentials Plus Licensed for 2 physical CPUs (1-6 cores per CPU) ее можно использовать на esxI 5 ?

Всего записей: 319 | Зарегистр. 16-09-2004 | Отправлено: 13:48 05-02-2012
Michigun



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
Ставлю ESXi4 на флешку. И если она нужна только для запуска и на нее ничего не пишется в процессе работы(логи,свапы) в отличии от ESX получается с нее нужно снять дамп и положить в архив на случай падения. Правильно или я то то упустил?

 
я бы так и сделал, это несложно
 
http://www.vm4.ru/2012/02/esxi-backup-powercli.html

Всего записей: 1623 | Зарегистр. 28-12-2004 | Отправлено: 13:50 05-02-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493

Компьютерный форум Ru.Board » Операционные системы » Другие ОС » VMware ESX, ESXi, vSphere и Infrastructure

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2017

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru