Показать полную графическую версию : Виртуализация корпоративной сети
Планируем виртуализовать корпоративную сеть, примерно следующего содержания:
- Контроллер домена
- Direct Access & VPN
- AD FS
- SCCM
Как я вижу это:
две ноды подключённые к Disk Array, скорее всего по iSCSI 1Gbit
на нодах установлены роли контроллера домена и Hyper-V
на виртаулаках AD FS, Direct Access, SCCM
Примерная конфигурация нод:
Supermirco
Intel Xeon 4-Core E3-1230LV3 1,8GHz 8MB
16 GB (4x 4GB) ECC DDR3 1600
2х 300 GB SAS II HGST 2,5" 10k
Adaptec 6405 SAS2 4x
2x 400 Watt Power Supply
Какую дисковую полку посоветуете? на 4 или 8 дисков для RAID-10.
Что скажете про распределение ролей по VM и нодам?
Спасибо.
Ну КД на ноду я бы не ставил, зачем? Тоже виртуализовать, если уж очень нужен аппаратный, то любой офисный комп подойдет.
2 ноды для отказоустойчивости или на них роли разные будут?
Ну КД на ноду я бы не ставил, зачем? »
ну просто хотелось бы чтобы было два контроллера + ноды же должны быть в домене, а контроллер в это же время на виртуалке?
2 ноды для отказоустойчивости
да
кстати, а можно совместить Direct Access со SCCM ?
вот ещё вопрос возник - 1Gbit iSCSI хватит? или 10 Gbit ?
ну просто хотелось бы чтобы было два контроллера »
Сделай 2 виртуальных + 1 железный (офисного пк по глотку)
Если планируется кластер, точно не помню, но на КД его не развернешь кажись.
кстати, а можно совместить Direct Access со SCCM ? »
Ну на разных ВМ сделай, или именно на 1 надо? Сам DirectAccess не разворачивал, ИМХО даже на одной ВМ все должно работать (не вижу какой-либо причины обратного).
вот ещё вопрос возник - 1Gbit iSCSI хватит? или 10 Gbit ? »
Тут только от твоей нагрузки зависит, ИМХО 1Gb за глаза.
(офисного пк по глотку) »
некуда ставить. только стойка в наличии.
Тут только от твоей нагрузки зависит, ИМХО 1Gb за глаза. »
вот ещё вопрос появился: нужны ли какие специальные коммутаторы для работы кластера? слышал, что какая-то функция для этого специальная есть, но забыл как называется.
Или просто iSCSI через простые коммутаторы подключить.
Telepuzik
30-04-2015, 23:26
вот ещё вопрос появился: нужны ли какие специальные коммутаторы для работы кластера? »
Специальные коммутаторы не нужны, но очень рекомендуется использовать коммутаторы которые поддерживают Jumbo Frames. И на сетевых картах так же необходимо включить Jumbo Frames.
1. На каждый сервер устанавливаем Hyper-V, Failover-Clustering, MPIO. Тома с дисковой полки по ISCSI подключаем к каждому серверу. Создаем кластер. В виртуальных машинах размещаем все. Тут будет тонкий момент - для создания кластера необходим работающий контроллер домена, можно обойти создав ВМ с КД на одном из серверов на локальном хранилище. На узлах кластера только Hyper-V и средства кластеризации. Можно использовать бесплатный Hyper-V Server на узлах кластера.
2. Если планируете кластер высокой доступности - планируйте, чтоб при отключении одного узла, все ВМ продолжили работать на оставшемся. В вашем случае процессора скорее всего хватит, а памяти можно было и поболее, но все зависит от нагрузки.
3. ISCSI 1Gb - достаточно для небольших нагрузок, если у вас SCCM не на пару тысяч машин, то под ваши задачи хватит за глаза. SAS для подключения хранилища не рассматривали?
4. Из полок. Совсем low-end - посмотрите Synology, с лого Windows Server Certified. Если бюджет позволит, тогда, например, HP MSA 1040 iSCSI 1Gb - двухконтроллерная СХД младшего класса.
если у вас SCCM не на пару тысяч машин »
пока только с десяток будет, но все распределены по разным городам с подключением по DirectAccess.
Тут будет тонкий момент - для создания кластера необходим работающий контроллер домена »
буду думать как лучше сделать...
4. Из полок. Совсем low-end - посмотрите Synology »
его пока и выбрали Synology RS815RP+ NAS
SAS в бюджет не впишется, я даже на 32 GB не могу уговорить... а тут ещё выяснилось, что будет миграция имеющегося Team Foundation Server на этот же кластер...
Пока на такой конфигурации остановились (обновил процессор):
Intel Xeon 4-Core E3-1241V3 3,5GHz 8MB
16 GB (4x 8GB) ECC DDR3 1600
Avago MegaRAID 9260-4i SAS2 4x
4х 500 GB SATA III HGST 2,5"
Если в будущем решим внедрять терминальный сервер память придётся всю менять.
Telepuzik
08-05-2015, 09:20
Примерная конфигурация нод: »
А сколько у Вас сетевых интерфейсов на каждой ноде?
А сколько у Вас сетевых интерфейсов на каждой ноде? »
по два. но хотелось бы четыре...
Сейчас улучшил конфигурацию (выделили финансирование под SAS):
Intel Xeon 6-Core E5-2630v2 2,60GHz 15MB 7.20GT/s
32 GB (4x 8GB) ECC Reg DDR3 1600 2 Rank
4х 1 TB SAS II Seagate Constellation ES.3 3,5" 7.2k
4x SATA-2 (3 Gb/s) und 2x SATA-3 (6 Gb/s) SW-Raid Controller on Board C602 PCH (0,1,5,10)
Avago MegaRAID 9260-4i SAS2 4x
плюс, имеющийся в наличии TFS уже использует 16 GB памяти. а E3-1241V3 только 32 поддерживает. Нет возможности дальнейшего обновления.
а дисковую полку будем делать из сервера:
Intel Celeron G1820T 2-Core 2,4 GHz 2MB 5GT/s
8 GB (2x 4GB) ECC DDR3 1600 1 Rank
4х 600 GB SAS II HGST 2,5" 10k
Avago MegaRAID 9260-4i SAS2 4x
процессор только другой подобрать.
© OSzone.net 2001-2012
vBulletin v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.