Войти

Показать полную графическую версию : Выбор RAID массива


Страниц : 1 [2]

Jula0071
25-04-2018, 13:26
Имеется массив 200 ТБ. »
Представляю, с каким грохотом он навернётся.

cameron
25-04-2018, 13:42
Имеется массив 200 ТБ. »
это RAID6? я правильно высчитала?
Правильно ли идеологически разбивать диски через консоль управления дисками ? »
какая цель преследуется разбиением?
Какие ограничения есть по размеру этих самых дисков. »
это вопрос?PS. Отрезал кусок диска и расшарил для 1Сника под бэкапы. Смущает скорость записи. Решится ли если подключу два сетевых интерфейса между собой гигабитом. (сервер 1с и hyper-V) »
а мы знаем как сейчас у вас соединено? и какая скорость запись?...
Второй диск неразмеченный - SSD на 256 Гб. Организовать на него кэш ? »
какими средствами?

Dreamer_UFA
25-04-2018, 14:44
это RAID6? я правильно высчитала? »
RAID 60

какая цель преследуется разбиением? »

Выделение места для баз, виртуальных машин, файлов (share)

а мы знаем как сейчас у вас соединено? и какая скорость запись?... »

Скорость записи 6-7 МБ/с. Сервер в сети, один сетевой интерфейс в коммутатор (100 мб/с)

какими средствами? »

Диск сейчас никак не задействован.

Сейчас все на уровне экспериментов. Выбор гипервизора еще не окончателен, хотя скорее всего останусь на HyperV

Дано: сервер, 24 жестких диска по 10 Тб., 2 SSD
Надо: эффективное использование

Хочу перенести на него OwnCloud существующий сейчас, Kerio Mail Server. Ну и для себя пару виртуалок поднять, в целях экспериментов и самообучения.

Хотел еще на него повесить Proxy/Firewall функционал.

cameron
25-04-2018, 14:55
Выделение места для баз, виртуальных машин, файлов (share) »
я бы сделала несколько зеркал и несколько (или один) R10 самим контроллером.
ребилд этого 200Тб "счастья" будет самым настоящим весельем.
Скорость записи 6-7 МБ/с. Сервер в сети, один сетевой интерфейс в коммутатор (100 мб/с) »
для 100-ки предел ~10MB/sec.
соот-но варианты:
1. отдающий сервер не успевает отдавать
2. на принимающем идёт фоновая инициализация массива, соот-но IO замедлены.
3. 100-ный свитч не вытягивает нагрузки.
4. антивирусное ПО развлекается.

Диск сейчас никак не задействован. »
это не ответ на мой вопрос. вам, чтобы ответить на свой вопрос, нужно ознакомиться с документаций от вашего контроллера
https://www.supermicro.nl/manuals/other/AOC-S3108L-H8iR.pdf
страница 37 и ниже.

Дано: сервер, 24 жестких диска по 10 Тб., 2 SSD
Надо: эффективное использование »
нет внятных задач, нет паттерна нагрузки, есть *овноконфиг, который нужно натянуть на кактус. как-то так.
Хочу перенести на него OwnCloud существующий сейчас, Kerio Mail Server. Ну и для себя пару виртуалок поднять, в целях экспериментов и самообучения.
Хотел еще на него повесить Proxy/Firewall функционал. »
это всё укладывается в расчёт только по дисковому объёму.

Dreamer_UFA
25-04-2018, 15:11
Я Вас услышал.

Постараюсь более четко описать ТЗ с ТТХ частью.

Использование 200 Тб в одном массиве и "счастье" которое может прийти внезапно тоже представляю.

Заказали сервер, выбили деньги а цели и задачи изначально не были внятно обозначены. Хранилка! Но тратить 1,5 млн просто под файловую сорри "помойку" радости не приносит.
Отдали - делай что хочешь.

Хочу перенести часть сервисов на него, часть оборудования освободить. Надеюсь коллегиально поможете собрать внятную инфраструктуру.
В ближайшее время будет переезд в новый офис, где хотелось бы установить и забыть. Пару месяцев на подготовку есть.

Спасибо за чтение каламбура

Jula0071
25-04-2018, 15:19
Не далее как вчера наколхозил сервачок под NAS. Хостер отказался предоставить железку типа Synology, ну мы не лыком шиты - берём R530, 8 сата дисков в него, PERC730 в режим HBA и ZFS на всём этом. Ессно, два сетевых интерфейса в 802.3ad layer3+4 гигабит каждому с возможностью апгрейда на десятку за денежку малую. Никаких SSD для кеша, ненужно для бекапов.

root@r8:~# df -h
Filesystem Size Used Avail Use% Mounted on
udev 32G 0 32G 0% /dev
tmpfs 6.3G 19M 6.3G 1% /run
rpool/ROOT/pve-1 40T 1.3G 40T 1% /
tmpfs 32G 43M 32G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 32G 0 32G 0% /sys/fs/cgroup
rpool 40T 256K 40T 1% /rpool
rpool/ROOT 40T 256K 40T 1% /rpool/ROOT
rpool/data 40T 256K 40T 1% /rpool/data
/dev/fuse 30M 16K 30M 1% /etc/pve
tmpfs 6.3G 0 6.3G 0% /run/user/0

root@r8:~# dd if=/dev/zero of=~/zerofile bs=2M count=100000
100000+0 records in
100000+0 records out
209715200000 bytes (210 GB, 195 GiB) copied, 92.3834 s, 2.3 GB/s

Да, я знаю, что последовательная запись не отражает полностью производительность, но мне для бекапов только оно и важно.

cameron
25-04-2018, 22:44
Постараюсь более четко описать ТЗ с ТТХ частью. »
не забудьте учесть необходимость резервного копирования этого массива ;)




© OSzone.net 2001-2012