smocky
|
|
« : 19-12-2011 04:20 » |
|
Подскажите, плииз, опытные сисадмины и другие сетевеки. Имеем - одноранговую сеть. В ней один сетевой диск NAS (WD), и несколько компов. Диск используется для периодических бэкапов. Причём количество пользователей больше, чем количество компов, а у каждого пользователя свои бэкапы. Задача - Дефрагментировать сетевой диск. Дополнительное пожелание - дефрагментировать остальные компы через сеть (это - "экстра") - хотелось бы дистанционно, не сидя за каждым физически. Вопрос - мне кажется - очевиден - ЧЕМ?
|
|
|
Записан
|
|
|
|
RXL
Технический
Администратор
Offline
Пол:
|
|
« Ответ #1 : 19-12-2011 06:17 » |
|
Главный вопрос: зачем? Какое назначение NAS и других хостов? Потоковое видео или что-то аналогичное, ориентированное на массовое линейное чтение? — Да, дефрагментация очень полезна. В противном случае, на современном железе, ОС и ФС, дефрагментация не требуется. Если нужна высокая скорость работы на офисных машинах — приобретите SSD (~100$ за 60 ГБ). Даже такие роли серверов, как БД или файловый сервер не нуждаются в дефрагментации, т.к. она не увеличивает скорость работы.
Я так понял, это домашняя сеть. Так? Тогда дефрагментация точно не нужна. В момент копирования файла на NAS он и так располагается на диске оптимально.
|
|
« Последнее редактирование: 19-12-2011 06:24 от RXL »
|
Записан
|
... мы преодолеваем эту трудность без синтеза распределенных прототипов. (с) Жуков М.С.
|
|
|
smocky
|
|
« Ответ #2 : 19-12-2011 07:19 » |
|
Сеть не домашняя. Бэкап каждый день 15 компов и 20 юзеров на протяжении нескольких лет.... Думается есть смысл. Вы считаете иначе? Пока диск жив, контора новый не купит. Потоковое видео, однако не юзают. Только бэкапы. Но они всё, что могут бэкапят. Потом самое старое трут и снова бэкапятся.
|
|
|
Записан
|
|
|
|
RXL
Технический
Администратор
Offline
Пол:
|
|
« Ответ #3 : 19-12-2011 08:49 » |
|
На офисных машинах дефрагментация принесет мало пользы. Лучше выключить рюшечки XP - это существенно повысит скорость работы машинки. Также полезно отключить службу индексирования (в ней нет смысла) и, если позволяет память, отключить своп.
По части NAS. Сеть 100 Мбит или 1 Гбит? На первой дефрагментация снова не нужна, т.к. в лучшем случае трафик будет 11 МБ/с, что, учитывая кеш в NAS, не способно существенно нагрузить диск NAS.
Бекапы какими средствами делаются?
Скажем так: дефрагментировать сетевой диск нельзя. Но это не мешает лечить проблему (а не дефрагментировать).
|
|
« Последнее редактирование: 19-12-2011 09:23 от RXL »
|
Записан
|
... мы преодолеваем эту трудность без синтеза распределенных прототипов. (с) Жуков М.С.
|
|
|
smocky
|
|
« Ответ #4 : 19-12-2011 15:07 » |
|
Сеть - соточка. Бэкапы - программка стоит. Все "красивости" давно отключены. Спасибо. Будем думать...
|
|
|
Записан
|
|
|
|
Sla
|
|
« Ответ #5 : 19-12-2011 15:23 » |
|
А с чем связано желание дефрагментировать диск?
|
|
|
Записан
|
Мы все учились понемногу... Чему-нибудь и как-нибудь.
|
|
|
RXL
Технический
Администратор
Offline
Пол:
|
|
« Ответ #6 : 19-12-2011 16:16 » |
|
smocky, программка - это понятно. Детали-с
|
|
|
Записан
|
... мы преодолеваем эту трудность без синтеза распределенных прототипов. (с) Жуков М.С.
|
|
|
smocky
|
|
« Ответ #7 : 19-12-2011 16:48 » |
|
smocky, программка - это понятно. Детали-с Детали писал выше А с чем связано желание дефрагментировать диск? Тоже выше писал. Правда некоторые товарищи утверждают, что это желание "от лукавого" и не надо заморачиваться.
|
|
|
Записан
|
|
|
|
RXL
Технический
Администратор
Offline
Пол:
|
|
« Ответ #8 : 19-12-2011 16:50 » |
|
Я имею в виду конкретную программу для бекапов. Хочу понять характер нагрузки на NAS.
Чтобы ты не думал, что я несерьезно отношусь к вопросу: перефразируя Классика, "бекапы — это наше все".
|
|
« Последнее редактирование: 19-12-2011 16:51 от RXL »
|
Записан
|
... мы преодолеваем эту трудность без синтеза распределенных прототипов. (с) Жуков М.С.
|
|
|
smocky
|
|
« Ответ #9 : 19-12-2011 17:21 » |
|
Я имею в виду конкретную программу для бекапов. Хочу понять характер нагрузки на NAS.
Чтобы ты не думал, что я несерьезно отношусь к вопросу: перефразируя Классика, "бекапы — это наше все".
Честно говоря - не помню название программки. Одно знаю точно - это что-то специфическое (хотя убейте меня, если понимаю - нафига такое надо). Раньше нигде не встречал даже имени её. Когда-то влепили им это, оно работает, не падает, не глючит, а им больше и не надо. Хотя я бы предпочёл понимать, что именно забэкаплено, а не какие-то странные файлы с особым расширением (видимо специфика проги) наблюдать. А разве это принципиально? Файло, которое они бэкапят на 90% ворд и пи ди эф, 10% картинки и фотки.
|
|
|
Записан
|
|
|
|
Sla
|
|
« Ответ #10 : 19-12-2011 17:42 » |
|
Конечно от лукавого... Какая ОС на NASе? *nix + SAMBA А *nix сам разберется с дефрагментацией, вернее, скорость доступа по сети несравнима со скоростью доступа к данным, даже на фрагментирумых данных
А чтоб сделать дефрагметацию есть способ (не надолго хватит). Снимаешь диск - делаешь его копию, форматируешь, а потом пофайлово заливаешь. Оно тебе надо?
|
|
|
Записан
|
Мы все учились понемногу... Чему-нибудь и как-нибудь.
|
|
|
RXL
Технический
Администратор
Offline
Пол:
|
|
« Ответ #11 : 19-12-2011 18:00 » |
|
smocky, это важно. Многое зависит от организации бекапа как хранилища и работы с ним. Ведь изначально, быстро записанный файл в уже не фрагментирован или минимально фрагментирован. Если же файл растущий и растет он маленькими кусочками, то прогноз не утешительный и плохо предсказуемый. Особенно если программа бекапа выполняется не программой на сервере, а на каждой машине и процесс запускается одновременно на куче машин. Еще хуже если файлы копируются без архивации (агрегации в архивы - сжатие не обязательно).
Мы у себя сделали так: каждый сервер, нуждающийся в дополнительной копии бекапа своих данных, сам подготавливает своих данные (написали соотв. скриптики для Linux и Винды), архивирует их и к установленному часу копирует на общий файловый сервер, где их местная программа бекапит на внешние носители. Копирование на сервер получается не одновременное и нагрузка вообще не ощущается. Бекапы весят десятки ГБ. Справляется с нагрузкой уже устаревший диск SCSI U320 15k rpm. Сетка 100 Мбит. Пользователям вообще наказано хранить все ценное на файловом сервере: ночью проходит инкрементальный бекап пользовательских файлов. Тоже справляется без проблем.
|
|
|
Записан
|
... мы преодолеваем эту трудность без синтеза распределенных прототипов. (с) Жуков М.С.
|
|
|
smocky
|
|
« Ответ #12 : 19-12-2011 18:02 » |
|
Конечно от лукавого... Какая ОС на NASе?
Понятия не имею. Хотя - полагаю - *nix + SAMBA Ок. Картина прояснилась. СПАСИБО
|
|
|
Записан
|
|
|
|
smocky
|
|
« Ответ #13 : 19-12-2011 18:08 » |
|
smocky, это важно. Многое зависит от организации бекапа как хранилища и работы с ним. Ведь изначально, быстро записанный файл в уже не фрагментирован или минимально фрагментирован. Если же файл растущий и растет он маленькими кусочками, то прогноз не утешительный и плохо предсказуемый. Особенно если программа бекапа выполняется не программой на сервере, а на каждой машине и процесс запускается одновременно на куче машин. Еще хуже если файлы копируются без архивации (агрегации в архивы - сжатие не обязательно).
Мы у себя сделали так: каждый сервер, нуждающийся в дополнительной копии бекапа своих данных, сам подготавливает своих данные (написали соотв. скриптики для Linux и Винды), архивирует их и к установленному часу копирует на общий файловый сервер, где их местная программа бекапит на внешние носители. Копирование на сервер получается не одновременное и нагрузка вообще не ощущается. Бекапы весят десятки ГБ. Справляется с нагрузкой уже устаревший диск SCSI U320 15k rpm. Сетка 100 Мбит. Пользователям вообще наказано хранить все ценное на файловом сервере: ночью проходит инкрементальный бекап пользовательских файлов. Тоже справляется без проблем. Бэкап происходит локально, по-видимому с архивацией, примерно в одно время на всех машинках, затем отсылается на NAS. У каждой машинки - своя папка, в ней файлы (имена файлов - даты). Отдельные юзеры, которые работают в другие часы - бэкапятся автоматически по окончании сеанса. Нагрузка никого не интересует, всё происходит по окончании работы. Просто появились жалобы, что восстановление из бэкапа стало тормозить. Однако учитывая высказывания предъыдущих ораторов - думаю - надо искать проблему в сетке или на локальных машинках. Видимо не фрагментация виновата.
|
|
« Последнее редактирование: 19-12-2011 18:10 от smocky »
|
Записан
|
|
|
|
RXL
Технический
Администратор
Offline
Пол:
|
|
« Ответ #14 : 19-12-2011 18:38 » |
|
По моему вполне нормально сделано.
Объем данных имеет тенденцию расти. Ведь поудалять ненужное и перенести в архив неизменное большинство себя не утруждает, хотя пыль на экране монитора протирают регулярно. Т.ч. это выглядит естественно.
Сетка проверяется обычным прогоном трафика - копированием больших файлов.
Локальные машинки еще тормозят когда свободного места становится мало. Как раз тут фрагментация влияет очень сильно. Достаточно почистить диск от ненужного.
|
|
|
Записан
|
... мы преодолеваем эту трудность без синтеза распределенных прототипов. (с) Жуков М.С.
|
|
|
smocky
|
|
« Ответ #15 : 19-12-2011 18:50 » |
|
По моему вполне нормально сделано.
Объем данных имеет тенденцию расти. Ведь поудалять ненужное и перенести в архив неизменное большинство себя не утруждает, хотя пыль на экране монитора протирают регулярно. Т.ч. это выглядит естественно.
Сетка проверяется обычным прогоном трафика - копированием больших файлов.
Локальные машинки еще тормозят когда свободного места становится мало. Как раз тут фрагментация влияет очень сильно. Достаточно почистить диск от ненужного.
Старые бэкапы они и так удаляют. А как раз пыль на мониторе НИКОГДА не вытирают. Просят уборщиков это сделать. Абсолютно не задумываясь, кстати, чем и как они это сделают Прогоном я проверял и ещё разными способами тоже. Тут всё ок. А вот машинкам ихним - я точно должен сделать обслуживание. Там ТАААКОГО наворочено... И их-то как раз сроду никто и не чистил и не дефрагментировал. Для этого я и хотел дистанционно это сделать. Лениво за каждой сидеть. К слову они узают машинку, насилуют её, пока сами не сочтут, что сдохла, потом списывают Я уже 2 подобрал, поправил и юзаю.
|
|
|
Записан
|
|
|
|
Sla
|
|
« Ответ #16 : 19-12-2011 18:56 » |
|
>>>Там ТАААКОГО наворочено.
Проблемы одноранговой сети.
|
|
|
Записан
|
Мы все учились понемногу... Чему-нибудь и как-нибудь.
|
|
|
smocky
|
|
« Ответ #17 : 20-12-2011 00:44 » |
|
>>>Там ТАААКОГО наворочено.
Проблемы одноранговой сети.
На самом деле проблемы юзеров
|
|
|
Записан
|
|
|
|
Sla
|
|
« Ответ #18 : 20-12-2011 08:06 » |
|
smocky, не... Юзер - собака невоспитанная. Чем больше ограничений, тем спокойней жизнь админа У меня в конторе машинки уже 4,5 года работают без переустановки винды. Антивирус - серверный вариант Весь необходимый софт требующий регулярного обновления - на сетевых ресурсах. Учитывая, что я в домене с правами админа, то и доступ к удаленным сервисам и управлению происходит в тени... Не... домен в данном случае очень сильно помогает. Надо... надо... Уговорить, доказать руководство. Тем более, если это еще и политика предприятия - например перемещаемые профили. Бекапирование профилей и документов. А тем более, что юзеров больше чем компов, и теперь они смогут работать на ЛЮБОМ рабочем месте.
|
|
« Последнее редактирование: 20-12-2011 08:09 от Sla »
|
Записан
|
Мы все учились понемногу... Чему-нибудь и как-нибудь.
|
|
|
smocky
|
|
« Ответ #19 : 20-12-2011 12:29 » |
|
Согласен. Хотя всюду своя специфика. Но в основном ты прав.
|
|
|
Записан
|
|
|
|
|