Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » ICEECC | QuickPAR | MultiPAR | RSC32 и др.

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Открыть новую тему     Написать ответ в эту тему

persicum

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Программы данного раздела служат для обнаружения и исправления ошибок, возникающих при передаче данных и их долговременном хранении. Как правило, восстановление возможно, если суммарный объем повреждений в искаженных файлах вместе с объемом полностью утраченных файлов не превышает объем корректирующей информации, которая заблаговременно дописывается на носитель.
 
 
Контроль целостности без возможности восстановления
 
RHash
Описание: замечательная кроссплатформенная консольная утилита для вычисления огромного количества криптографически-стойких hash-функций, в том числе и используемых в p2p сетях. Программы этой группы не способны к исправлению данных сами по себе, но способны указывать на ситуации, когда необходимо воспользоваться резервной копией или перекачать файл заново
 
Домашняя страница: https://github.com/rhash/RHash
Страница для скачивания: http://sourceforge.net/projects/rhash/files/rhash/
 
RapidCRC Unicode
Описание: профессиональное средство для расчета hash-функций, в том числе и современных быстрых многопоточных функций blake2sp и blake3.
 
Домашняя страница: https://www.ov2.eu/programs/rapidcrc-unicode
Страница для скачивания: https://www.ov2.eu/programs/rapidcrc-unicode
 
CHK Hash Sum
Описание: портативная утилита для контроля целостности файлов с поддержкой Юникода и перетягивания.  
 
Домашняя страница: https://compressme.net/
Страница для скачивания: https://compressme.net/
 
 
8-битные коды Рида-Соломона
 
DVDisaster
Описание: Программа для защиты данных на оптических дисках CD, DVD и BD путём добавления к нему избыточной информации.
 
Домашняя страница: https://sourceforge.net/projects/dvdisaster/
Страница для скачивания: https://sourceforge.net/projects/dvdisaster/files/dvdisaster/
 
 
16-битные коды Рида-Соломона
 
WinRAR
Описание: популярный архиватор, начиная с версии 5.0 создает до 65535 томов восстановления. Кроме того, использует коды RS и для добавления информации восстановления к архивам, выгодно отличаясь от всех других архиваторов.
 
Домашняя страница: http://www.win-rar.ru/
Страница для скачивания: https://www.win-rar.com/download.html?&L=4
 
MultiPAR
Описание: Мощная программа для защиты файлов от повреждений. Одновременно работает в 32- и 64-разрядном окружении. Поддержка многопоточности, Юникода, русского языка. Использует ускорение AVX2 и вычисления GPU. Постоянно обновляется.
 
Домашняя страница: http://hp.vector.co.jp/authors/VA021385/
Страница для скачивания: http://www.vector.co.jp/soft/dl/winnt/util/se460801.html
 
ICEECC
Описание: программа во многом аналогична MultiPAR, но появилась на несколько лет раньше. Русский язык отсутствует. Не обновлялась с 2009 года. На сегодня работает примерно в 5 раз медленнее, чем MultiPAR.
 
Домашняя страница: http://www.ice-graphics.com/ICEECC/IndexR.html
Страница для скачивания: http://www.ice-graphics.com/ICEECC/DownloadR.html
 
 
32-битные коды Рида-Соломона
 
RSC32
Описание: консольная утилита для контроля целостности файлов с использованием hash-функций CRC32, CRC64, MD5, SHA1, SHA256, Tiger и blake2sp. Реализация эффективных 32-разрядных кодов Рида-Соломона позволила оперировать сотнями тысяч и миллионами блоков без драматического влияния на быстродействие. Использует FAR Manager как свой GUI
 
Страница для скачивания: https://disk.yandex.ru/d/yFtikZtmyWuQ1w
 


Схожая тема: ZIDRAV и CRC Recovery 2005

Всего записей: 462 | Зарегистр. 27-06-2007 | Отправлено: 11:35 18-07-2007 | Исправлено: persicum, 11:39 29-10-2021
nightkeeper



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
older
 

Цитата:
жаль, процесс обработки, видимо, не только у меня занимает значительное время
запуск с приоритетом idle облегчил бы ситуацию
приходится запускать через стороннюю тулзу

 
А что за "тулза"? Как вы решили вопрос с запуском в приоритете IDLE?

Всего записей: 30 | Зарегистр. 31-12-2002 | Отправлено: 04:47 16-02-2015
boi1eI

BANNED
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nightkeeper (04:47 16-02-2015)
Цитата:
вопрос с запуском в приоритете IDLE?

В реестре можно выставить приоритеты запуска.

Всего записей: 1645 | Зарегистр. 02-10-2014 | Отправлено: 08:03 16-02-2015
nightkeeper



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
boi1eI
 

Цитата:
В реестре можно выставить приоритеты запуска.

 
Ух ты! Спасибо! Ну я понял где копать, должны быть тулсы автоматизирующие управление этими параметрами в реестре для каждого процесса, чтобы каждый раз ручками не лазить туда

Всего записей: 30 | Зарегистр. 31-12-2002 | Отправлено: 04:46 17-02-2015 | Исправлено: nightkeeper, 04:47 17-02-2015
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, nightkeeper
Посмотрите start /?. Например
start /b /w /idle rsc32 -wt
Или поищите psexec.

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 08:03 17-02-2015
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Такая задача. Специфическая. Нарвался на файловый вирус. Win32.alman.1. Он вписывается в *.exe и меняет их контрольную сумму. Делает это со всеми екзешниками очень быстро, внося повреждения именно за счёт того, что меняет в каждои всего лишь пару байт. И в хвосте пару килобайт тела вируса дописывает. Хотелось бы защищать файлы на жёстком диске независимо. Скажем для каждой папки. Или для каждого файла. Там всего десятых долей процента бы хватило. Два блока меняется. А восстанавливать всё скопом - может не получиться. Поскольку некоторые екзешники претерпевают обновлнения. Или удаляются. Хотя и не проблема старые версии скачать и в то же место вернуть. чтобы алгоритм мог восстановить редкий файл, которого уже не найти в сети. Но ведь и структура каталогов может меняться. На диске 138 гиг екзешников. Это 95 тысяч файлов вышеназванного типа. Более 65% из них за час с небольшим оказались побитыми вирусом. Такое случается нечасто. Но раз в 20 лет вполне может случиться с каждым. Даже если пользуешься антивирусом.  
 
PS: Какие у этих прог интерфейсы консоли негибкие. Ужас!

Всего записей: 765 | Зарегистр. 16-08-2008 | Отправлено: 04:04 01-05-2016 | Исправлено: VidelSamogO, 21:31 11-05-2016
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Небольшое дополнение. При защите папки годаздо эффективнее вначале заархивировать вначале папку в winrar, iso или другой архив без сжатия (По крайней мере не непрерывный) и уже этот архив защитить. После чего можно его удалить. А защиту выслать на несколько облаков. В случае повреждения папки скачиваем защиту, и создаём новый архив без сжатия с повреждённой папкой. После чего восстановление пройдёт с наилучшим эффектом.

Всего записей: 765 | Зарегистр. 16-08-2008 | Отправлено: 20:08 07-06-2016 | Исправлено: VidelSamogO, 09:55 10-06-2016
cob



Кроткий лев
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Multipar попроще в использовании показался, но тоже не конфетка как RAR
 
---

----------
Говоря об интеллектуальном уровне, стоит помнить, что они пытаются оскорбить нас, называя имперцами.

Всего записей: 2941 | Зарегистр. 07-12-2001 | Отправлено: 14:40 10-06-2016
kraeved



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Хочу обсчитать произвольный файл с помощью RSC32.
Запускаю: RSC32.exe -b2p2 file.iso
Не работает.
Как быть?

Всего записей: 1000 | Зарегистр. 01-03-2003 | Отправлено: 07:19 29-11-2016
nightkeeper



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Запускаю: RSC32.exe -b2p2 file.iso  

 
Надо: rsc32 -wt -b2p2 file.iso
 
-wt - WriTe (записать коды)

Всего записей: 30 | Зарегистр. 31-12-2002 | Отправлено: 18:51 01-12-2016 | Исправлено: nightkeeper, 18:52 01-12-2016
lehachuev

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
жаль, что такая мощная софтина так и не получила хоть какой-нить гуй. может, стоило автору ее на sourceforge или гитхабе повесить...

Всего записей: 139 | Зарегистр. 17-09-2006 | Отправлено: 20:26 12-10-2017 | Исправлено: lehachuev, 20:26 12-10-2017
fonser

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Если объединить RSC32 с 7-Zip-ом или FreeArc-ом, получилась бы мега-бомба.
persicum забил на проект? 4 года почти прошло ...

Всего записей: 142 | Зарегистр. 05-06-2008 | Отправлено: 12:03 11-01-2018
savant_a



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
fonser: Если объединить RSC32 с 7-Zip-ом или FreeArc-ом, получилась бы мега-бомба.
Объемные данные для резервов в облаках жму FreeArc с шифрованием. Так получается, что та информация, которая представляет какую-никакую ценность, лучше всего пакуется именно FreeArc, в плане шифрования тоже получше будет. После этого полученный архив пакую (без сжатия) в многотомный rar-архив с информацией для восстановления (10%). Могу потом еще по многотомнику пройтись MultiPar, после - полученные "заплатки" (*.par2) пакую тем же WinRAR без сжатия и также 10% на случай повреждений.
Да, муторно, в какой-то степени - тупо, но мне так спокойней из данные. Идеальных инструментов нет, в связи с чем, приходится комбинировать ПО, методы, подходы и т.д.

----------
Выход есть!

Всего записей: 870 | Зарегистр. 23-03-2010 | Отправлено: 20:22 11-01-2018
Bulat_Ziganshin

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
текущее состояние дел в этой области таково:
 
во-первых, есть библиотеки, успешно заменяющие алгоритм rsc32:
 
1. catid/wirehair, существует уже лет 5. до 64000 входных блоков, сколько угодно выходных. LDPC, т.е. если вы добавляете N блоков ECC, то не всегда можете восстановить любые N потерянных блоков. Но вероятность того, что понадобится хотя бы один лишний блок, равна 0.1%, так что на практике этим можно пренебречь
 
2. где-то с год назад я разобрался в алгоритме persicum, и описал его здесь. Начал его реализовывать в этом репозитории, но так и не закончил  
 
3. Тот же catid реализовал схожий алгоритм, назвав его Leopard, правда не включил в реализацию операции в 32-битном поле, так что нынешняя версия ограничена src+ecc<65536. Насколько я понимаю, всё что нужно для полной 32-битной реализации - тривиальный набор операций (сложение, умножение) в GF(2^32). Насчёт этого алгоритма мне не совсем понятны его характеристики скорости и потребляемой памяти, но я и не пробовал его в деле
 
 
 
во-вторых, программы. у меня есть слегка недоделанная программа, защищающая один-единственный файл, но делающая это максимально надёжно. в отличие от multipar2/rsc32, в ней нет особых блоков, при потере которых весь ecc-файл можно выбрасывать в мусорку - вся мета-информация максимально распределена по ecc-файлу с применением того же механизма ecc-защиты. в настоящий момент она использует wirehair
 
очевидно, что эту программу не так сложно доделать, чтобы защищать архивы. но тут есть идеологические моменты - защита архива это не совсем то же самое, что защита одного-единственного файла. если про абстрактный файл мы не знаем ничего, то в архиве есть своя мета-информация (оглавление архива), потеря которого критична, и по идее вещей она должна быть защищена так же надёжно, как и мета-информация самого ecc-файла. но этого нельзя добиться без изменения формата самого архива - оглавление архива вместе с его ecc-защитой должно быть размазано по всему архиву, тогда как обычная концепция Recovery Record подразумевает, что мы просто добавляем данные в конец архива
 
 
итого, на пути к идеальной защите у нас есть следующие шаги:
- во-первых, доделать и выпустить мой однофайловый faecc
- в-вторых, по возможности доделать свою библиотеку, хотя это не must have и библиотеки catid тоже хороши  
- в третьих, добавить к freearc защиту в стиле recovery record, хотя это и не будет так надёжно, как в rar5 (в силу некоторых его особенностей), или как в rsc32/multipar2
- в четвёртых, разработать новый формат архива, где метаинформация размазана по всему архиву для обеспечения серьёзной защиты
 
тут ещё надо заметить, что сжимая данные в архив arc/7z, вы имеете все те же проблемы, что я описал - небольшая критическая для восстановления информация сосредоточена в конце архива, и последующие ECC-утилиты просто не в курсе, что эту информацию надо защищать особенно тщательно. итого, если вы теряете именно эту часть информации, и имеете ECC<100%, то весь архив можно выкидывать на свалку. в этом отношении традиционный multipar2/rsc32 более надёжен - там список файлов afair дублируется в нескольких экземплярах. или можно использовать rar5, он архивирует с размазыванием оглавления по всему архиву и его Recovery Record более защищена (ценой того, что число ECC-блоков ограничено всего несколькими десятками)
 
 
ну и наконец, самая главная проблема на пути к идеальной защите - невостребованность этой области. я могу сесть и написать это, Рошал может. но реально покупателей на это дело нет, так что могу вас уверить, что в ближайшие несколько лет ничего такого не появится. у меня в планах на разработку freearc это стоит на десятом месте, да и то под вопросом
 
 
PS: подробней насчёт размазывания метаинфы: https://encode.ru/threads/2631-Xz-format-inadequate-for-long-term-archiving?p=50780&viewfull=1#post50780

Всего записей: 3401 | Зарегистр. 13-08-2007 | Отправлено: 05:22 12-01-2018 | Исправлено: Bulat_Ziganshin, 14:24 12-01-2018
fonser

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Это я удачно зашел ...
Bulat_Ziganshin невостребованность? Уверен что едва ли не каждый человек который задумывается о долгосрочном хранении данных ... похоже, уже долгие годы ждет спасительного чуда.
Есть решения на уровне носителей информации, но тут тоже не особо радужная ситуация:
- флешки для долговременного хранения не подходят
- винты для долговременного хранения мало подходят
- "дешевые" болванки для долговременного хранения вообще не подходят
- "нормальные" болванки для долговременного хранения мало подходят
- "дорогие" болванки для долговременного хранения ... одни мало подходят, а те что подходят имеют такую цену, что ее даже производитель стесняется указывать чтоб не отпугивать клиентов сразу
- всякие "специальные" решения ... со "специальными" ценами.
 
Как видим подавляющее большинство доступных носителей информации не являются надежными.
Отсюда вывод, что требуется защита от повреждения на уровне самой хранимой информации.
 
И с этим в той или иной форме сталкивается каждый, кто хочет сохранить какую-то информацию, какой бы они ни была (фотки/музыка/фильмы/софт/...).
По большому счета, эта область востребована едва ли не в каждой фирме (от мала до велИка) и у многих "простых" людей озадачившихся этим вопросом.
 
Кстати, можно узнать как с планами на freearc? Домен лежит ...

Всего записей: 142 | Зарегистр. 05-06-2008 | Отправлено: 12:56 12-01-2018
Hakkai



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Уверен что едва ли не каждый человек который задумывается о долгосрочном хранении данных ... похоже, уже долгие годы ждет спасительного чуда.  

 
Сейчас развиваются облачные бекапы, причем можно найти вполне демократичные цены и хорошую защиту с неограниченным количеством версий файла. Даже если что-то повредилось, можно откатиться к любой версии.
 
Конечно иметь все бекапы у себя под боком и не зависеть ни от каких сервисов - куда лучше. Но как дополнительная защита считаю такие сервисы очень даже подходят.

Всего записей: 3 | Зарегистр. 23-03-2009 | Отправлено: 14:29 12-01-2018
fonser

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Hakkai предполагаю, что люди делающие бекапы - в основном более-менее консервативные.
Плюс, как доверять важные данные какому-то "облаку"? Я не против облачных технологий, просто доверять можно только крайне серьезным фирмам. А у них, опять же - цена будет тоже серьезной.
Нам ведь бекапы надо долго хранить? От года-двух до десятилетий. И если речь идет об 1-5 годах, то еще ладно - можно, но если дольше, то откуда знать что эта фирма будет вообще еще существовать?
Поэтому, да, только как дополнительная защита
 
Не буду вспоминать, как горят дата-центры ...

Всего записей: 142 | Зарегистр. 05-06-2008 | Отправлено: 14:43 12-01-2018 | Исправлено: fonser, 14:48 12-01-2018
Bulat_Ziganshin

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
О защите метаинформации:
 
К примеру, мы добавляем в архив 1% RR. Казалось бы, это означает, что это даёт нам защиту от потери любых 1% данных - например 1% самого архива если RR полностью цела, или 0.5% в теле архива плюс 0.5% в RR. Но на самом всё не так хорошо
 
Для того, чтобы определить, какие данные целы, а какие нужно восстанавливать, мы сохраняем в RR контрольные суммы (будем условно называть их CRC) секторов данных (т.е. тела архива). Если мы потеряли CRC сектора данных, то мы не знаем, жив он или мёртв, и соответственно не можем использовать его содержимое для восстановления других секторов. А поскольку у нас избыточность данных всего 1%, это означает, что если мы потеряли CRC более чем 1% секторов данных, то мы просто не имеем достаточно информации для восстановления архива. Т.е. информацию в виде ECC секторов мы можем и иметь, а вот информацию о том, к восстановлению чего их собственно применить - нет. Это ключевой момент
 
Итак, у нас есть 1% RR, в который включены CRC секторов данных. Допустим, эти метаданные мы защищаем более тщательно, чем сами данные - для них мы вычисляем и храним 10% ECC. Допустим, что защита этих метаданных организована идеально - т.е. мы эти записи с CRC + их ECC равномерно размазали по всей RR. И даже при такой идеальной организации выходит вот что - пока мы теряем меньше 10% всей RR, мы (в силу идеального размазывания) теряем меньше 10% этой метаинфы, и следовательно можем полностью её восстановить используя её ECC данные. Но как только потери превысили 10% - ECC метаинфы превращается в тыкву, и всё что у нас остаётся - это сами выжившие CRC секторов данных. Но поскольку метаданные у нас идеально размазаны - то при потере больше 10% всей RR, мы теряем и больше 10% этих CRC, т.е. у нас есть CRC для менее 90% тела архива. И теперь возвращаемся к предыдущему параграфу - поскольку мы имеем CRC для <90% секторов архива, этого недостаточно для запуска процедуры восстановления с имеющейся 1% RR
 
Таким образом, имея 1% RR, и храня в ней CRC секторов архива с 10% ECC, мы можем восстановить данные после потери 1% в самом архиве при целой RR, или при потере 0.9% в самом архиве и 0.1% в RR, но не сможем ничего восстановить как только в RR пропадёт больше 0.1%. Или например, если мы храним CRC секторов архива с 100% ECC, то не сможем ничего восстановить после потери половины всей RR. Таким образом, возникает асимметрия - потери данных в RR более чувствительны, чем потери в самом архиве, потому что метаинформация хранится только здесь, и потеряв каких-то 8 байт это метаинформации, мы уже не можем использовать для восстановления данных целый сектор архива.
 
Мы можем пойти ещё дальше и обратить внимание, что критичная метаинформация может быть и в защищаемых данных - например, оглавление в архиве, заголовки файла/фреймов в медиафайлах и т.д. В идеале, вся эта метаинформация нуждается в более тщательной защите, чем остальные данные, поэтому можно вообразить наследника faecc/multipar/..., анализирующего формат защищаемых файлов, и дающего дополнительную защиту метаинформации. Мечтать не вредно
 


 
Теперь о том, как собственно можно решить эту проблему:
 
1. Математический подход. В теории ECC сектора, про которые точно известно что они потеряны (поскольку не совпадает CRC) называют erasures, а сектора, которые потеряны, но программе о этом неизвестно (в виду отсутвия/пропажи CRC), называют errors. Наши программы традиционно восстанавливают только erasures, но можно их переделать и на работу с errors. Теоретический недостаток этого - что каждый 1% ECC позволяет восстановить 1% erasures, но только 0.5% errors. Практический - алгоритмы такого восстановления более сложны, и я лично не берусь их освоить.
 
2. Brute force подход. В RAR5 afair каждая группа защиты включает ровно 200 секторов данных. При 10% избыточности, например, это получается 20 секторов ECC. И при каждом секторе ECC сохранены CRC всех секторов данных из этой группы - т.е. при 10% избыточности данных получается 1900% избыточность метаинфы! Зато 100% гарантия, что если жив сектор ECC, то живы и CRC всех секторов данных из его группы. Ну и банально, выбранная Евгением стратегия защиты на порядок проще в реализации других альтернатив. Так что RAR5 уже давно работает, а остальное мы только обсуждаем
 
3. Теоретически-идеальный подход - для того, чтобы уравнять в значимости RR и тело архива, необходимо распределить эту метаинфу по всему архиву, а не только RR. Т.е. в самом архиве после каждого сектора данных резервировать несколько байт для записи CRC (других) секторов данных и ECC от этих CRC. Это то, что я упомянул как 4-й пункт в своём плане. Недостатки - объёмная реализация, отказ от концепции "RR просто добавляется в конце архива и от неё легко избавиться, обрезав архив", изменение формата архива - он должен предусматривать вставку посторонних данных внутрь солид-блоков.
 
 
Наконец, если вспомнить вышеупомянутую проблему с метаинформацией самого архива (т.е. его оглавлением), то логично включить её в состав этой особо защищаемой информации и точно так же размазать по всему архиву с добавлением ECC. Получится суперзащита. Опять же, zip/rar5 худо-бедно решают эту проблему куда более простыми средствами - дублированием оглавления и размазыванием по архиву одной из копий. Другим архиваторам было бы полезно начать хотя бы с этого

Всего записей: 3401 | Зарегистр. 13-08-2007 | Отправлено: 09:34 13-01-2018
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Bulat_Ziganshin
"Размазывание" имеет и один крайне негативный эффект: мы не можем отделить данные от информации для восстановления. Ввиду того, что RR более чувствительна к повреждениям - я могу к ней относится гораздо более "бережно" - иметь несколько резервных копий RR например. Тем более, что объем этой информации сравнительно незначителен.
И с MultiPAR, к примеру, это легковыполнимо.
Но как только мы теряем возможность к дифференцированию сохранности разных данных - так теряем и возможность различного подхода к резервированию.

Всего записей: 12402 | Зарегистр. 11-03-2002 | Отправлено: 10:25 13-01-2018
Bulat_Ziganshin

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
fonser
ключ к бекапу - иметь много копий, притом на разных технологиях. Одно время у меня был десяток бекапов  Даже в самой винде есть два средства (пофайловое и подисковое), плюс многотомный rar (с двумя уровнями RR), плюс копии этих бекапов на non-attached usb-дисках, плюс бекап на машину друга с помощью crash plan и им же бекап на свой сервер в германии, плюс бекап германского сервера  причём заметь - это всё бесплатно
 
смысл сетевых бекапов - просто хранение инфы ещё в одном месте, причём подальше от дома. домашний бекап этого никак не заменит, нужно хотя бы с друзьями бекапами обмениваться. доверие и прочее не так важны, если ты можешь проверять целостность этих бекапов и ес-но шифровать их. отвалился один провайдер - добавляешь нового, копируешь на него данные и живёшь дальше до следующего отвала
 


 
насчёт востребованности - опять же, можно судить по популярности этой темы, или форума multipar
 
по большому счёту, все эти темы - сжатие, шифрование, ECC - не то, чтобы не нужны, но стали частью различных комбайнов. сжатие идёт в составе форматов файлов. ECC есть в каждом носителе данных, и каждом способе передачи данных (кстати, catid работает в facebook над беспроводной связью с oculus vr). и т.д.
 
так что сам по себе ECC неинтересен. в составе же архиватора это не то, чтобы must have, а скорее вишенка на торте, завершающая образ крутого архиватора. и реализовывать её соответственно нужно тогда, когда нет претензий к базовой функциональности. а насчёт неё я в теме fa напишу
 
 
 
Добавлено:
Pasha_ZZZ
опционально такую фичу иметь можно. но по дефолту всё же программа должна заботиться о лучшей защиты метаинфы, а не суперграмотный пользователь. да и ему лучше дать опцию для регулирования уровня метазащиты, чем заставлять вручную делать ещё 10 копий метаинфы.  
 
единственное, в чём выигрывает твой подход - что пользователь легко может менять уровень метазащиты постфактум, не перегенерируя данные основной защиты.
 
 а проигрыш - опять же в том, что данные не размазаны и целевое попадание дырки на эти файлы смоет всю защиту в помойку. тогда как при размазывании метаданных по архиву потерять достаточное число секторов именно метаданных при сохранности остальной части архива - unreal

Всего записей: 3401 | Зарегистр. 13-08-2007 | Отправлено: 10:38 13-01-2018
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Bulat_Ziganshin
В общем и целом, размазывание для домохозяек. Для нормальных людей - двойное резервирование метаинфы (относительно основной инфы).

Всего записей: 12402 | Зарегистр. 11-03-2002 | Отправлено: 11:59 13-01-2018
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Компьютерный форум Ru.Board » Компьютеры » Программы » ICEECC | QuickPAR | MultiPAR | RSC32 и др.


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru