insorg

Platinum Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору Paramon111 Чего? Какой ещё файл подкачки при >2 гигах оперативки??? Срочно отключи эту каку! Подкачка существует для того, чтобы выгружать память, если её не хватает. А когда её реально много (>2ГБ) - она начинает только всё тормозить бесполезной выгрузкой... Эх... Bulat_Ziganshin Есть такой у меня вопрос по поводу сжатия. Есть некий набор из нескольких файлов по 300-400 мбайт, различающихся примерно на 10-16 мбайт, а остальные данные одинаковы (разные по наполнению портативные версии программ в ThinApp контейнерах). При этом каждый из файлов по отдельности реально жмётся до размера ~80…100 мбайт, а при наличии уникальных данных всего на 10-16 мбайт в каждом из файлов, результат должен получиться порядка 130…160 мбайт (НЕ больше). Однако, по факту я не получаю такого сжатия, поскольку максимально обрабатываемый словарь (при "-m9x -lc- -ld-") всего 256 мбайт, что заметно меньше даже самого "мелкого" файла. Немного порадовали обещания srep'а по ужиманию огромных массивов данных при мизерном расходе памяти (т.е., влепить 1-2 гигов словарь и вообще красота при расходе в ~200 мбайт), но похоже, что он не находит общее в разных файлах (не работает в solid-режиме). Совать всё в tar или прочую ерунду - глупо, ибо доступ к файлам нужен крайне быстрый без бесполезных распаковок и прочего. Как вариант - можно пожать тем же 7z со словарём 384 или 512 мбайт, но хотелось бы иметь всё-таки ARC-архивчик. Вопрос: что можно сделать в данной ситуации? И второй вопрос - планируется ли х64 версия? | Всего записей: 18509 | Зарегистр. 04-11-2010 | Отправлено: 19:44 27-07-2012 | Исправлено: insorg, 19:47 27-07-2012 |
|