WladW
Newbie | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору USD - Feature request - фильтр дублей Добрый день, Было бы неплохо добавить в USD фичу для фильтрации дублирующихся файлов. Частенько один и тот же файл заливается на несколько разных файлообменников, и соответственно в USD кто-то также добавит несколько ссылок (разных). Хочется: 1. Завести в USD понятие "группа одинаковых ссылок". У каждой группы какой-нибудь уникальный номер ID. Если скачалась одна из ссылок группы, то другие ставятся на паузу. Ссылки объединяются в группу либо вручную (выделить несколько ссылок и нажать кнопку "группировать"), либо автоматом, когда из буфера обмена вставляется сразу несколько ссылок (отдельной кнопкой, т.к. в буфере могут быть и ссылки на разные файлы). 2. При скачке файла сохранять его hash (MD5,CRC32) и длину, и автоматом удалять последующие скачанные файлы с такими же данными, либо переносить их в отдельную папку. Хэши желательно хранить не в списке ссылок, а в отдельной базе, чтобы они сохранялись после удаления ссылок. Спасибо ! Добавлено: USD - Feature request - ускорить загрузку базы ссылок Добрый день, Когда в списке USD (USDownloader.lst) висит несколько тысяч ссылок (~2700), то запуск программы происходит очень неспешно (несколько десяков минут). У меня для USD конечно не самый шустрый компьютер (1.4GHz, 512MB), но все-таки что-то слишком медленно. И завершение программы тоже небыстрое... Можно ли как-нибудь ускорить процесс чтения/записи файла ссылок? Файл .lst меньше мегабайта, так что дело не в скорости диска. Правильно ли я подозреваю, что при чтении файла для каждой ссылки идёт выбор плагина? Может, стоит сохранять в .lst имя предыдущего плагина, и искать другой только если старый не найден? Спасибо! |