PREVED

Advanced Member | Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору Приветствую всех. Решил не создавать отдельную тему, а запостить вопрос здесь - задача, собственно, имеет прямое отношение к локальному архивированию контента сайтов. Возникла необходимость в специфическом оффлайн-граббере страниц, в функционал которого входило бы автоматическое сохранение всех открываемых браузером веб-страниц. Т.е. программа должна мониторить браузер (Опера, FF, IE - в принципе мне любой из популярных подойдет, лишь бы поддерживался софтом) и параллельно сохранять ВСЕ открываемые в браузере страницы, которые подпадают под определенный набор правил (маска url, к примеру). Желательно, чтобы сохранялись несколько вариантов одной и той же страницы открытой в разное время (т.к. сайты динамические и могут меняться). Т.е. нужен своеобразный локальный автоматический архиватор веба. Очень хотелось бы иметь возможность фильтровать сохраняемый контент по тиму данных (к примеру, не сохранять флэш). Есть ли софт, способный полностью (или хотя бы частично) закрыть эту потребность? Как вариант, может прокси-сервер какой-нибудь посоветуете, способный в процессе работы автоматически архивировать сайты в "вечном кэше"? Заранее спасибо. |