Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
kenny5705



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Видимо все же придется залезть в дебри стандарта HTTP, и разобраться что да как происходит. Эх... Думал проще будет
Практик по натуре я
 
Alex_Piggy
Спасибо за разъяснения. Не против, если я распишу некоторые непонятки.

Цитата:
Цитата:
Цитата: "-f"(в случае ошибок сервера не сохранять ответ)   http://curl.haxx.se/docs/manpage.html#-f  Я правильно понял, что в некоторых случаях сервер вместо нужного файла может выдавать html-страницу, и чтобы cURL не сохранял ее нужно использовать это ключ.
 
При любом отказе сервера содержимое отказа сохранится в файл. Те же самые 416, 404 или 503.  

Сохранять или не сохранять? Вот в чем вопрос
А если серьезно, то из справки понял, что, используя этот ключ, если файл не может быть передан - cURL возвратит код 22, и ничего загружать не будет. Так?
 

Цитата:
Цитата:
Цитата: -L"(следовать перенаправлениям) "   Это, по-моему, в моем случае не применимо.
 
Хорошо. Файлам с содержанием "301 Moved Permanently" тогда удивляться не следует.  

Ну хорошо, добавим, думаю хуже не будет
 

Цитата:
Цитата:
Цитата: "-R"(получать время файла с сервера)   http://curl.haxx.se/docs/manpage.html#-R  Он же и так вроде получает. С ключом и без ключа - одно и то же.
 
Получает, но не устанавливает. Без "-R" сложно быть уверенным, что "-z" отработает правильно.  

Еще одна штука, о которой мне неизвестно. Timestamp...
Ладно, поверим на слово
Его ведь нужно добавить во все команды cURL? Даже в те что без "-z", имеется ввиду.
 

Цитата:
Цитата:
Возможно еще добавить "-X GET", но не уверен.   http://curl.haxx.se/docs/manpage.html#-X  А cURL ведь и так по-этому методу передает, по умолчанию. Другое дело если попробовать HEAD (вместе с "-I"), POST, PUT. Надо будет как-нибудь испробовать эти варианты.
 
Он по HEAD получает только заголовки. А по PUT попробует файл отправить.  
http://en.wikipedia.org/wiki/Hypertext_Transfer_Protocol#Request_methods

Ага, PUT был лишним. HEAD тоже, по-моему, не к чему в данном случае. Значит мне нужен GET, т.к. именно он в теле передает запрашиваемый файл.
 

Цитата:
Пожалуйста, поймите 416 - это не всегда ошибка. При докачке файла неизвестного размера посылается запрос на получение остатка файла - то самое "Range: bytes=50352408-". И сервер может вернуть или 206 (частичная закачка) или 416 (диапазон не верен. Это означает, что файл скачан полностью).
Когда Вы посылаете "-X HEAD" или "-I" сервер правильно возвращает 200, но не передает файл (и поэтому 200, а не 206).
 

Хорошо, надеюсь эксперименты покажут тоже самое.  
 
Благодарю, что помогаете мне.

Всего записей: 468 | Зарегистр. 15-01-2009 | Отправлено: 15:08 18-03-2013
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, kenny5705

Цитата:
Сохранять или не сохранять? Вот в чем вопрос   А если серьезно, то из справки понял, что, используя этот ключ, если файл не может быть передан - cURL возвратит код 22, и ничего загружать не будет. Так?

Да. Прошу прощения, запутал.
Попробуйте запустить команду "curl -O http://narod.yandex.ru/abracadabra" с и без ключа "-f"
 

Цитата:
Еще одна штука, о которой мне неизвестно. Timestamp...  Ладно, поверим на слово   Его ведь нужно добавить во все команды cURL? Даже в те что без "-z", имеется ввиду.

Да. Timestamp - это просто время модификации файла, указанное на сервере. То, по чему Вы можете посмотреть - изменился файл или нет. Если ключ "-R" не указан, то временем модификации будет время окончания закачки. Ключ "-z" сравнивает время модификации имеющегося файла с временем файла на сервере. Если на сервере файл новее - перекачает.
 

Цитата:
curl: (33) HTTP server doesn't seem to support byte ranges. Cannot resume.

Кстати, может просто тот сервер не поддерживает докачку?

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 18:32 18-03-2013
kenny5705



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy

Цитата:
Да. Прошу прощения, запутал.
Попробуйте запустить команду "curl -O http://narod.yandex.ru/abracadabra" с и без ключа "-f"  

Ага.  
Без ключика "-f":
Загружается html-страница с ошибкой 404 (ту которую обычно показывает яндекс).
Код возврата 0.
Результат следующий
Или с ключиком "-f":
Файл не загружается, если 404. Код возврата 22.
Результат следующий
Отлично, с этим разобрались
 

Цитата:
Если ключ "-R" не указан, то временем модификации будет время окончания закачки.

Теперь понятно, откуда у меня такие даты взялись у скачанных файлов. Действительно, после запуска curl с ключом "-R" дата устанавливается той, которая указана на сервере в поле Last-Modified.
 

Цитата:
Кстати, может просто тот сервер не поддерживает докачку?

Вполне возможно. Это ведь можно как-то узнать из ответа сервера?
И возникает вопрос, если сервер не поддерживает закачку, будет ли загружен недокачанный файл? Хотя, думаю, это не трудно проверить. Недокачанный файл в этом случае (при ошибке 33) недокачивается. Жаль. Или докачивается все же..
 
Если cURL докачивает файлы, то ниже мои заблуждения
#

Всего записей: 468 | Зарегистр. 15-01-2009 | Отправлено: 22:20 18-03-2013 | Исправлено: kenny5705, 17:33 19-03-2013
kenny5705



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А есть такой ключик в cURL, с которым cURL отправлял только запрос серверу и получал от него ответ, но при этом запрошенный файл не загружал бы?

Всего записей: 468 | Зарегистр. 15-01-2009 | Отправлено: 15:25 19-03-2013 | Исправлено: kenny5705, 17:27 19-03-2013
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, kenny5705

Цитата:
А есть такой ключик в cURL, с которым cURL отправлял только запрос серверу и получал от него ответ, но при этом запрошенный файл не загружал бы?

??? Вы же его использовали? "-I"
 
Попробуйте - wget_test_kenny5705.zip . Убрал из пред-запроса HEAD поле "Range". Теперь не должно быть ложных 416 (что файл скачивался не полностью с "-cN").  Но не могу постичь все последствия. В смысле, ничего не должно быть, но зачем-то же оно было? Ни с кем не консультировался, собираю информацию для багрепорта. Попробуйте...
 
Насчет curl + Errorcode 33 - Вы там пробел лишний в URL добавили. И ошибка - "EQL" нужно использовать "EQU" а еще лучше "=="
Адобовский сервер возвращает 200 вместо 416. И не указывает поле "Content-Range", по которому ориентируется CURL. В смысле, файл-то докачивается нормально но полностью скачанный будет переписыватся заново. Решение - или 1) через libcurl (боюсь, что не потяну) или 2) через "-I"+cmd получать размер/дату/возможность докачки и указывать, что с ним делать.  

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 17:21 19-03-2013 | Исправлено: Alex_Piggy, 17:21 19-03-2013
kenny5705



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy

Цитата:
Вы же его использовали? "-I"  

Все так просто оказывается
Но уже решил отказаться от этой идеи. Походу cURL все же докачивает файлы, даже то что 33 errorcode выдают.
 

Цитата:
Попробуйте - wget_test_kenny5705.zip . Убрал из пред-запроса HEAD поле "Range". Теперь не должно быть ложных 416 (что файл скачивался не полностью с "-cN").  Но не могу постичь все последствия. В смысле, ничего не должно быть, но зачем-то же оно было? Ни с кем не консультировался, собираю информацию для багрепорта. Попробуйте...  

Эх.. Wget... А я уж cURL привык (уж очень понравился мне его ProgressBar, и ничего лишнего ), и вроде как настроил уже все.  
Пару сек и оформлю окончательный вариант.
 

Цитата:
Насчет curl + Errorcode 33 - Вы там пробел лишний в URL добавили. И ошибка - "EQL" нужно использовать "EQU" а еще лучше "=="  

Хорошо, будем знать В консоль не вбивал, не пригодилось, думал сработает.
 

Цитата:
Адобовский сервер возвращает 200 вместо 416. И не указывает поле "Content-Range", по которому ориентируется CURL. В смысле, файл-то докачивается нормально но полностью скачанный будет переписыватся заново.  

Несколько раз проверил, докачивает все же. А чтоб эта ошибка не маячила использовал "--no-show-error". Странно конечно, ну да ладно.
 

Цитата:
Решение - или 1) через libcurl (боюсь, что не потяну) или  

Та же фигня Решил обойтись консольными утилитками, хотя в идеале лучше бы было какую-нибудь библиотеку использовать, ту же WinAPI (wininet).
 

Цитата:
через "-I"+cmd получать размер/дату/возможность докачки и указывать, что с ним делать.  

Тоже так думал, но вроде не потребуется.
 
Добавлено:
Как-то так у меня выглядит конечный вариант (вдруг кому пригодится):
IF EXIST %filename% ( curl.exe -# -f -L -R --no-show-error --create-dirs --stderr - -w "You downloaded %{size_download} bytes in the %{time_total} second.\nAverage speed is %{speed_download} b/s.\n" -D %log_response% -z %filename% %link% -o %filename% )
curl.exe -# -f -L -R --no-show-error --create-dirs --stderr - -w "You downloaded %{size_download} bytes in the %{time_total} second.\nAverage speed is %{speed_download} b/s.\n" -D %log_response% -C - %link% -o %filename%

Если запускать из cmd/bat-скрипта нужно добавить еще один знак "%" в конструкцию ключа "-w", например так: %%{size_download}.
Используемые ключи:
-# - показывать только процесс загрузки.
-f - не загружать ошибочный файл (html-страницу с ошибкой 404) в случае не возможности его загрузить.
-L - в случае если файл перемещен, и у сервера есть об этом информация - файл будет загружен по новому адресу.
-R - устанавливать время модификации файла, то которое стоит у файла на сервере (а не время загрузки файла)
--no-show-error - не показывать ошибки.
--create-dirs - создавать каталоги для загруженных файлов если требуется (работает в связке с "-o").
--stderr - - выводить ошибки в стандартный поток вывода (например, когда все результаты команды перенаправляются в файл).
-w "You downloaded %{size_download} bytes in the %{time_total} second.\nAverage speed is %{speed_download} b/s.\n" - сообщение после загрузки файла (для удобства).
-D %log_response% - записать ответ(response) сервера в файл (файл будет перезаписан).
-z %filename% - проверить дату модификации файла на сервере с этим файлом, если файл на сервере новее - файл будет перезакачан.
%link% - ссылка на файл
-o %filename% - имя выходного файла

Всего записей: 468 | Зарегистр. 15-01-2009 | Отправлено: 17:49 19-03-2013
kenny5705



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
По поводу дополнения вышеописанных команд проверкой по размеру файла.
Не все идеально, но идеи уже есть как исправить, жаль времени нету
Хотя многие файлы удалось отсечь этой добавленной проверкой, но часть все же упорно выдавала 416 Requested Range Not Satisfiable с полем Content-Length: 362, которое было не равно текущему размеру файла, при этом через несколько повторов (циклов) без удаления текущего файла, сервер все же выдавал нужный response с правильным Content-Length, и собственно зацикливание прекращалось и закачка переходила к след. файлу или происходила докачка файла, если он был не докачан.
 
Файл:
Windows6.1-KB2761217-x86.msu - 2177332 байт
http://download.microsoft.com/download/A/1/D/A1D7BC1D-DFCF-4BFA-A1E0-D5EEFB865987/Windows6.1-KB2761217-x86.msu  
 
Ответ с некорректным Content-Length:
Подробнее...
 
"Нужный" ответ с корректным Content-Length (был получен со 2 попытки):
Подробнее...
 
Количество попыток пока не знаю отчего зависит, random походу.
У меня получилось 314 попыток (должно быть 235) для 235 файлов/ссылок.
Файлы были заранее полностью загружены.

Всего записей: 468 | Зарегистр. 15-01-2009 | Отправлено: 22:24 20-03-2013 | Исправлено: kenny5705, 22:25 20-03-2013
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый вечер, kenny5705
Прошу прощения, не обновил перед отправкой.
Я не знаю, с чем связан этот глюк серверов Microsoft. Они на одинаковые запросы отвечают по-разному. Причем ответ в норме (время, подпись) кроме размера. И тоже 200 вместо 416...

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 23:09 20-03-2013
fscpsd



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Здравствуйте!
Такая проблемы: wget для windows пишет кракозябрами. Как сделать, чтобы он или уж не пытался писать по-русски, или уж если писал, то разборчиво.
 
Wget вот этот:
http://gnuwin32.sourceforge.net/packages/wget.htm

Всего записей: 1823 | Зарегистр. 16-09-2010 | Отправлено: 08:28 14-05-2013
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
fscpsd
 
Достаточно просто - локаль добавить. В теме была сборка 1.14, а в ней были нужные файлы интерфейса. Я пользуюсь ей и она у меня если ругается, то на великом и могучем. Это первое, и второе - выставите правильно шрифт консоли. Используемый по умолчанию моноширинный шрифт может так себя вести и потому я у себя пользуюсь Lucida Console поскольку это UNICODE шрифт и он поддерживает вывод символов кириллицы. Не все шрифты поддерживаю весь набор символов UNICODE. Просто посмотрите есть ли в данном шрифте кириллица с помощью приложения Char Map - встроенной в ОС программы подбора символов и проверки шрифтов.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33205 | Зарегистр. 31-07-2002 | Отправлено: 08:55 14-05-2013
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, fscpsd
Пожалуйста уточните, что значит "пишет кроказябрами" - "неправильный вывод в консоль" или "неправильно сохраняет файлы с русскими именами".  
Если первое - то, как и советует ув. Victor_VG, попробуйте разобратся с консолью. ДОБАВЛЕНО: Или просто удалите/переименуйте папку "share/locale"
Если второе - то или обычный wget с ключем "--restrict-file-names=ascii" или попробуйте  wget_nightly_wi.zip с ключем "--local-filesystem-encoding=CP1251" (Или какая локаль используется в Вашей Windows?).  Пример

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 09:11 14-05-2013 | Исправлено: Alex_Piggy, 17:12 14-05-2013
sikemo

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
может, эту инфу в шапку добавьте.

Всего записей: 1326 | Зарегистр. 27-11-2008 | Отправлено: 21:18 14-05-2013
Inoz2000



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
wget.exe https://easylist-downloads.adblockplus.org/ruadlist+easylist.txt
пишет Unsupported scheme.
Научите, как скачать.

Всего записей: 4904 | Зарегистр. 23-04-2009 | Отправлено: 00:27 07-06-2013
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время
 Inoz2000
Какой wget? Версия, где брали, система?  
Нет, не так. Где Вы нашли wget < 1.11.4 собранный без поддержки SSL (1.12 уже сказал бы, что SSL отсутствует)? Возьмите любую версию из шапки.
У меня нормально скачивается такой командой:
wget.exe --no-check-certificate "https://easylist-downloads.adblockplus.org/ruadlist+easylist.txt"
 
sikemo

Цитата:
может, эту инфу в шапку добавьте.

Что именно добавить в шапку? По поводу шрифтов (что есть весьма странной проблемой) или русской кодировки в именах (которую я когда-то просил протестировать Мало информации о надежности/применимости этого патча.)?

Всего записей: 1891 | Зарегистр. 07-08-2002 | Отправлено: 00:44 07-06-2013 | Исправлено: Alex_Piggy, 00:47 07-06-2013
Inoz2000



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
OK. Скачал по ссылке 4). Спасибо.
а было 1.11.4

Всего записей: 4904 | Зарегистр. 23-04-2009 | Отправлено: 01:45 07-06-2013
addhaloka



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Сделал себе батники с использованием сабжа, для обновления альфа-версий Firefox, но в связи с этим вопрос возник: можно ли как-нибудь получать дату с фтп Mozilla и сравнивать с сегодняшним числом (полагаю, тут переменную %date% можно использовать), ну и если дата за пред. день (сборки обновляются где-то около 18.00 по MSK), то не скачивать, а выходить из батника.
Ключ -N,  --timestamping - не подходит, т. к. скачанные дистрибутивы удаляются после установки. А больше ничего на эту тему не нашёл (слышал, что FDM так умеет, но не хочется минималистский wget на монстрообразную программу менять ).

Всего записей: 7432 | Зарегистр. 13-11-2010 | Отправлено: 18:30 08-06-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
> можно ли как-нибудь получать дату с фтп ... и сравнивать с сегодняшним числом, ну и если дата за пред. день, то не скачивать, а выходить из батника
Можно, конечно. Только причем здесь Вэ-гет? Вы спрашиваете, как получить дату файла, не загружая его полностью? Ключ --server-response и --spider, но для FTP будет слишком много лишней информации. Для HTTP ответ гораздо лаконичнее.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 18:43 08-06-2013 | Исправлено: ASE_DAG, 19:00 08-06-2013
addhaloka



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
Тут вся проблема, что вывод такой:
Код:
--2013-06-08 18:42:19--

:sad:
Если бы совпадало с переменной %date%, то можно было бы так сделать: Подробнее...
В этой теме спрошу, если тут не подскажут. Вроде бы в батнике можно выборку по числу сделать.

Всего записей: 7432 | Зарегистр. 13-11-2010 | Отправлено: 19:09 08-06-2013 | Исправлено: addhaloka, 19:11 08-06-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
addhaloka
> --2013-06-08 18:42:19--
Это текущее время. Я сперва полагал, что как раз с ним можно сравнивать, но потом убедился (см. под more), что в листинге-то сабж пишет в human-readable виде.
 
> Если бы совпадало с переменной %date%
Я не знаю, как выглядит переменная %date%, и вообще не вижу причин ее использовать. Даже если на нормальный язык вы переходить по каким-то соображениям не хотите, то уж GNU Coreutils (где есть date) поставить никаких проблем нет.
 
Ну а по-хорошему, конечно, с FTP удобно работать при помощи lftp:
 
$ lftp -e 'cls --date --time-style=%F *x86_64.installer.exe; exit' ftp://ftp.mozilla.org/pub/mozilla.org/firefox/nightly/latest-trunk/
cd ok, cwd=/pub/mozilla.org/firefox/nightly/latest-trunk
2013-06-08 firefox-24.0a1.en-US.win64-x86_64.installer.exe

 
тут вам, как видите, и glob-подстановки, и произвольный формат даты, а если надо, то и прочее, и прочее.
 
P. S. И да, тут все в порядке. «cd ok...» — это на STDERR, и только то, что надо — на STDOUT.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 19:21 08-06-2013 | Исправлено: ASE_DAG, 19:26 08-06-2013
addhaloka



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG 19:21 08-06-2013
Цитата:
Я не знаю, как выглядит переменная %date%, и вообще не вижу причин ее использовать. Даже если на нормальный язык вы переходить по каким-то соображениям не хотите, то уж GNU Coreutils поставить никаких проблем нет.  

Так выглядит:
   
 
Что значит «нормальный язык»? У меня вопрос по батнику для Windows, lftp вроде вообще не при делах.

Всего записей: 7432 | Зарегистр. 13-11-2010 | Отправлено: 19:30 08-06-2013
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru