Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
DOS_Acertann

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
Спасибо большое.

Всего записей: 24 | Зарегистр. 23-01-2006 | Отправлено: 07:49 19-02-2014
oxiohi

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подробнее...
 
Опять запустил, но уже с  ключом -d - прошел еще 130 страниц и завис:
 
 2-ое зависание, конец лога:
 
Что тут происходит, как исправить?
И не пойму, как избавиться от охватывающих всё тэгов more] ... /more] [/more]

Всего записей: 7 | Зарегистр. 17-02-2014 | Отправлено: 18:12 19-02-2014 | Исправлено: oxiohi, 18:21 19-02-2014
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время.
D1D1D1D

Цитата:
Правильно ли понял: последний код (scriptsplit.vbs), эффективней первого (split)? И скажется ли на его производительности дополнительное повышение значения квоты (из VBS-файла), скажем, до 20-ти мб

Нет . Код на VBS с записью сразу в файл гораздо быстрее кода на VBS, в котором данные формируются в строку.
 
oxiohi
Теги more срабатывают автоматически на размер поста.  
Я не знаю, в чем дело. Попросил фрагмент debug-лога (кстати, логи можно размещать на том же pastebin. Или любом файлообменике). Пример Wget debug log Wget standart log. Попросил, чтобы Вы попробовали версию 1.11.4.  
Кстати, посмотрите ключ "-nc" чтобы по сто раз одни и те же файлы не скачивать.

Всего записей: 1693 | Зарегистр. 07-08-2002 | Отправлено: 22:04 19-02-2014
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
 
Спасибо ещё раз! Кстати я добавил в двух местах последнего VBS-скрипта (после & Count) это — & ".htm" — и пошли htm.

Всего записей: 726 | Зарегистр. 05-04-2010 | Отправлено: 22:55 19-02-2014
oxiohi

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
Благодарю!
17 фев качал на wget 1.12.1 - GetGnuWin32 (в 2х вар с -d и без)
 и логи могу поискать (завтра) - нужны?

Всего записей: 7 | Зарегистр. 17-02-2014 | Отправлено: 23:25 19-02-2014
melboyscout



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
ТЗ:
Есть прямая ссылка на страничку скачивания DRWeb`a CureIT, CureNet - не важно. При заходе на нее происходит перенаправление на другую страничку. На этой страничке происходит выполнение скрипта - формирование индивидуального дистрибутива. После окончания какого-то периода времени, на страничке появляется ссылка на скачивание. Как мне получить эту страничку? В идеале, вытащить ссылку на скачивание и скачать этот файл.

----------
Человек по своей природе существо злое. А его добрые поступки - это лишь проявление его силы воли!

Всего записей: 1934 | Зарегистр. 16-02-2010 | Отправлено: 19:10 02-03-2014
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
melboyscout> Есть прямая ссылка
Не вижу ссылки, но судя по вашим словам про период времени, ограничившись сабжем, вероятно, что никак.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 22:11 02-03-2014 | Исправлено: ASE_DAG, 22:12 02-03-2014
Runtime_err0r



KpTeaM
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
melboyscout
Под виндой - написать скрипт на VBS  
После парсинга страницы с ссылкой можно уже передать её в wget
 
Ну, или так http://download.geo.drweb.com/pub/drweb/cureit/cureit.exe

----------
Умное Голосование

Игнор-лист

Всего записей: 2522 | Зарегистр. 03-09-2001 | Отправлено: 08:58 15-03-2014 | Исправлено: Runtime_err0r, 21:36 15-03-2014
uN533n



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Всем привет,
 
Недавно создал тему с подобным вопросом и меня направили в эту тему:
 

Цитата:
Есть задача - скачивание файла по одной и той же ссылке, допустим, каждые 10 минут. Скачиваемый файл имеет одно и то же название, нужно чтобы программа при скачивании автоматически перезаписывала старый файл, скаченный ранее, 10 минут назад, на новый.

 
Какой командой wget можно осуществить задуманное?

Всего записей: 20 | Зарегистр. 24-10-2009 | Отправлено: 21:50 17-03-2014
Runtime_err0r



KpTeaM
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
uN533n
Из мануала:

Цитата:
If a file is downloaded more than once in the same directory, Wget's behavior depends on a few options, including ‘-nc’. In certain cases, the local file will be clobbered, or overwritten, upon repeated download. In other cases it will be preserved.
 
When running Wget without ‘-N’, ‘-nc’, ‘-r’, or ‘-p’, downloading the same file in the same directory will result in the original copy of file being preserved and the second copy being named ‘file.1’. If that file is downloaded yet again, the third copy will be named ‘file.2’, and so on. (This is also the behavior with ‘-nd’, even if ‘-r’ or ‘-p’ are in effect.) When ‘-nc’ is specified, this behavior is suppressed, and Wget will refuse to download newer copies of ‘file’. Therefore, “no-clobber” is actually a misnomer in this mode—it's not clobbering that's prevented (as the numeric suffixes were already preventing clobbering), but rather the multiple version saving that's prevented.
 
When running Wget with ‘-r’ or ‘-p’, but without ‘-N’, ‘-nd’, or ‘-nc’, re-downloading a file will result in the new copy simply overwriting the old. Adding ‘-nc’ will prevent this behavior, instead causing the original version to be preserved and any newer copies on the server to be ignored.  


----------
Умное Голосование

Игнор-лист

Всего записей: 2522 | Зарегистр. 03-09-2001 | Отправлено: 23:09 20-03-2014
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
uN533n
 
К примеру wget -c -N -nd --trust-server-names --no-check-certificate <url> . Файл будет сохранён в каталоге риткуда вызвана команда. Если не нужно чтобы на экране мелькал прогресс-индикатор, то отправляем wget  в фоновый режим добавив в команду ключ -b (--backgraund):
 
wget -c -N -nd -b --trust-server-names --no-check-certificate <url>
 
оба варианта команды работают с любыми серверами, в том числе и по протоколу SSL не проверяя действительность сертификата сервера.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23942 | Зарегистр. 31-07-2002 | Отправлено: 02:54 21-03-2014
Skif_off

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
comrades, подскажите, пожалуйста, утилиту для закачки на ftp в т.ч. (в теме, ЕМНИП, упоминалась консольная, не могу найти).

Всего записей: 5787 | Зарегистр. 28-01-2008 | Отправлено: 17:12 24-03-2014
FoxBlack09

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Skif_off
может быть wput она звалась? Думаю это именно та консольная утилита что Вам нужна.

Всего записей: 490 | Зарегистр. 01-04-2009 | Отправлено: 17:31 24-03-2014
Skif_off

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
FoxBlack09
Точно, она, спасибо.

Всего записей: 5787 | Зарегистр. 28-01-2008 | Отправлено: 17:48 24-03-2014
mbku

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Здравствуйте. Я чайник, читала, пробовала, искала. Бесполезно.  
Можно ли с помощью wget (если можно то как) скачать сразу все фотографии в НАСТОЯЩЕМ РАЗМЕРЕ С например http://mercedesbenzfashionweek.ru/ru/gallery/265  
Если не wget, дайте пожалуйста ссылку на обсуждение той утилиты которая может.

Всего записей: 25 | Зарегистр. 03-08-2007 | Отправлено: 04:44 06-04-2014
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, mbku
А настоящий размер - это какой? И система какая?
Для Win cmd с использованием sed. В первой строке указываете номер галереи. Скачивает JPG 467x700.

Код:
 
set "Gallery=265"
 
set "URL=http://mercedesbenzfashionweek.ru/ru/gallery/%Gallery%"
wget "%URL%" -T 15 -O-| sed -e "s/full=/\n\0/g" | sed -n -e "/full=/{s/^full=\x22\([^\x22]*\).*/\1/p}" | wget -c -T 15 --base="%URL%" -P"Gallery%Gallery%" -i-
 

Всего записей: 1693 | Зарегистр. 07-08-2002 | Отправлено: 09:50 06-04-2014
mbku

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy БОЛЬШОЕ ВАМ СПАСИБО, получилось, сама бы никогда "не дотумкалась" и никто из моих "крутых" знакомых тоже.
 
P.S. будет время, попробую разобраться в вашем примере.

Всего записей: 25 | Зарегистр. 03-08-2007 | Отправлено: 11:10 06-04-2014
uN533n



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Спасибо за ответ, только какая команда отвечает за скачивание каждые 5, 10 или 30 мин, к примеру? Мне важно, чтобы скачивание продолжалось в автоматическом режиме каждые n-минут

Всего записей: 20 | Зарегистр. 24-10-2009 | Отправлено: 16:04 06-04-2014
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
uN533n
Дак запускай через планировщик задач каждые Н минут...

Всего записей: 8182 | Зарегистр. 11-03-2002 | Отправлено: 20:58 06-04-2014
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
uN533n
 
В UNIX - cron (встроенный в ОС планировщик), формат конфига - crontab, в WinXP/2003 и выше - консольная команда at. Эти инструменты присутствуют в ОС "из коробки", но можно использовать и внешние. На UNIX они конечно есть, но возможностей cron в 99,9% задач хватает, под Windows где планировщик более простой используются внешние программы, к примеру nnCron, Automize или аналогичные.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23942 | Зарегистр. 31-07-2002 | Отправлено: 01:18 07-04-2014 | Исправлено: Victor_VG, 01:24 07-04-2014
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru