Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Garryson, ага.
 
Ничего кроме «УМВР» сказать не могу.
 

$ wget --version
GNU Wget 1.16 built on linux-gnu.
...
$ wget --restrict-file-names=nocontrol,windows -r -k -l 7 -p -E -nc http://svoy-dom1.ru
Both --no-clobber and --convert-links were specified, only --convert-links will be used.
...
$ cat svoy-dom1.ru/index.html
см. под



----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 08:17 13-11-2016 | Исправлено: ASE_DAG, 08:26 13-11-2016
freewalker_padre

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Здравствуйте, коллеги!  
 
может осталась у кого версия от Alex_Piggy под Win?  
Ссылка на дропбоксе из шапки заблокирована, а в нете уже два дня копаюсь безуспешно.  
Спасибо.  
 

Всего записей: 6 | Зарегистр. 22-02-2013 | Отправлено: 11:08 29-11-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
freewalker_padre
 
GNU Wget 1.17.1.18-ffbd-dirty Ru-Board wget_ruboard.zip x86, x64 и "ванильная" сборки. ca-bundle.crt (список SSL) сертификатов в архиве на сегодня.
 


----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33357 | Зарегистр. 31-07-2002 | Отправлено: 11:47 29-11-2016
Garryson

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Знатоки, подскажите, почему wget не качает картинки? Не на всех сайтах, а на отдельных.
Вот пример: absolyt.ru
Html страницы вытаскивает, а папку images будто не видит.
Хотя она там есть...
 
Качаю с такими атрибутами:
wget --restrict-file-names=nocontrol,windows -r -l 7 -p -E -nc http://absolyt.ru/

Всего записей: 6 | Зарегистр. 08-11-2016 | Отправлено: 22:56 21-12-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Garryson, потому, что хозяева этого сайта запрещают вам их качать, а Вэ-гет, будучи послушным роботом, слушается.  Можете, впрочем, приказать ему и не слушаться:
 

Цитата:
  If you know what you are doing and really really wish to turn off the
robot exclusion, set the 'robots' variable to 'off' in your '.wgetrc'.
You can achieve the same effect from the command line using the '-e'
switch, e.g.  'wget -e robots=off URL...'.
(info "(wget) Robot Exclusion")

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 11:18 22-12-2016
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите как решить?
старый wget понимал :
for /f %%i in (BASE.txt) do set "filemask=!filemask!,????%%i.rar"
set "filemask=!filemask:~1!"
wget.exe -r -c -nd -np -A"!filemask!" www.123.ru
(в BASE.txt список )
 
новый не хочет, игнорирует.
Как заставить нов wget читать BASE.txt и по маске качать нужные архивы ?

Всего записей: 1468 | Зарегистр. 28-10-2007 | Отправлено: 11:50 23-12-2016
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
vitrzn
Во-первых, старый и новый - это какие?
Во-вторых, не BASE.txt, а BASELIST.CFG
В-третьих, в BASELIST.CFG имена баз заглавными буквами, а архивы с пополнениями обычно строчными называют.

Всего записей: 12467 | Зарегистр. 11-03-2002 | Отправлено: 12:12 23-12-2016
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ
новый - GNU Wget 1.9.1
старый - GNU Wget 1.5-b13  
всё остальное - мелкие детали, которые я сам могу ...

Всего записей: 1468 | Зарегистр. 28-10-2007 | Отправлено: 12:43 23-12-2016 | Исправлено: vitrzn, 13:49 23-12-2016
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
vitrzn
Цитата:
wget -V
придумали для того, чтобы не измерять версии килобайтами

Всего записей: 12467 | Зарегистр. 11-03-2002 | Отправлено: 12:50 23-12-2016
trion1

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Почему может не загружаться и не записываться на диск файл по команде:
wget "http://www.my-site.ru/images/Bla_bla_bla_tl.jpg"
 
Ответ сервера в cmd-окне:
Код:
 
C:\Bat>wget "http://www.my-site.ru/images/Bla_bla_bla_tl.jpg"
--2016-12-27 15:35:14--  http://www.my-site.ru/images/Bla_bla_bla_tl.jpg
Resolving www.my-site.ru (www.my-site.ru)... 00.00.000.00
Connecting to www.my-site.ru (www.my-site.ru)|00.00.000.00|:80... connec
ted.
HTTP request sent, awaiting response... 200 OK
Length: 117881
C:\Bat>

html файлы с сайта скачиваются и сохраняются.
В браузере картинка загружается без проблем, аутентификация не требуется.

Всего записей: 2000 | Зарегистр. 15-03-2006 | Отправлено: 16:05 27-12-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
trion1, да?  А у меня нет такого имени.
 
$ wget "http://www.my-site.ru/images/Bla_bla_bla_tl.jpg"
--2016-12-27 16:12:19--  http://www.my-site.ru/images/Bla_bla_bla_tl.jpg
Resolving www.my-site.ru (www.my-site.ru)... failed: Name or service not known.
wget: unable to resolve host address ‘www.my-site.ru’

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 16:12 27-12-2016
trion1

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
сайт и ip для примера приведены

Всего записей: 2000 | Зарегистр. 15-03-2006 | Отправлено: 16:26 27-12-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
trion1, то есть все в порядке?  Ну и славно.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 16:35 27-12-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
trion1
 
Браузер сохраняет картинки из своего кэша или ОЗУ т.к. они уже им скачаны для отображения страницы, а cURL/Wget могут нарваться на серверные ограничения о чём чуток ранее по времени говорили. Вы случайно это упустили из виду, а отсюда и ошибка в понимании событий.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33357 | Зарегистр. 31-07-2002 | Отправлено: 03:05 28-12-2016
trion1

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG, для проверки в браузере кеш естественно очищался.
Как ни странно, но помог ключ -t 45 - количество попыток скачать просто увеличил.
А сам сайт внутри корпоративной сетки, неожидал, что проблемы с отдачей могут возникнуть.

Всего записей: 2000 | Зарегистр. 15-03-2006 | Отправлено: 09:12 28-12-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
trion1
 
Ну, тут стоит с местными технарями поговорить - это у них сидит ошибка. По идее такого - скачивать с LAN с полусотни попыток быть не должно...

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33357 | Зарегистр. 31-07-2002 | Отправлено: 10:20 28-12-2016
trion1

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Технарям лень разбираться, тем более для них все в норме - в браузере все грузится.
 
Порывшись немного в логах wget, обнаружил, что html/txt страницы, формируясь серверными скриптами на лету, отдаются, кроме всех прочих, с параметром "Length: unspecified [text/html]" в заголовке, и загружаются полностью.
 
В тоже самое время графика, флеш, архивы и т.п., отдаются с указанием конкретного размера, при этом, воспользовавшись --debug, оказалось, что для ссылок на эти файлы wget частенько читает только header, получает длину, сообщает "connection closed", и файл на диске не создает.
Если указать опцию -O "Имя_файла.ext", то на диске создается файл нулевого размера, и опять "connection closed". А с опцией --ignore-length файл создается, но размером, видимо в один или несколько первых чанков, и опять "connection closed".
 
И понять, что wget недокачал, сразу невозможно - статус по окончании работы что для загрузившейся html`ки, что для неудачного запроса графики и т.п. какой-то одинаковый и "сумасшедший", типа -785779854.
 
По идее, если продолжать пробовать в этом направлении, надо проверять размер записанного на диск файла с размером из заголовка, полученного wget`ом, и при несовпадении, запускать wget заново с опцией докачки --continue.
xp sp3 bat wget 1.18 -
 
Будем еще пробовать WSH с каким-нибудь MSXML2.ServerXMLHTTP или ему подобным...

Всего записей: 2000 | Зарегистр. 15-03-2006 | Отправлено: 22:19 28-12-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
trion1, все эти ваши рассказы выглядят весьма занимательно.  Жаль, что вы не хотите ни с кем поделиться возможностью поучаствовать.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 23:51 28-12-2016
trion1

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Поделиться??!!
Сайт в корпоративной сети, внутри предприятия, выхода в инет напрямую нет (и времени его искать тоже), да ещё за этим следят строгие, но ленивые админы...
 
Вопрос и надежда на его решение была в том, что кто-то уже сталкивался с подобным поведением wget.
Видимо, это впервые, всё когда-то бывает впервые...
 
К общей неудаче в попытке использования wget, оказалось, что в настройках некоторых параметров отсутствует гибкость.
Так лог перезаписывается в файл опцией ‘-o logfile.txt’, для которой есть команда в файле конфигурации ‘logfile = file.txt’; для нескольких подряд загрузок есть логичная опция ‘-a logfile.txt’, когда всё дописывается в один единственный логфайл, однако, для файла конфигурации такой аналогичной команды нет. Приходится к каждой команде запуска wget добавлять одну и туже опцию, или копатся в нескольких файллогах, что бы только попытаться понять, что там wget делает при нескольких загрузках подряд.
 
Опция и команда файла конфигурации ‘--debug’(‘debug = on’) почему-то "ломают" загрузки следующие друг за другом из bat файла - без них файлы успешно загружаются, с ними только первый, и то не всегда.
 
Опция докачки ‘-с’ и количества попыток ‘-t 0’ тоже как-то не удалось использовать и совместить. Можно было бы предположить, что с ними wget будет докачивать файл, или остановится, если случиться “connection refused” или “not found”(404). Реально происходит остановка после первого же неудачного или удачного(ну это понятно) запроса.
При этом в логах даже в debug mode не видны ни докачка, ни сколько попыток wget сделал для загрузки файла, ни причины остановки, только "connection closed", то есть, если скачал - то всё OK, если не скачал, то также только запись про одну попытку, заканчивающуюся на строке: "Length:...". Единственно в логе удачной загрузки отражается progress indicator, и "File saved: Имя_файла.ext"
 
Можно предположить, что версия 1.18 какая-то неудачная (других не пробовал, да и времени уже/пока нет), или под win xp sp3 глюки у нее, или "руки кривые", хотя и старался и "с разных сторон", и "разными инструментами" "выпрямить для wget`а" , наверное, не дорос ещё или уже

Всего записей: 2000 | Зарегистр. 15-03-2006 | Отправлено: 09:58 29-12-2016
Garryson

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG, спасибо за подсказку с robots.txt.
Очень помогли.
 
Теперь новые непонятки.  
Скачиваю сайт с таким набором:
wget --restrict-file-names=nocontrol,windows -r -l 7 -p -E -nc -e robots=off http://***.ru/
Т.е. без ключа -k.
А ссылки на внутренние страницы получаются такого типа: file:///C:/***
Почему? Ведь должны же быть http://***
 
 

Всего записей: 6 | Зарегистр. 08-11-2016 | Отправлено: 23:34 29-12-2016
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru