Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
MINZDRAVV



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
wget -e "http_proxy=183.61.240.126:1080" "http://u.to/WfI2BQ"  

Спасибо сэнсэй! Заработало.

Всего записей: 206 | Зарегистр. 29-10-2007 | Отправлено: 09:07 23-01-2014
olemel

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Дорогие форумчане помогите разобраться с кодом,как нескачивать файлы во вложенных папках?
 
wget.exe -mpEk -cN -np -A.7z http://download.drp.su/driverpacks/  
 
Нужны только 7z-файлы лежашие в главном каталоге, в подкаталогах 7z-файлы ненужны

Всего записей: 18 | Зарегистр. 17-10-2009 | Отправлено: 00:19 01-02-2014 | Исправлено: olemel, 00:23 01-02-2014
Tilks

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
olemel
посмотри параметр -l - глубина скачивания, 0 - бесконечная вложенность ссылок
The maximum depth to which the retrieval may descend is specified with the ‘-l’ option. The default maximum depth is five layers.

Всего записей: 2395 | Зарегистр. 14-08-2005 | Отправлено: 00:44 01-02-2014
olemel

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Tilks
как я понял этот параметр -l мне совсем неподходит,как -l1 все равно скачивает файлы во вложенных папках:
 
wget.exe -l1 -mpEk -cN -np -A.7z http://download.drp.su/driverpacks/  
 
ничего непоменялось, мне вообще ненужно лезть в "глубину скачивания", все нужные мне файлы уже лежат по адресу, мне ненужны предыдущие версии этих файлов лежащие во вложенных в этот каталог папках. Ну а про -l0 я ваше молчу!!!

Всего записей: 18 | Зарегистр. 17-10-2009 | Отправлено: 01:28 01-02-2014
Skif_off

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
olemel
Ключ -i file? И нет проблем с вложенностью. Файл с текущими ссылками

Всего записей: 5716 | Зарегистр. 28-01-2008 | Отправлено: 02:12 01-02-2014
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
olemel
> как я понял, этот параметр -l мне совсем не подходит
Вы неправильно поняли.
 
> -l1 все равно скачивает файлы во вложенных папках
Вы заменяете его ключом -m.

Цитата:
-m
--mirror
    Turn on options suitable for mirroring.  This option turns on recursion and time-stamping, sets infinite recursion depth and keeps FTP directory listings.
    It is currently equivalent to -r -N -l inf --no-remove-listing.

— wget(1)
 
$ wget --recursive --level=1 --accept=7z http://download.drp.su/driverpacks/
 
Какой эффект вы ожидаете от остальных ключей я понял не вполне, поэтому будем считать, что вы их напихали в порядке метода тыка.
 
Skif_off
Какой еще file?


----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 07:26 01-02-2014 | Исправлено: ASE_DAG, 07:29 01-02-2014
olemel

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG, код предложенный вами вообще неработает
------------------------------------------------------------------------------------------------

Цитата:
$ wget --recursive --level=1 --accept=7z http://download.drp.su/driverpacks/

------------------------------------------------------------------------------------------------
d:\DriverPack Solution\DRP 13>d:\-Tools-\WGet\wget.exe --recursive --level=1 --a
ccept=7z http://download.drp.su/driverpacks/
SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc
syswgetrc = c:/progra~1/wget/etc/wgetrc
--2014-02-01 08:53:12--  http://download.drp.su/driverpacks/
Resolving download.drp.su... 46.165.199.9
Connecting to download.drp.su|46.165.199.9|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: `download.drp.su/driverpacks/index.html'
 
    [ <=>                                   ] 5 267       --.-K/s   in 0s
 
2014-02-01 08:53:12 (179 MB/s) - `download.drp.su/driverpacks/index.html' saved
[5267]
 
Loading robots.txt; please ignore errors.
--2014-02-01 08:53:12--  http://download.drp.su/robots.txt
Connecting to download.drp.su|46.165.199.9|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 25 [text/plain]
Saving to: `download.drp.su/robots.txt'
 
100%[======================================>] 25          --.-K/s   in 0s
 
2014-02-01 08:53:12 (1,79 MB/s) - `download.drp.su/robots.txt' saved [25/25]
 
Removing download.drp.su/driverpacks/index.html since it should be rejected.
 
FINISHED --2014-02-01 08:53:12--
----------------------------------------------------------------------------------------------------
Ключи которые как вы заметили я напихал невпопад, почемуто работают а код предложеный вами - нет.
Может еще кто-нибуть поможет решить эту задачу
 
 
Добавлено:
Skif_off
Я хочу автоматизировать обновление драйверпаков, неждать что какойто добрый человек даст мне файл
Цитата:
 Файл с текущими ссылками
Который у меня и так есть
 
 
Добавлено:
Чтобы использовать ключ -i список, его нужно както создать

Всего записей: 18 | Зарегистр. 17-10-2009 | Отправлено: 10:01 01-02-2014
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
olemel
Цитата:
код предложенный вами вообще неработает
нетрудно догадаться что надо добавить (судя по логу):
Цитата:
wget  -Nr -nH -nd -l1 -A.7z -erobots=off "http://download.drp.su/driverpacks/"

Всего записей: 7896 | Зарегистр. 11-03-2002 | Отправлено: 10:22 01-02-2014
olemel

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ, Спасибо камрад, все работает тип топ, скачиваеся как надо, только хотелось хранить файлы в другом каталоге нерядом с командным файлом, поможеш?
 
 
Добавлено:
Сам задал вопрос, сам и себе отвечу, сваял такой код:
------------------------------------------------------------------
set "wget=%~d0\-Tools-\WGet\wget.exe"
set "pah=%~dp0Drivers"
::Переходим в папку где лежат драйвера
cd /d %pah%
%wget% -Nr -nH -nd -l1 -A.7z -erobots=off "http://download.drp.su/driverpacks/"
-------------------------------------------------------------------
Но все равно Pasha_ZZZ молодца, спасибо за решение

Всего записей: 18 | Зарегистр. 17-10-2009 | Отправлено: 10:44 01-02-2014
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
olemel
Да, действительно. Надо мне было проверять с чистым .wgetrc, где у меня этот самый robots=off прописан.
 
> Ключи которые как вы заметили я напихал невпопад, почемуто работают а код предложеный вами - нет.  
А вот это либо невозможно, либо баг. Я проверил, с неотключенным robots ваше тоже не работает.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 10:58 01-02-2014 | Исправлено: ASE_DAG, 10:59 01-02-2014
olemel

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
>А вот это либо невозможно, либо баг
Все может быть, я незнаю, поэтому спрашивал у вас

Всего записей: 18 | Зарегистр. 17-10-2009 | Отправлено: 11:13 01-02-2014
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Приветствую!
 
wget.exe -Q10m -i file.txt -O "file001.htm"
 
Просьба продемонстрировать, как можно расширить код, чтобы по достижении квоты загрузка продолжилась бы в файл "file002.htm", "file003.htm" и т.д.?

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 14:33 17-02-2014 | Исправлено: D1D1D1D, 14:43 17-02-2014
oxiohi

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Доброго часа!
Пытаюсь скачать из=под винды описания модулей Друпала, но wget виснит время от времени. Что можно попробовать изменить, чтобы не вис?
 
for /l %i in (226,1,1025) do wget -rpEk -cN -l1 -PD:m11 -aD:m11.log --limit-rate=200k -w1 --restrict-file-names=nocontrol,windows --no-check-certificate -Ddrupal.org -I/project "https://drupal.org/project/project_module?page=%i&f[0]=&f[1]=&f[2]=&f[3]=&f[4]=sm_field_project_type%3A%5B%2A%20TO%20%2A%5D&text=&solrsort=ds_created%20desc&op=Search"
 
За неск.приемов дошел до 226 страницы, но еще ой как много осталось!
 

Всего записей: 7 | Зарегистр. 17-02-2014 | Отправлено: 19:57 17-02-2014
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время
 D1D1D1D
Легче всего использовать split

Код:
 
wget.exe -i file.txt -O - | split -b10m -d -a3 - file
rename file*. *.htm

 
oxiohi
Используйте/попробуйте `--timeout=SECONDS'. Например,  "-T 15"

Всего записей: 1657 | Зарегистр. 07-08-2002 | Отправлено: 19:58 17-02-2014 | Исправлено: Alex_Piggy, 20:02 17-02-2014
oxiohi

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Благодарю Alex_Piggy, добавил -T 15, отпишусь в любом исходе...
 
Добавлено:
Ну вот, опять завис весьма быстро, прошел до 231... Что ещё попробовать, Alex_Piggy ?

Всего записей: 7 | Зарегистр. 17-02-2014 | Отправлено: 20:14 17-02-2014
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
 
Что-то не ладится: скачал split.exe, но в каталоге файлы не появляются.  
 
Добавлено:
oxiohi
 
Может проще будет Offline Explorer'ом качнуть?

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 21:24 17-02-2014
oxiohi

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
2  D1D1D1D - триальная версия пойдет?
  Но wget пока не завис (258 стр), может одумался

Всего записей: 7 | Зарегистр. 17-02-2014 | Отправлено: 22:21 17-02-2014
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
oxiohi вроде должна подойти — до какого-то срока.

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 22:37 17-02-2014
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
D1D1D1D
Странно... Я проверял на split (GNU coreutils) версий 5.3.0 и 5.97...  
oxiohi
Запускайте с ключем "-d" ("--debug") и смотрите логи...  
Кстати, какую версию используете? Попробуйте релиз 1.15 - AFAIK была проблема, что timeout не учитывался при https. Сейчас поищу/допишу. Есть фикс от 11.07.2013 Karsten Hopp Fix timeout option when used with SSL : Previously wget didn't honor the --timeout option if the remote host did not answer SSL handshake

Всего записей: 1657 | Зарегистр. 07-08-2002 | Отправлено: 22:55 17-02-2014 | Исправлено: Alex_Piggy, 23:01 17-02-2014
oxiohi

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy - wget 1.12.1 - GetGnuWin32 // Перезапустил с -d (сейчас стр.270)

Всего записей: 7 | Зарегистр. 17-02-2014 | Отправлено: 23:08 17-02-2014
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru