Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
VecH
А зачем тогда изобретать велосипед?

Всего записей: 12375 | Зарегистр. 11-03-2002 | Отправлено: 07:08 07-09-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VecH
 
В спецификации формата URL есть такая возможность: Protocol://[[ User]:[ Password]@]HostName[:Port][/Path], а для TELNET она ещё проще - telnet://<user>:<password>@<host>:<port>/ - RFC 4248. Работает где угодно, но если конкретный сервер этого требует, то пароль должен быть записан открытым текстом.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33134 | Зарегистр. 31-07-2002 | Отправлено: 12:20 07-09-2019 | Исправлено: Victor_VG, 12:36 07-09-2019
Engaged Clown



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Началось тестирование GNU Wget 2
 

Цитата:
Доступен тестовый выпуск GNU Wget 2, полностью переработанного варианта программы для автоматизации рекурсивной загрузки контента GNU Wget. GNU Wget 2 спроектирован и переписан с нуля и примечателен выносом базовой функциональности web-клиента в библиотеку libwget, которая может обособленно применяться в приложениях. Утилита поставляется под лицензией GPLv3+, а библиотека под LGPLv3+.
 
Wget 2 переведён на многопоточную архитектуру, поддерживает HTTP/2, сжатие zstd, распараллеливание запросов и учёт HTTP-заголовка If-Modified-Since, что позволяет добиться значительного увеличения скорости загрузки, по сравнению с веткой Wget 1.x. Из особенностей новой версии также можно отметить поддержку протокола OCSP (Online Certificate Status Protocol), TLS 1.3, режим быстрого открытия TCP-соединений (TCP FastOpen) и возможность использования GnuTLS, WolfSSL и OpenSSL в качестве бэкендов для TLS.

 
https://www.opennet.ru/opennews/art.shtml?num=51437
 
PS Не думаю, что требуется комментировать эту новость.

----------
Опросы ru-board'а

Всего записей: 8782 | Зарегистр. 08-06-2006 | Отправлено: 13:04 07-09-2019
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Engaged Clown
if-modified-since и в первой версии поддерживается.
Кстате, вгет2 вроде как не работал в горячо любимой некрофилами хп

Всего записей: 12375 | Зарегистр. 11-03-2002 | Отправлено: 13:26 07-09-2019
data man



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Не думаю, что требуется комментировать эту новость.

Почему это? Уже два года пользуюсь.
Странно, что на сайте не написано, что wget2 поддерживает и плагины.
Наверное, потому что сторонних пока и нет, только в тестах.
 
Добавлено:
OpenNET в своём репертуаре.

Цитата:
GNU Wget2 1.99.2 - multithreaded metalink/file/website downloader
+digest +https +ssl/gnutls +ipv6 +iri +large-file +nls -ntlm -opie +psl -hsts
+iconv +idn2 +zlib +lzma +brotlidec +zstd +bzip2 +http2 +gpgme

 


----------
Любой достаточно развитый тролль неотличим от подлинно помешанного на какой-либо идее.
Кекс. Антибиотики. Ламбада.

Всего записей: 1696 | Зарегистр. 13-10-2005 | Отправлено: 13:44 07-09-2019
VecH



Silver Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Pasha_ZZZ

Цитата:
А зачем тогда изобретать велосипед?

по TFTP конечно хорошо выгружать, для этого нужен SNMP
 
Есть еще железяки которые SNMP не понимают, поэтому задача все то стоит остро

Всего записей: 2445 | Зарегистр. 18-02-2003 | Отправлено: 07:52 12-09-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VecH
cURL 7.66
я же вам назвал возможный вариант, а вчера cURL обновили. И он кстати теперь и HTTP 3.0 понимает, а телнет с рождения знал.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33134 | Зарегистр. 31-07-2002 | Отправлено: 09:49 12-09-2019 | Исправлено: Victor_VG, 10:35 12-09-2019
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
cURL 7.66
... теперь и HTTP 3.0 понимает

И, кстати, не только. Теперь cURL умеет качать несколько ссылок из списка закачек параллельно. Помнится, что когда то это была одна из распространенных претензий к консольным загрузчикам.

Цитата:
 
Добавлены параметры "-Z список URL" ("--parallel") и "--parallel-max", позволяющие организовать одновременную загрузку списка URL в несколько потоков;  
 

https://www.opennet.ru/opennews/art.shtml?num=51540
 
 

Всего записей: 4924 | Зарегистр. 05-01-2006 | Отправлено: 12:28 23-09-2019 | Исправлено: mithridat1, 12:28 23-09-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
 
Это уже скорее удобство, а поддержка протоколов - необходимость.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33134 | Зарегистр. 31-07-2002 | Отправлено: 12:45 23-09-2019
data man



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Форк wget с поддержкой Lua.
Куча примеров в репозиториях.
 
Для компиляции с Lua > 5.1 простенький патч:

Код:
--- a/src/luahooks.c
+++ b/src/luahooks.c
@@ -145,7 +145,7 @@ luahooks_init ()
if (opt.lua_filename == NULL)
return;
 
-  lua = lua_open ();
+  lua = luaL_newstate ();;
luaL_openlibs (lua);
 
/* Initialize constants. */
@@ -489,7 +489,7 @@ luahooks_lookup_host (const char *host)
return NULL;
 
/* Copy to the buffer. */
-      size_t ret_l = lua_strlen(lua, -1);
+      size_t ret_l = lua_rawlen(lua, -1);
ret_l = (ret_l <= MAX_HOST_LENGTH) ? ret_l : MAX_HOST_LENGTH;
strncpy (lookup_host_result, ret, ret_l);


----------
Любой достаточно развитый тролль неотличим от подлинно помешанного на какой-либо идее.
Кекс. Антибиотики. Ламбада.

Всего записей: 1696 | Зарегистр. 13-10-2005 | Отправлено: 22:07 15-10-2019
Smitis



Silver Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
data man

Цитата:
Форк wget с поддержкой Lua.

А скомпилированных под Вынь бинарников нет случайно?

Всего записей: 3179 | Зарегистр. 09-02-2003 | Отправлено: 13:56 19-10-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Smitis
 
На ГитХабе точно нет - 4,069 commits 3 branches 0 releases, но судя по описанию в исходниках собирается в GCC. Любопытно конечно, но у меня в более чем 99% случаев используется cURL и потому я готов подождать пока кто-то соберёт бинарник и даст отчёт об испытаниях, а не тратить на "попробовать" время.


----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33134 | Зарегистр. 31-07-2002 | Отправлено: 14:20 19-10-2019 | Исправлено: Victor_VG, 14:21 19-10-2019
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, Smitis
Вроде как что-то собралось с старым OpenSSL и LUA5.1... https://download.ru/files/6D5P9kfW  
Скрипт-пример работает, детальнее не проверял...

Всего записей: 1883 | Зарегистр. 07-08-2002 | Отправлено: 16:09 19-10-2019
Masutin



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
1.19.4. Можно получить без браузера и ошибки 503 Service Temporarily Unavailable? Ранее работало.
wget -olog http://itorrents.org/torrent/3b58cdf79686d9f67bf12841556a040269aaa525.torrent

Всего записей: 429 | Зарегистр. 23-02-2007 | Отправлено: 18:34 11-12-2019
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Masutin
DDoS защита CloudFlare, используются куки, хидеры и жабоскрипт. Так что облом.

Всего записей: 12375 | Зарегистр. 11-03-2002 | Отправлено: 18:42 11-12-2019
Masutin



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ, спасибо за ответ o CloudFlare и itorrents.org! Кроме браузера, что-то ещё справится c cookies, JS и пр.?

Всего записей: 429 | Зарегистр. 23-02-2007 | Отправлено: 20:31 13-12-2019
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ, Masutin,
здесь пишут, что вопрос решаемый
_https://superuser.com/questions/888507/problems-with-wget-to-a-cloudflare-hosted-site-503-service-unavailable/946274
 

Всего записей: 7322 | Зарегистр. 08-09-2001 | Отправлено: 09:33 19-12-2019
Masutin



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
По ссылке выше для обхода защиты от CloudFlare предлагают использовать значения для cookie:
Код:
set UA=Opera/9.80 (Windows NT 5.1) Presto/2.12.388 Version/12.18 (Core 2.12.388)
:Mozilla/5.0(Windows NT 6.1;WOW64;rv:39)Gecko/20100101 Firefox/39
set CFD=d9743f6616d2534f6b78d5b54bbea71cb1577207254
for %%f in (http://itorrents.org/torrent/3b58cdf79686d9f67bf12841556a040269aaa525.torrent) do wget %%f -d -olog -U "%UA%" --header="Accept:text/html" --header="Cookie:__cfduid=%CFD%;cf_clearance=b90851ea6106ecd815f5f3ebce1de7c69ef7a53e-1577207263-0-150" -np -r
cf_clearance - постоянно, cfduid - на час. He помогло. Получилось у одного человека c помощью Python request library вместо Wget. Итак, без браузера нельзя? Kcтати, вопрос o User agent: важна вся строка или достаточно текста короче?

Всего записей: 429 | Зарегистр. 23-02-2007 | Отправлено: 23:11 24-12-2019
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Kcтати, вопрос o User agent: важна вся строка или достаточно текста короче?

вся, если не используется wgetrc, то в кавычках.

Всего записей: 7322 | Зарегистр. 08-09-2001 | Отправлено: 23:36 24-12-2019
MENNENN



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Простите пожалуйста! Можно как-то выкачать файлы с  www.pcbway.com закрытые пользователями для скачивания, когда добавляю в корзину проект полное название в командной строке браузера отображается, а скачать не хочет пишет.
 
С этим XML-файлом не связана ни одна таблица стилей. Ниже показано дерево элементов.
      <Error><Code>AccessDenied</Code><Message>Access Denied</Message><RequestId>ла ла ла</RequestId><HostId>бла бла бла</HostId></Error>  
 

Всего записей: 49 | Зарегистр. 26-04-2009 | Отправлено: 18:07 31-12-2019
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru