Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Друзья, может кто-нибудь помочь скачивать страницы reddit.com целиком. Например:
 
https://www.reddit.com/r/videos/new/
 
никак не получается скачивать страницу до конца, то есть до самого низа. Страница длинная, пока скроллишь проходит минут 5, но даже браузером (Firefox) страница целиком не скачивается, только верхняя часть скачивается и все. то же самое когда wget-у задаваю -U "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:72.0) Gecko/20100101 Firefox/72.0". а нужна страница целиком.
 
Пробовал и так и сяк:
 
-e robots=off -P -rHEkp -l 1 -I /r/videos/ -U "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:72.0) Gecko/20100101 Firefox/72.0" --user=логин --password=пароль --no-iri ......
 
-e robots=off -P -r -l 2 -I /videos/ -U "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:72.0) Gecko/20100101 Firefox/72.0" --no-iri ......
 
........
 
не получется.
 
Был бы очень благодарен за помощь.

Всего записей: 77 | Зарегистр. 13-06-2011 | Отправлено: 17:24 13-02-2020 | Исправлено: kollajjik, 17:32 13-02-2020
Pasha_ZZZ



Запрет на пост
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
На реддите вроде страница целиком не грузится, ее, по мере скролла, кусками жабоскрипт подгружает

Всего записей: 12398 | Зарегистр. 11-03-2002 | Отправлено: 18:02 13-02-2020
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
На реддите вроде страница целиком не грузится, ее, по мере скролла, кусками жабоскрипт подгружает

 
то есть wget-ом никак да ? и curl-ом нельзя ??

Всего записей: 77 | Зарегистр. 13-06-2011 | Отправлено: 20:59 13-02-2020
kraeved



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Уже долгое время Wget (ныне 1.20.3) напрягает падением из-за скроллящегося названия файла. Название уезжает за левую границу экрана, на конце расширения дублируется последний символ (скажем, «…азвание.mp33333333»), прогрессбар встаёт… падение. Надоело добавлять --progress=bar:noscroll или таскать wget.ini. Баг мусолят с 2018. Может быть, тут кто-то пофиксил?

Всего записей: 1000 | Зарегистр. 01-03-2003 | Отправлено: 02:16 28-02-2020 | Исправлено: kraeved, 02:37 28-02-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kraeved

Цитата:
Может быть, тут кто-то пофиксил?

по вашей же ссылке bar buffer overflow when scrolling filename.
или с этим тоже проявляется?
 
 

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 09:22 28-02-2020
VecH



Silver Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Проблема аналогичная с этим скролом

Код:
C:\Users\VecH>wget --version
GNU Wget 1.20.3 built on mingw32.

Есть где то пересобранная с патчем описанным выше ?

Всего записей: 2447 | Зарегистр. 18-02-2003 | Отправлено: 05:28 04-03-2020
presentRU

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Нужно с определённых Youtube-каналов спарсить url всех видео вместе с названиями и сохранить их как url-файлы. Должна в итоге получиться папка, содержащая ссылки на видео, типа такого
   
Можно через Wget решить такую задачу?

Всего записей: 821 | Зарегистр. 16-10-2006 | Отправлено: 13:14 04-03-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Можно через Wget решить такую задачу?

посредством одной программы wget - нет.

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 13:24 04-03-2020
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Релиз cURL 7.69

Всего записей: 4941 | Зарегистр. 05-01-2006 | Отправлено: 19:48 05-03-2020 | Исправлено: mithridat1, 19:49 05-03-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1

Цитата:
Релиз cURL 7.69

к wget эта новость какое отношение имеет?

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 20:33 05-03-2020
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
 
1) курл это в тему утилит ЮНИКСА - он там живёт
2) его сорцы ещё ночью были, а бинарники пошли утром;
3) у меня на гитхаб уже давно закоммичена его виндовая подборка и все кто про енто место знают давно её оттуда взяли

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33210 | Зарегистр. 31-07-2002 | Отправлено: 21:27 05-03-2020 | Исправлено: Victor_VG, 21:46 05-03-2020
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los

Цитата:
к wget эта новость какое отношение имеет?  

Прямое. А вы какое отношение к этой теме имеете ?
 
Victor_VG

Цитата:
курл это в тему утилит ЮНИКСА - он там живёт  

Фактически тут топик по всем консольным загрузчикам, так что все по теме.
И когда возможностей wget не хватает обычно предлагают к использованию более продвинутый cURL, вы об этом не хуже меня знаете.

Всего записей: 4941 | Зарегистр. 05-01-2006 | Отправлено: 22:38 05-03-2020 | Исправлено: mithridat1, 23:06 05-03-2020
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
 
Знаю, ладно, пойду IntChecker.Run.lua v2.0 переделывать - я там в алгоритме ошибся, а потому пометил тестовую версию на гитхабе как тупиковое решение - чтобы люди на неё не рассчитывали. Там нужно по другому алгоритм делать и я сейчас этим и занимаюсь.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33210 | Зарегистр. 31-07-2002 | Отправлено: 23:02 05-03-2020 | Исправлено: Victor_VG, 23:03 05-03-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Кто-нибудь сталкивался с проблемами при использовании
"compession = gzip" ?
 
mithridat1

Цитата:
Прямое.

ну, если такой специалист как вы, утверждает...

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 09:57 06-03-2020 | Исправлено: los, 10:01 06-03-2020
Pasha_ZZZ



Запрет на пост
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
los
Надо как-то конкретнее выражовываться, тут вроде не клуб гадалок

Всего записей: 12398 | Зарегистр. 11-03-2002 | Отправлено: 10:01 06-03-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ
куда уж конкретнее: сталкивался или нет?
а уж если совсем разжевывать:
wget 1.20.3
header = Accept-Encoding: gzip,deflate
при "compression = none", с некоторых сайтов качается файл сжатый gzip, с auto тот же результат.
Вот и интересуюсь может и с "compression = gzip" какие-то проблемы есть.

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 10:50 06-03-2020
Pasha_ZZZ



Запрет на пост
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
los
При указании gzip или auto wget СПРАШИВАЕТ сервер, может ли он. При указании none - вообще ни о чем не спрашивает, но сервер может (хотя и не должен в таком случае) по дефолту отдавать gzip.
Надо смотреть по Content-Encoding. Хотя если указать --compression=auto - то если сервер отдаст gzip - wget его распакует сам (и при =gzip тоже).

Всего записей: 12398 | Зарегистр. 11-03-2002 | Отправлено: 11:19 06-03-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ, мы же не вчерашние
$ man wget - прочитан
 
c compression = auto
$ wget 'https://github.com/mirror/wget/raw/master/doc/wget.texi'
$ file wget.texi
wget.texi: gzip compressed data, from Unix
 
compression = auto
аналогично
 
compression = gzip
$ file wget.texi
wget.texi: TeX document text, UTF-8 Unicode text
 
возможно, проблема в Accept-Encoding, а может сам wget неправильно отрабатывает.

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 12:17 06-03-2020
Pasha_ZZZ



Запрет на пост
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
los
Сейчас взял wget 1.20.3 и ваш URL для примера. С compression=none и совсем без указания - в ответе нет Content-Encoding совсем.
С auto или gzip - Content-Encoding: gzip
 
Ну и конечно же в любом случае на выходе неупакованный текстовый файл размером 182710

Всего записей: 12398 | Зарегистр. 11-03-2002 | Отправлено: 07:39 07-03-2020
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ, спасибо, разобрался. Нужно было добавить в wgetrc кавычки для
Accept-Encoding.
header = 'Accept-Encoding: gzip,deflate'

Всего записей: 7334 | Зарегистр. 08-09-2001 | Отправлено: 13:36 07-03-2020
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru