Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1555 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
 
Ну, тогда понятно. У меня вариант правленый, да и я пользуюсь им сверх редко. Не вылезало.  
 
Добавлено:
И кстати, на старом варианте для устранения ошибки достаточно сменить префикс протокола HTTPS -> HTTP.
 
Добавлено:
log

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34257 | Зарегистр. 31-07-2002 | Отправлено: 07:32 24-04-2019
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите, пожалуйста.
 
OS: WinXP
Wget: GNU Wget 1.19.4
Url:  fanfics.me/section_fictofile_download.php?id=159029&format=fb2
 
Проблема: Если загрузить в броузер этот Url, скачивается файл obrascheniya_k_chitatelyam..zip
А если "скормить" его же (в двойных кавычках) Wget-ту, скачивается тот же самый файл, но с жутким именем - "section_fictofile_download.php@id=159029&format=fb2".
 
Вопросы (можно ли, и если "да", то как, с помощью Wget):
1. Узнать "родное" имя для таких файлов?
2. Скачать такой файл именно с "родным" именем в результате.
 
Спасибо.

Всего записей: 262 | Зарегистр. 14-02-2009 | Отправлено: 04:52 05-05-2019
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
NvvLazyTiger
1. Парсить строку хидера Content-Disposition в выводе --spider -S (если узнать имя все-таки нужно не для п.2)
2. Соответственно, использовать --content-disposition

Всего записей: 12780 | Зарегистр. 11-03-2002 | Отправлено: 05:52 05-05-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
NvvLazyTiger
 
Используем экспериментальный ключ --content-disposition который выполняет две задачи - получает листинг удалённого каталога для данного URL и разбирает отданную сервером строку Content-Disposition: attachment; filename= ..... Нужная нам команда в минимальной форме выглядит так:
 
wget --content-disposition "http://fanfics.me/section_fictofile_download.php?id=159029&format=fb2"  
 
и после её выполнения в каталоге откуда вызван Wget будет лежать файл obrascheniya_k_chitatelyam..zip размером 1292 байт.
 


----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34257 | Зарегистр. 31-07-2002 | Отправлено: 07:02 05-05-2019
HA3APET

Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
-e robots=off --tries=1 -rH -l1 -nd -A*p.exe "https://rufus.ie/ru_RU.html"
При этой команде поведение wget v1.16.3 и любых более новых разное.
Более новые версии после скачивания продолжают ещё очень долго бегать по ссылкам, можно немного сократить эту беготню указав -D.
Как добиться такого же поведения у новых версий wget при --recursive как у 1.16.3?
 

Всего записей: 320 | Зарегистр. 28-01-2009 | Отправлено: 15:48 07-06-2019 | Исправлено: HA3APET, 20:01 07-06-2019
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Доброе время, HA3APET
-D "github.com"
Больше никак. Это был патч от TumaGonx Zakkum, который устарел уже для 1.17.
Пишите на bug-wget@gnu.org ...

Всего записей: 1905 | Зарегистр. 07-08-2002 | Отправлено: 20:28 07-06-2019
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
HA3APET
wget -O - "https://rufus.ie/ru_RU.html"|findstr /i /l /c:"p.exe"|wget -F -i -

Всего записей: 12780 | Зарегистр. 11-03-2002 | Отправлено: 06:01 08-06-2019
HA3APET

Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Alex_Piggy
Спасибо за информацию.
Pasha_ZZZ
Да, можно выкрутиться с получением прямой ссылки, так иногда и делаю, спасибо.

Всего записей: 320 | Зарегистр. 28-01-2009 | Отправлено: 23:27 11-06-2019
nikmedber

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите для особо одаренных, как исправить кодировку при скачивание? Ссылка от Alex_Piggy на Wget_nightly не рабочая. Ftp filezilla server на Windows 7. Также windows 7 клиент, который пытается скачать.

Всего записей: 57 | Зарегистр. 12-03-2008 | Отправлено: 11:55 13-08-2019
skipik



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nikmedber

Цитата:
Ссылка от Alex_Piggy на Wget_nightly не рабочая

https://github.com/VictorVG/Software/blob/master/wget_ruboard.zip

Всего записей: 4822 | Зарегистр. 07-07-2006 | Отправлено: 12:52 13-08-2019
nikmedber

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
skipik

Цитата:
https://github.com/VictorVG/Software/blob/master/wget_ruboard.zip

Спасибо!  
Просто работает, сохраняет в нужной кодировке. Почему нет в шапке, или я слепой?

Всего записей: 57 | Зарегистр. 12-03-2008 | Отправлено: 04:26 14-08-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nikmedber

Цитата:
Почему нет в шапке, или я слепой?

Лежит и будет лежать пока я её с Git не потру, а лишней афиши мне на надо. Есть печальный опыт с ЯД. Хватит.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34257 | Зарегистр. 31-07-2002 | Отправлено: 05:42 14-08-2019
nikmedber

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Последний вопрос и не буду больше засорять тему.  
В корне на ftp сервере лежит папка Обмен. Сейчас для скачивания этой папки использую команду wget -r --level=0 --user=user --password=password ftp://127.0.0.1. Где эта команда запускается туда и скачивает. Wget создает папку 127.0.0.1 и туда скачивает  папку Обмен, видимо 127.0.0.1 считает корневым или нулевым уровнем. Вопрос: как скачать папку Обмен без создания папки 127.0.0.1?

Всего записей: 57 | Зарегистр. 12-03-2008 | Отправлено: 06:19 14-08-2019 | Исправлено: nikmedber, 06:42 14-08-2019
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
nikmedber
-nH

Всего записей: 12780 | Зарегистр. 11-03-2002 | Отправлено: 06:49 14-08-2019
nikmedber

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Доброго дня. Обещал не беспокоить по глупым вопросам но сам справиться не могу.
Задача: нужно скачать с ftp Filezilla server каталог со множеством вложений. На сервере и на клиенте Windows 7. Сейчас используется команда wget -r -nH --level=0 --user=user --password=password ftp://127.0.0.1 и столкнулся с двумя проблемами.
1. Начиная с 6-7 уровня вложений папок качаются обрезанные имена. Например на ftp лежит файл /1/2/3/4/5/6/Длинное имя файла.doc а wget скачивает /1/2/3/4/5/6/Длинное имя фай(или Длинное имя файла.d). причем если на сервере ftp переместить эти же файлы из 6 каталога в 1 то файлы wget загружаются корректно. Однако файлы закачиваются полностью, стоит добавить расширение и они открываются. Пробовал опции -m и --content-disposition не помогают. Можно как-то это исправить? Кто нибудь сталкивался с таким?
2. Кажется вторая проблема связана с первой. Wget качает не все файлы с глубоким уровнем вложений каталогов. Например в каталоге 1/2/3/4/5/6/7/ содержится 20 файлов а скачивает 10. В итоге с ftp в место 38Гб wget качает 35Гб. Без опции --level=0, wget качал 14.3 Гб.  
 
P.S. В место каталогов 1 2 3 4 5 6 7 каталоги с русскими именами в которых могут содержатся точки и пробелы. Если Wget не предназначен для такого, то сообщите об этом и я буду искать другое решение.

Всего записей: 57 | Зарегистр. 12-03-2008 | Отправлено: 04:32 15-08-2019 | Исправлено: nikmedber, 04:55 15-08-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nikmedber
 
Всё правильно. Ограничение ОС - MAX_PATH <= 260. Официально ограничение снято в Win10 (1607) и новее. Так же в Win32API имеются ограничения на уровень вложенности каталогов связанные с %MAX_PATH% и вгет вынуждена подчинятся требованиям ОС. Используйте альтернативы, например Far Manager 3.0 у которого не данных ограничений ОС зам счёт собственной реализации файлового ввода-вывода. Тотал Коммандер, МультиКоммандер, Dowble Commander, muCommander, Q-Dir таких средств не имеют т.к. работают через средства ОС.
 
Добавлено:
Подробнее о MAX_PATH написано статьях MSDN Naming Files, Paths, and Namespaces и там же в статье File System Functionality Comparison. Обе статьи на английском, на MSDN перевода для них нет.
 
P.S.
 
Вещи сложные, так что сразу не все будет понятно.


----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34257 | Зарегистр. 31-07-2002 | Отправлено: 04:52 15-08-2019 | Исправлено: Victor_VG, 07:39 15-08-2019
nikmedber

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Понятно /имя100символов/имя100символов/имя60символов/ это и есть 260. Раньше думал что ограничение 260 на имя каталога/файла, не учел что весь путь составляет больше 260. Теперь понятно почему winscp.com в командной строке так же не справляется а winscp.exe c графической оболочкой справляется спокойно. Простите за флуд. Спасибо Victor_VG

Всего записей: 57 | Зарегистр. 12-03-2008 | Отправлено: 05:33 15-08-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nikmedber
 
Ограничения частично сняты (на NTFS для 64-х битных ОС и  приложений) для UNICODE файловых функций с суффиксом W, для ANSI с суффиксом A оно действует. По крайней мере такой ответ дают разработчики ядра ОС.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34257 | Зарегистр. 31-07-2002 | Отправлено: 06:44 15-08-2019 | Исправлено: Victor_VG, 07:38 15-08-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Т.к. знакомые часто спрашивают "Чем отличается Wget от cURL?" думаю мой ответ кому пригодится:
 
алгоритм работы в Wget/Wput реализует стратегию:
 
"один вызов - одна команда с уникальным набором ключей и URL, выводим в файл, каталог-приёмник должен существовать до вызова Wget",  
 
а в cURL:  
 
"вызов обрабатывает одиночный или очередь из нескольких URL с разными или общим набором ключей до исчерпания входной очереди или ключа "--", по умолчанию выводим в stdout для конвейерной обработки, в файл пишем если указано в команде и при необходимости создаём каталог-приёмник".

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34257 | Зарегистр. 31-07-2002 | Отправлено: 11:06 18-08-2019 | Исправлено: Victor_VG, 11:08 18-08-2019
generator324

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Как указать директорию, куда сохранять файл при скачивании? Wget вообще такое умеет? Я не нашёл .
 
Добавлено:
Wget 1.11.4, если что.

Всего записей: 1102 | Зарегистр. 11-01-2019 | Отправлено: 12:05 28-08-2019
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru