Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: juvaforza, 17:27 01-09-2019
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
 
Мне сайты типа это не интересны. Бегло глянул и занялся делом.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 22:31 17-02-2017
Vasily_Koshkin



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG

Цитата:
Какие сложности-то?  
 
$ wget -e robots=off -m -I album -I images \  
> http://izettaro.webnode.ru/fotogaljerjeja/kolody-taro/taro-russkoe/

После выполнения этой команды проблема осталась ровно одна - в папку images с сохранением структуры каталогов, имен файлов и расширений .jpeg вместо самих изображений падают .html, содержащие ссылки на изображения в сети.
Похоже, что уважаемый Victor_VG прав - без парсера здесь не обойтись.  
PS. А вообще большое спасибо Вам за ликбез - я открыл для себя опцию '-I '

Всего записей: 1018 | Зарегистр. 07-02-2004 | Отправлено: 00:48 18-02-2017 | Исправлено: Vasily_Koshkin, 00:50 18-02-2017
Dimsokolov

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Перешёл с 1.16 на 1.19 и заметил, что некоторые имена файлов в консольном окне бегущей строкой. От чего это зависит, и можно ли это отключить?
 
Добавлено:
Victor_VG 01:44 17-02-2017
   
Цитата:
--retry-on-http-error

Может, это как раз та опция, которой мне не хватало для того, чтобы решить описываемую ранее проблему?
На курл кстати то же самое, а вот aria2 в этом деле не закрывается сколь угодно долго, если эти попыток установить до бесконечности.

Всего записей: 132 | Зарегистр. 28-03-2009 | Отправлено: 11:55 18-02-2017
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Vasily_Koshkin> в папку images с сохранением структуры каталогов, имен файлов и расширений .jpeg вместо самих изображений падают .html, содержащие ссылки на изображения в сети.
 
Да?  Пардон.  Ну раз они уже нападали, то давайте от них и оттолкнемся:
 

$ for f in izettaro.webnode.ru/images/*/*.jpeg; do
>      wget -p -H -Fi "$f" -nd
> done

 
> Victor_VG прав - без парсера здесь не обойтись.
 
Интересно, как он может быть здесь неправ, когда эта мысль соперничает по банальности например с утверждением, что без HTTP клиента здесь не обойтись?

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 12:19 18-02-2017
Vasily_Koshkin



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG

Цитата:
$ for f in izettaro.webnode.ru/images/*/*.jpeg; do  
>      wget -p -H -Fi "$f" -nd  
> done  

Да, это работает! Под Windows, конечно, немного другой синтаксис, но это уже детали. Еще раз огромное Вам спасибо за ликбез и удачи!

Всего записей: 1018 | Зарегистр. 07-02-2004 | Отправлено: 15:45 18-02-2017
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Dimsokolov
 
По описанию опции она работает просто - мы передаём вгету список кодов ошибок сервера которые требуют повтора операции до её успеха, и если они встретились, то операция повторяется бесконечно, но надо понимать что к примеру ошибка 403 Forbidden (доступ запрещён) подразумевает что доступ к объекту запрещён администратором ресурса и реконнект бесполезен, а ошибки типа 404, 429, 500, 503, 504 временные и вызваны состоянием сервера, а потому мы можем скачать файл после N попыток соединится с сервером, а значит операция может быть  продолжена.  
 
И именно этой возможности не было до версии 1.19.1, но в сборке Тима Загузина этот фрагмент алгоритма исходно отсутствует, а значит она собрана на более старых исходниках версии 1.19 где её просто не было.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 16:38 18-02-2017
Dimsokolov

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG 16:38 18-02-2017
   
Цитата:
в сборке Тима Загузина этот фрагмент алгоритма исходно отсутствует, а значит она собрана на более старых исходниках версии 1.19

Непонятно тогда, зачем её обзывать с однёркой на конце.

Всего записей: 132 | Зарегистр. 28-03-2009 | Отправлено: 16:59 18-02-2017
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Dimsokolov
 
Да тут просто - опечатка. Написал бы 1.19.0.1 или 1.19 Fix вопросов бы не возникло. Виндовые привычки.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 17:07 18-02-2017
zuniga

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Добрый вечер, скажите пожалуйста как скачать страницу если выдается - ОШИБКА: невозможно проверить сертификат sait.ru, запрошенный `/C=US/O=GeoTrust Inc./CN=GeoTrust SSL CA - G3':
  Невозможно локально проверить подлинность запрашивающего.
Чтобы небезопасно подключиться к sait.ru, используйте `--no-check-certificate'.
Невозможно установить соединение SSL.
 
Скажите пожалуйста, какую команду нужно вводить что бы можно было скачать страницу? Благодарю за ответ.

Всего записей: 6 | Зарегистр. 12-12-2012 | Отправлено: 18:04 18-02-2017
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
zuniga
 
Достаточно добавить в комстроку --no-check-certificate.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 18:57 18-02-2017
zuniga

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А подскажите пожалуйста как точно ее написать? Просто я не бум бум в этом деле )) Нашел в одном блоге вот такую команду:
 
wget -i h.txt --no-check-certificate -r -k -l 10 -p -nc https://site.ru
 
С ее помощью что то удалось скачать, правда с ошибкаими и битыми картинками, зато работает функция которая не работала при копировании через браузер, либо программами типа "сайт копиер". Именно поэтому и нужна точность команды, пробовал некоторые другие которые находил, но всегда пишет "command not found". Если не сложно, напишите пожалуйста точную. У меня на компе виндовс 10 (если конечно это имеет значение). Заранее благодарен!

Всего записей: 6 | Зарегистр. 12-12-2012 | Отправлено: 03:02 19-02-2017
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
zuniga
 
Вот так: wget --no-check-certificate -r -k -p -nc <URL> , а <URL> свой впишите. Такая команда работает даже на древней версии 1.12, но притащит всё что лежит ниже указанного <URL> (в общем случае половина инета ваша).

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 04:39 19-02-2017
zuniga

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Понятно, спасибо, копировать то копирует, но нужного результата все равно нет. Хочу скопировать  страницу авторизации mail.ru , страница скачивается, но не работает выпадающее меню, вот пример: https://obrazez.000webhostapp.com/ , все хвалят wget , говорят что все копирует как надо, но увы. А вы можете подсказать в чем проблема? Почему не работает выпадающее меню на копируемом сайте? Благодарю!

Всего записей: 6 | Зарегистр. 12-12-2012 | Отправлено: 13:28 19-02-2017
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
zuniga
Гыыыыы...... фишеры завелись

Всего записей: 8299 | Зарегистр. 11-03-2002 | Отправлено: 13:34 19-02-2017
Dimsokolov

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Dimsokolov  
 

Цитата:
 wget ............ 2>&1|findstr /i /b "Last-Modified: Length:"

 

Так отображается только поле "Length". Видать пробелы перед другими мешают. Пробовал их подставлять перед "Last-Modified", но не работает. Приходится без /b, но так лишние поля с совпадающими словами захватывает.

Всего записей: 132 | Зарегистр. 28-03-2009 | Отправлено: 22:39 20-02-2017
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ, Victor_VG
 
Спасибо большое !! мучился мучился с этими параметрами и оказалось всему виной моя версия wget. скачал с нормального места без новороченных модов и все заработало. и с рекомендованными параметрами ..... летит !!!
 
Друзья, хотелось бы вовсю ускорять работу wget и с помосщью ip адресов разогнаться каk феррари. пишу вполне рабочий левый ip адрес и ничего не происходит, вообще не качает, в логе пишет - "failed: Bad file descriptor."
 
пишу так:
 
c:\programs\wget\wget.exe
-U "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:49.0) Gecko/20100101 Firefox/49.0"
-e robots=off
-c
-nd
-b
--no-iri
-w 30
--random-wait
--bind-address=46.23.66.106
-P d:\downloads
-i d:\list-url.txt
-nv -a d:\wget_log.txt
 
скачал аддон firefox, взял оттуда ip адреса чтоб точно знать что адреса рабочие, а не случайные китая-глюканутые прокси.
 
может кто-нибудь поможет с этим вопросом ?? был бы очень благодарен !!
 

Всего записей: 68 | Зарегистр. 13-06-2011 | Отправлено: 00:24 22-02-2017 | Исправлено: kollajjik, 01:04 22-02-2017
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik
 
Уберите из команды --bind-address=АДРЕС
 
Параметр "--bind-address" применим только если локальная машина использует несколько IP и предписывает Wget работать на соединении использующем указанный IP:
 
Wget мануал, глава 2.5, Download options:

Цитата:
When making client TCP/IP connections, bind to ADDRESS on the local machine.
ADDRESS may be specified as a hostname or IP address. This option can be useful
if your machine is bound to multiple IPs.

а у вас получается что вы говорите Wget "Работать на соединении использующем IP ххх.ххх.ххх.ххх", в то время как сам этот IP находится в пределах бесконечности и что главное вне локальной машины, а т.к. Wget не может установить соединение с недоступным сетевым адаптером то и выводит сообщение об ошибке.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 01:47 22-02-2017
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
 
то есть невозможно использовать прокси никак да в wget ?? просто материала для скачивания слишком много и еще с задержками по 30 секунд слишком слишком долго выходит, придется качать месяцами.
никак не прикидываться да в wget ??

Всего записей: 68 | Зарегистр. 13-06-2011 | Отправлено: 02:09 22-02-2017
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik
 
Можно, через WGET:
 
Основные настройки, которые необходимо писать каждый раз, можно указать в конфигурационном файле программы. Для этого зайдите в рабочую директорию Wget, найдите там файл sample.wgetrc, переименуйте его в .wgetrc и редакторе пропишите необходимые конфигурационные параметры.
 
user-agent = "Mozilla/5.0"
tries = 5 количество попыток скачать
wait = 0 не делать паузы
continue = on нужно докачивать
dir_prefix = ~/Downloads/ куда складывать скачаное
use_proxy=on - использовать прокси
http_proxy - характеристики вашего прокси-сервера.
 
Как под Windows заставить WGET читать настройки из wgetrc файла:
 
  • Задать переменную окружения WGETRC, указав в ней полный путь к файлу.
  • Задать переменную HOME, в которой указать путь к домашней папке пользователя (c:\Documents and settings\jonh). Тогда wget будет искать файл "wgetrc" в этой папке.
  • Кроме этого можно создать файл wget.ini в той же папке, где находится wget.exe, и задать там дополнительные параметры командной строки wget.

    ----------
    Жив курилка! (Р. Ролан, "Кола Брюньон")

  • Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 02:42 22-02-2017 | Исправлено: Victor_VG, 02:45 22-02-2017
    Dimsokolov

    Junior Member
    Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
    http://naitimp3.ru/search/?query=Queen%20Princes%20Of%20The%20Universe
     
    Можно ли как-то скачивать по ссылкам "скачать mp3"? С --referer не работает.

    Всего записей: 132 | Зарегистр. 28-03-2009 | Отправлено: 15:01 23-02-2017
    Открыть новую тему     Написать ответ в эту тему

    Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

    Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

    Имя:
    Пароль:
    Сообщение

    Для вставки имени, кликните на нем.

    Опции сообщенияДобавить свою подпись
    Подписаться на получение ответов по e-mail
    Добавить тему в личные закладки
    Разрешить смайлики?
    Запретить коды


    Реклама на форуме Ru.Board.

    Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
    Modified by Ru.Board
    © Ru.Board 2000-2018

    BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

    Рейтинг.ru