Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Привет!
 
Всё неудается составить кодик авторизации на VK, убедительно прошу подсказать.

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 13:46 21-04-2016
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VictorVG4
 

Цитата:
Я там светится не жажду, а то прилетит не по адресу.

 
отказался, не использую, никаких подстав. попробовал прооформить в том же духе свой портабельный Palemoon, ничего не вышло, видимо пока не хватает знаний и практики для слишком таких сложных действий. ну да ладно, оставлю на более опытный период. В любом случае Спасибо зо отклик и поддержку !!
 
-------
 
Друзья, какой из этих значений быстрее отработается wget-ом ?:
 
D24.media.tumblr.com,25.media.tumblr.com,31.media.tumblr.com,33.media.tumblr.com,36.media.tumblr.com,37.media.tumblr.com,
38.media.tumblr.com,40.media.tumblr.com,41.media.tumblr.com,45.media.tumblr.com,49.media.tumblr.com
 
или
 
Dmedia.tumblr.com
 
в первом случае значения точные, НО их много.
 
во втором случае значение всего одно, НО обобщенное.
 
может кто разбирается в логике/принципе работы wget и подскажет какой из этих 2-ух лучше ставить ?? в моем случае конечный результат один и тот же (нужные файлы скачиваются), интересует именно скорость.
 
P.S. Заранее Спасибо !!
 

Всего записей: 67 | Зарегистр. 13-06-2011 | Отправлено: 06:14 22-04-2016 | Исправлено: kollajjik, 08:24 22-04-2016
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
kollajjik
Отличия будут только если другие числовые поддомены существуют. Соответственно, и файлов будет другое кол-во.

Всего записей: 8125 | Зарегистр. 11-03-2002 | Отправлено: 07:35 22-04-2016
VictorVG4



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik
 
Первый вариант с указанием точного доменного имени, второй общего. И сказать в каком случае какой сработает быстрее сложно - в любом случае свою роль сыграет время отклика DNS, а во втором и время поиска данных в файловой системе (ФС) домена. Очень многое будет зависеть от мгновенной нагрузки системы серверов, потому хотя первый вариант и кажется более быстрым - исключается задача поиска хоста хранящего данные, в конкретном случае он может дать ответ с большей чем второй задержкой. Да и обычно время поиска в ФС значительно меньше чем задержка ответа удалённой системы. Так что я считаю что оба равноправны.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 1248 | Зарегистр. 26-03-2016 | Отправлено: 07:38 22-04-2016
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо. из всего можно делать вывод что оба варианта полностью равны, поскольку другие числовые поддомены кроме них не существуют. немножко даже стесняюсь за дотошность, просто с этой задачей связано закачка несколько миллионов файлов, а это огромные нагрузки для моего старенького компа, поэтому .....
 
а на саму работу (скорость работы) wget эти варианты никак не влияют ?? скажем, чтение нескольких значений вместо одного требуют от него больше нагрузки - соответственно он замедляется - соответственно скачка замедляется (?)

Всего записей: 67 | Зарегистр. 13-06-2011 | Отправлено: 08:24 22-04-2016 | Исправлено: kollajjik, 08:26 22-04-2016
VictorVG4



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik
 
Нет, время которое потратит на чтение команд локальная машина несоизмеримо меньше чем время ответа удалённой системы, раз, и второе скорость скачивания в основном  определяется нагрузкой удалённой системы и сети, а для cURL, Wget им вообще можно пренебречь.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 1248 | Зарегистр. 26-03-2016 | Отправлено: 08:33 22-04-2016 | Исправлено: VictorVG4, 08:35 22-04-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik> Написал и перепробовал все варианты
 
Вы, может быть, наконец покажете, что&#769; вы делаете вместо того, чтоб причитать, что ничего не работает.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 12:27 22-04-2016
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Пописываю вещицу для скачивания альбомов с VK и задался вопросом: при скачивании всех страниц в один файл, возможно ли, что wget будет пропускать какие-то ссылки на страницы из файла?
 
Добавлено:
Спрашиваю, потому что, например, OE от метапродуктс, несмотря на стабильное соединение, пропускает очень много файлов (приходится докачивать иногда по 6-7 раз).

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 18:43 23-04-2016 | Исправлено: D1D1D1D, 20:31 23-04-2016
VictorVG4



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D
 
Да, такая не нулевая вероятность всегда существует если сервер отвечает сообщением об ошибке.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 1248 | Зарегистр. 26-03-2016 | Отправлено: 20:05 23-04-2016
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VictorVG4
 
В качестве профилактики, поможет ли в этом случае задание пауз между загрузками (если таковые поддерживаются) — а то wget слишком активно обращается к серверу?

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 20:29 23-04-2016
VictorVG4



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D
 
А смысл? Если файла нет или доступ запрещён всё одно получим 403-ю или 404-ю ошибки и перейдём к следующей операции. Тайм-аут может потребоваться только чтобы сервер не забанил нас за слишком частые обращения. Других причин его введения я сейчас не вижу.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 1248 | Зарегистр. 26-03-2016 | Отправлено: 20:35 23-04-2016
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А-а, ясно. Спасибо.

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 21:08 23-04-2016
Valery_Sh



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D
Тяну обновы для винды (с мелкомягких) с такими опциями:
--wait=2 --random-wait
без них случались козяблики. А так тянет потихоньку, да и ладно.

Всего записей: 1655 | Зарегистр. 30-06-2008 | Отправлено: 02:57 24-04-2016
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Valery_Sh
 
Спасибки))

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 03:33 24-04-2016
Valery_Sh



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Дык, man wget
Код:
--random-wait
           Some web sites may perform log analysis to identify retrieval programs such as Wget by looking for statistically
           significant similarities in the time between requests. This option causes the time between requests to vary
           between 0.5 and 1.5 * wait seconds, where wait was specified using the --wait option, in order to mask Wget's
           presence from such analysis

там же про "--waitretry" и всё остальное

Всего записей: 1655 | Зарегистр. 30-06-2008 | Отправлено: 16:18 24-04-2016
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Так и не разобрался, можно ли во wget (возможно, на пару с cmd.exe) явно указать, по какому пути укладывать файл, — в случае необходимости, создав структуру каталогов? Если да — мне примерчик бы))

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 22:34 30-04-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D, --directory-prefix, не?  А вообще, что мешает сменить текущий каталог?

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 22:46 30-04-2016
Valery_Sh



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
явно указать, по какому пути укладывать файл, — в случае необходимости, создав структуру каталогов?

Код:
 
-nd, --no-directories             не создавать каталоги.
  -x,  --force-directories        принудительно создавать каталоги.
  -nH, --no-host-directories   не создавать каталоги как на узле.
       --protocol-directories    использовать имя протокола в каталогах.
 
  -P,  --directory-prefix=ПРЕФИКС    сохранять файлы в ПРЕФИКС/..
 

 
По упоминавшейся выше загрузке обнов для win
Код:
wget  -P ${dl_l1} -i ${src_l1} --user-agent='тут_юзер_агент' --wait=2 --random-wait -nv --append-output=${wget_log1}
переменная dl_l1 и есть "префикс", т.е. указывает "куда"
src_l1 - список с прямыми ссылками на ресурсах мелкософта
последняя - лог
 
поправить под синтаксис win и в путь

Всего записей: 1655 | Зарегистр. 30-06-2008 | Отправлено: 23:01 30-04-2016
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
 
Точно, спасибо! Практически решено, но дано ли и файлу присвоить другое имя? —

Код:
 
wget --directory-prefix=derevo\katalogov\img.jpg http://pp.vk.me/c617527/v617527553/10f6b/fmESIoLqBXg.jpg

Всего записей: 706 | Зарегистр. 05-04-2010 | Отправлено: 23:09 30-04-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D> Практически решено, но дано ли и файлу присвоить другое имя?
 
Одному?  --output-document, не?  Каталог в этом случае через --directory-prefix указывать уже не надо.
 
И все-таки не удержусь и спрошу — каким местом вы читали руководство?

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 23:19 30-04-2016 | Исправлено: ASE_DAG, 23:22 30-04-2016
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru