Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: juvaforza, 17:27 01-09-2019
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, vitrzn
-r и -R - это разные опции (-r - рекурсия (скачивать не только указанную страницу, но и связаные с ней), -R - reject list (список НЕзакачиваемых файлов)).
Скорее всего Вам нужно
wget.exe -r -b -m -c -N -nd -np -A "*.ans" -R "n*.ans,CONS*.ANS,DOCS*.ANS"
В смысле, у Вас все правильно, просто R должна быть заглавной.

Всего записей: 1703 | Зарегистр. 07-08-2002 | Отправлено: 17:11 08-12-2011 | Исправлено: Alex_Piggy, 17:17 08-12-2011
fontex

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy ты очень, очень добрый человек. Побольше бы таких и мир был бы глядишь получше. Извините за сантименты. Все работает. Нехватало regex2.dll. Спасибо еще раз что мучался с таким нубом как я.  Если можно дай пожал-та хоть одну ссылочку на книжку по этой теме. От всей души желаю тебе всего самого хорошего. Как я могу тебя отблагодарить, добрейший человек?

Всего записей: 5 | Зарегистр. 05-12-2011 | Отправлено: 22:44 08-12-2011 | Исправлено: fontex, 22:48 08-12-2011
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy

Цитата:
"*.ans"  

а для чего список в кавычки ? (я о таком и не слыхивал ещё)

Всего записей: 1321 | Зарегистр. 28-10-2007 | Отправлено: 08:14 09-12-2011
unreal666



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
fontex

Цитата:
Если можно дай пожал-та хоть одну ссылочку на книжку по этой теме.  

нет такой ссылки. Есть документация.

----------
ASUS M4A77TD / Phenom II X6 1055T / RAM 12Gib / 6 HDD = 6Tib / Radeon RX 560 2Gib / Win 7 x64 // POB, PVD
* Не называть меня на Вы, только на ты.

Всего записей: 6570 | Зарегистр. 14-02-2005 | Отправлено: 09:07 09-12-2011 | Исправлено: unreal666, 09:11 09-12-2011
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
помогите отладить .wgetrc (я так понимаю, что в нём первостепенные параметры)
 
user-agent = "Mozilla/5.0"
tries = 5
wait = 0
continue = on
background = on
reject = string -R *.DT* ,*.NX*,*.RX*  - вот эта строка очень интересует, т.е. она у меня несрабатывает (
 
p.s. всё в винде происходит

Всего записей: 1321 | Зарегистр. 28-10-2007 | Отправлено: 10:22 09-12-2011 | Исправлено: vitrzn, 10:46 09-12-2011
iglezz

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vitrzn
иструкция гласит, что формат у reject в wgetrc такой-же, как у -R (--reject), то бишь должно получится

Код:
reject = *.DT*,*.NX*,*.RX*

Всего записей: 746 | Зарегистр. 18-02-2003 | Отправлено: 11:13 09-12-2011
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
iglezz

Цитата:
.wgetrc

т.е. в винде этот файл wget читает без проблем?

Всего записей: 1321 | Зарегистр. 28-10-2007 | Отправлено: 12:58 09-12-2011
iglezz

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vitrzn
да, без проблем...

Всего записей: 746 | Зарегистр. 18-02-2003 | Отправлено: 13:46 09-12-2011
bystrinator



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Вопрос.  
Мучаю wget под виндой. Требуется сделать оффлайн копию раздела форума. Вместе со всеми потрохами, картинками, вложениями.
 
Соответственно, выполняю:
 
wget -r -np -p -k -P ./ http://forumname.ru/vetka_foruma
 
Хм... Сейчас пошла выкачка сайта. С нетерпения уже нажала на index и вижу, что попала не на раздел форума, который и хотела выкачать, а в родительский каталог форума.  
 
Какие параметры давать wget, чтобы выкачивал только ветку форума, а не весь форум?

Всего записей: 1 | Зарегистр. 12-12-2011 | Отправлено: 14:45 12-12-2011 | Исправлено: bystrinator, 14:48 12-12-2011
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, bystrinator
Не уверен, что это получится. Зависит от структуры форума.  
Если как на руборде - topic.cgi?[параметры запроса, включающие тему, ветку форума, страницу ] - то невозможно.

Цитата:
Note, too, that query strings (strings at the end of a URL beginning with a question mark (`?') are not included as part of the filename for accept/reject rules, even though these will actually contribute to the name chosen for the local file. It is expected that a future version of Wget will provide an option to allow matching against query strings.  

Если как на  http://forum.fantasy-worlds.org/forum/[ветка]-[тема]-[страница] - то можно попытаться. Дляскачивания десятой ветки будет выглядеть как wget -r -np -p -k -P ./ -A"10-*,jpg,gif" http://forumname.ru/vetka_foruma
 

Всего записей: 1703 | Зарегистр. 07-08-2002 | Отправлено: 22:26 12-12-2011
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Качаю с двух FTP один и тот-же файл (1.dft), но на 1фтп он 250мб, а на 2фтп 260мб , т.е. обновлённый.
Как-то  можно с помощью Wget сравнить эти два файла и скачать/перекачать только новый?

Всего записей: 1321 | Зарегистр. 28-10-2007 | Отправлено: 16:57 13-12-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vitrzn
Сравнивать файлы, не загружая их, понятное дело, нельзя. Можно сравнить размер или дату модификации (если они сообщаются).
 
«С помощью» Вэ-гета это, безусловно, можно сделать. Исключительно его средствами — нет.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 17:14 13-12-2011
vitrzn



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А как можно задать так чтобы wget качал файлы не все , а СЕГОДНЯ-20ДНЕЙ , т.е. всё что старше 21дня пропускалось ?
 
wget.exe -b -N -m -c -nd -np -A *%date:~-7,2%%date:~0,2%*.rar - вот так качает ОТ СЕГОДНЯ, а как добавить диапазон в 20 дней ?

Всего записей: 1321 | Зарегистр. 28-10-2007 | Отправлено: 11:22 16-12-2011 | Исправлено: vitrzn, 13:44 16-12-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vitrzn
> можно задать так чтобы wget качал файлы не все , а СЕГОДНЯ-20ДНЕЙ , т.е. всё что старше 21дня пропускалось?
Сабж не умеет принимать решение о загрузке файла на основании его даты по произвольному условию.
 
> -A *%date:~-7,2%%date:~0,2%*.rar
а) Ключ -A устанавливает ограничение по имени файла, не по дате.
б) Если хотите спросить, как изменить не имеющую отношения к сабжу синтаксическую конструкцию, что у вас под этим ключом, так, чтобы она раскрывалась во что-то иное, чем сейчас, обратитесь в ветку по командному интерпретатору, который этот синтаксис предоставляет. Вот сюда, насколько я понимаю.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 17:42 16-12-2011
iglezz

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Эх, везёт мне на косяки со wget
 
Команда на скачивание - wget -c URL
 
Поставил на ночь скачиваться в внутреннего сервера провайдера киношку на два гига с хвостиком - обнаружил с утра, что он всё ещё качает, уже 10 с лишним гиг было
 
Вечером сегодня другую кину скачал - остановилась закачка вовремя. Попробовал запустить снова wget -c URL - оно продолжило закачку!
 
Причём в обоих случаях счётчик байтов был уже отрицательный
 
Тут меня чёто осенило и решил попробовать один трюк -  
беру файлик мег в 300 (просто случайно такой под рукой оказался, переименовываю в XnView-win.zip
далее набираю wget -c --limit-rate=50 "ftp://ftp2.xnview.com/30mo/xnview/XnView-win.zip"  
и оно уходит в вечный retry вот таким образом (кусок вывода в консоль)
Теперь этот файлик подменяю на другой, в 2100Мб размером - тоже самое, сервер стойко отказывается отдавать контент в нереальном диапазоне
 
Берём вторую жертву тот-же 300Мб файл обзываю как tcmd756.exe,  
набираю wget -c --limit-rate=50 "http://wincmd.ru/en/releases/tcmd756.exe"
и всё благополучно отваливается, тут всё нормально
Теперь беру файлик в 2100Мб (чтобы больше 2Гб) и обзываю как tcmd756.exe - опять, блин, качает!
 
Итого получается, что wget в нестандартных ситуациях как тот баран безуспешно долбит, ибо с математикой что-то там внутри не то (или на переменные байтов зажали), а сервера каждый тоже по своему пытается интерпретировать цыферки больше 2*10^9 (каменный век, блин)
 
Препарированы и обруганы были 1.12.1 и 1.13.4
 
Пойду мучать 1.11.4 ...
upd
В случае с сервером xnview одинадцатый всё так же упрямо пытался отжать у сервера несуществующие байты.
В остальных случаях он таки понял что качать больше нечего, за что получает пирожок.
Вот такие вот дела...

Всего записей: 746 | Зарегистр. 18-02-2003 | Отправлено: 01:18 17-12-2011 | Исправлено: iglezz, 01:35 17-12-2011
sis_terr



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
а какой командой можно указать качать по списку но не писать 100 строк списка
http://хххх/page1
.........
http://хххх/page99
 
а указать  - скачивать с первой по 99ю

Всего записей: 1288 | Зарегистр. 20-12-2007 | Отправлено: 03:01 15-01-2012
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sis_terr
Дежа-вю?

Цитата:
sis_terr
<...>
> как сделать счётчик
Ну я бы сделал
$ for i in {0..<LAST>...<INCREMENT>}; do wget "http://forum.example.org/topic.cgi?topic=10066&start=$i"; done
<...>
Как вам сделать — спросите в теме по вашему любимому скриптовому интерпретатору.


----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 03:22 15-01-2012 | Исправлено: ASE_DAG, 03:23 15-01-2012
sis_terr



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
ASE_DAG, не, тут вопрос вроде не о счётчике,
думала как то может можно упростить список.
 
Тот вопрос был решён влоб, при помощи студентки)))
 которая набила нужные ссылки, поэтому вылетело с моей головы,  
что нет простого программного решения
**
в общем ясно, что пока без полного списка не обойтись
вроде ничего сложного, непонятно почему так  сложно
 

Всего записей: 1288 | Зарегистр. 20-12-2007 | Отправлено: 03:49 15-01-2012 | Исправлено: sis_terr, 04:00 15-01-2012
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sis_terr
> скачивать с первой по 99ю  
> тут вопрос вроде не о счётчике
А о чем?
 
> нет простого программного решения
Что значит «нет решения»!? О_о
 
> вроде ничего сложного, непонятно почему так  сложно  
Где же сложно-то?
 
Реализация циклов — задача не Вэ-гета, а шелла (Баша, если речь о ГНУ, или безымянного виндового), и все.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 04:07 15-01-2012
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sis_terr
 
А что, команды типа dir/list/ls нонче не в моде? Нужны помощники по написанию ссылок?" О,это очередное открытие Америки через форточку. Обычно, любой, даже самый кривой сервер отдаёт листинг файлов по 21 порту, попросту по FTP. Что, сложно выдать команду ls -fR <url> > filelist.txt ? Похоже студенты нонче дёшевы. Хорошо что я с кафедры вовремя ушел и не дожил до наблюдения сего позора...

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24190 | Зарегистр. 31-07-2002 | Отправлено: 04:52 15-01-2012
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru