Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
8AleX8



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
dosya

Цитата:
Как скачать большой файл в несколько потоков?

IMHO. Вгетом никак.

Всего записей: 1813 | Зарегистр. 11-12-2001 | Отправлено: 22:49 18-07-2004
dosya



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
IMHO. Это существенный минус для wget. Потому что в остальном я его смогу заменить httrack и с большим успехом.

Всего записей: 738 | Зарегистр. 27-02-2003 | Отправлено: 05:02 19-07-2004
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Возможно ли игнорировать регистр при скачивании с ФТП?

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 00:46 20-10-2004
vu1tur



Moderator-Saaber
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
evgenych

Цитата:
Возможно ли игнорировать регистр при скачивании с ФТП?

А причем здесь вгет. Просто в *nix имена файлов case-sensitive.

----------
I am free of all prejudice. I hate everyone equally.

Всего записей: 3690 | Зарегистр. 01-02-2003 | Отправлено: 01:26 20-10-2004
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
evgenych  
 
Цитата:
Возможно ли игнорировать регистр при скачивании с ФТП?
 
А причем здесь вгет. Просто в *nix имена файлов case-sensitive.

 
Ааааа... т.е. получается что в принципе никак?
Так получается что в *nix "определенный регистр имени файла" это тоже самое, что и "определенное имя файла"?
 
 

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 12:25 20-10-2004
f_serg



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
evgenych

Цитата:
Так получается что в *nix "определенный регистр имени файла" это тоже самое, что и "определенное имя файла"?

Типа того. А ты шаблон задаешь для скачивания? В принципе все решаемо.

----------
Serg

Всего записей: 1706 | Зарегистр. 11-09-2002 | Отправлено: 14:27 20-10-2004
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Файлы называются то ааа.ббб, то ААА.БББ. Если оба эти варианта учесть, то все хорошо.
 
Но вдруг кому-нибудь зачем-то вздумается обозвать файл аАа.бББ
В таком случае, как я понял, ничего сделать нельзя.
 

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 23:59 20-10-2004
f_serg



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
evgenych
Примерно так:

Код:
wget 'ftp://ftp.site.ru/dir/with/files/[Aa][Aa][Aa].[Bb][Bb][Bb]'

Скачаются все комбинации малых и больших букв с добавлением расширения .1 .2 .3 и т.д. (так как на винде регистронезависимая ФС).

----------
Serg

Всего записей: 1706 | Зарегистр. 11-09-2002 | Отправлено: 11:36 21-10-2004
jvalej

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Такая исчо утилитка есть - wgrab.

Цитата:
wgrab is a perl script that can be used to selectively download parts of a foreign website and store things in the local filesystem. Instead of the unspecified way, in which 'wget -r' downloads and stores everything, wgrab allows you to use iteration over dates and numbers, as well as regular expressions to specify, which references to follow.

Искал чем бы мне лучше автоматизироать скачку картинок с dilbert.com, и гугл мне её и выдал, только сколько ни пробовал, ничего с дилбертом у меня с её помощью не вышло...

Всего записей: 1403 | Зарегистр. 09-09-2003 | Отправлено: 12:36 21-10-2004
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 
wget 'ftp://ftp.site.ru/dir/with/files/[Aa][Aa][Aa].[Bb][Bb][Bb]'  
 

Во! Самое оно!
 

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 18:48 22-10-2004 | Исправлено: evgenych, 18:49 22-10-2004
ozioso



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ALL
Где можно найти подробнейшее русскоязычное описание программы, подобное тому, что привел popkov, с разметкой?

Всего записей: 2208 | Зарегистр. 23-09-2004 | Отправлено: 23:11 22-10-2004
Alex_Dragon



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Вот сюда: http://vap.org.ru/wget/
Оно, правда, по версии 1.5.3, но основные команды всё те же.

Всего записей: 420 | Зарегистр. 05-01-2002 | Отправлено: 00:16 23-10-2004 | Исправлено: Alex_Dragon, 00:20 23-10-2004
kraeved



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Мужики, выявил для себя странное поведение wget.
Создал файл get.bat, состоящий из строки wget.exe -c %1
Удобно -- в ФАРе работая, написал get подставил из буфера ссылку и пошло качаться.
Но разум больше захотел -- чтобы работать при этом дальеш в ФАРе, соответственно, переписал get.bat до вида start /min wget.exe -c %1
НО, при таком раскладе прерваные закачки стартают с начала, а не с места обрыва. В чем грабли?

Всего записей: 544 | Зарегистр. 01-03-2003 | Отправлено: 07:37 23-10-2004
Sanyaaa

Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Уважаемые форумяне, а может ли WGET решить такой трабл:
на ФТП 2 файла, название у них всегда разное, нужно скачать последний измененный? o Заранее как говориться Мэни Сенькс!

Всего записей: 323 | Зарегистр. 04-02-2003 | Отправлено: 07:53 08-11-2004 | Исправлено: Sanyaaa, 07:53 08-11-2004
thu

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите как wget'ом скачивать файлы если нету прямой ссылки на файл?  
Например http://www.deviantart.com/download/793134/
 
Скармливаю DMaster'у этот линк - он находит по нему  
Location: http://ic1.deviantart.com/files/icon/ip/iCandy_XP_1_0.zip
 
А wget говорит вот что:

Код:
 
--10:18:36--  http://www.deviantart.com/download/793134/
           => `index.html'
Resolving www.deviantart.com... done.
Connecting to www.deviantart.com[69.28.181.43]:80... connected.
HTTP request sent, awaiting response... 403 Forbidden
10:18:36 ERROR 403: Forbidden.
 


Всего записей: 10 | Зарегистр. 10-01-2003 | Отправлено: 08:32 14-01-2005
thu

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 
Подскажите как wget'ом скачивать файлы если нету прямой ссылки на файл?  
Например http://www.deviantart.com/download/793134/  
 

 
Вопрос снимаю. Проблему решил указанием параметра -U (User Agent)

Всего записей: 10 | Зарегистр. 10-01-2003 | Отправлено: 11:19 17-01-2005
8AleX8



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
thu

Цитата:
опрос снимаю. Проблему решил указанием параметра -U (User Agent)

Маладца!

Всего записей: 1813 | Зарегистр. 11-12-2001 | Отправлено: 11:57 17-01-2005
Farch



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
как скачивать r00 файл в бинарном режиме не используя приписку к ссылке ;type=i ?

Всего записей: 3210 | Зарегистр. 25-12-2001 | Отправлено: 04:56 19-02-2005
agatrid

Junior Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Подскажите пожалуйстакак сделать так:
Есть страница скажем http://site/index.html
На ней куча ссылок на различные файлы...может ли wget закачать все файлы *.doc и не качать *.rar
Заранее спасибо.

Всего записей: 59 | Зарегистр. 25-03-2005 | Отправлено: 15:53 26-04-2005
8AleX8



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
agatrid

Цитата:
Подскажите пожалуйстакак сделать так:  
Есть страница скажем http://site/index.html  
На ней куча ссылок на различные файлы...может ли wget закачать все файлы *.doc и не качать *.rar


Код:
wget -r -nd -l1 -N -A.doc http://site/index.html

 
P.S.
RTFM
http://forum.ru-board.com/topic.cgi?forum=5&topic=10066&start=0#8

Всего записей: 1813 | Зарегистр. 11-12-2001 | Отправлено: 20:09 26-04-2005
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru