Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
yahan2



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
1. никак не могу найти ключик, который будет удалять с ftp скаченный файл.
2. и еще как сделать так, чтобы когда пишешь лог в файл не исчезал вывод на экран?
 
Хочу настроить автоматический файлообмен с помощью wget и wput.
На ftp-сервере завожу каталоги in и out.
Клиент должен забирать себе все из out (с помощью wget),
а файлы для меня класть в in (с помощью wput)
 
wget - очень понравился, но что-то мне подсказывает, что есть что-то похожее, но более подходящее для автоматизации работы с ftp
 

Всего записей: 112 | Зарегистр. 20-10-2005 | Отправлено: 10:04 14-03-2009
TeXpert



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
yahan2
Цитата:
1. никак не могу найти ключик, который будет удалять с ftp скаченный файл
Уточни: скачанный у тебя, или на далёком сервере? А с какого перепугу он должен там удалять?
Цитата:
...что-то мне подсказывает, что есть что-то похожее, но более подходящее для автоматизации работы с ftp
Ты бы выразился яснее, что ли? Манипуляции на ftp-сервере? Например, файлы перекидывать с одного сервера на другой? Есть специальный (под)протокол, если не ошибаюсь, поищи, вот FlashFXP представляет пример такого клиента

----------
Майкудук, Пришахтинск не предлагать!:)
А на Пирогова приходит снова весенний гомон...

Всего записей: 3387 | Зарегистр. 08-02-2003 | Отправлено: 10:13 14-03-2009
yahan2



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Выражаюсь яснне:
Есть ftp-сервер - он один и там для меня в определенном каталоге выкладываются файлы, мне надо с него из этого каталога периодически забирать файлы (т.е. скачал файл и сразу удалил его на сервере, чтобы они там не скапливались).
 
На этом-же сервере есть еще один каталог на прием, там все делается с точность наоборот. Передаю от себя файл на сервер и после успешной передачи удаляю его у себя.
 
Тот кто имел дело с оффлайновыми системами - поймут для чего это надо

Всего записей: 112 | Зарегистр. 20-10-2005 | Отправлено: 11:36 14-03-2009
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
yahan2
 
UNIX команда rm -fR <DIR>|<FILE> в батнике/скрипте. 99% FTP серверов стоят под UNIX и её клонами, а там rm/mv/ls - штатные команды. Работают - не придерёшся.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23439 | Зарегистр. 31-07-2002 | Отправлено: 11:45 14-03-2009 | Исправлено: Victor_VG, 12:09 14-03-2009
rBBWYwg



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Есть ли способ прописать для WGET такие параметры, чтобы он сохранял файлы только с короткими именами (8.3)?

Всего записей: 23 | Зарегистр. 14-10-2008 | Отправлено: 12:26 16-03-2009
SAVage22



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Есть ли способ прописать для WGET такие параметры, чтобы он сохранял файлы только с короткими именами (8.3)

 
Нет, так програма создавалась по Unix, где не было ограничений фалойловых систем на имена фалов формата 8.3
 
но можете принудительно сохранять файл ключём --output-document=имя_файла(8.3)

Всего записей: 1104 | Зарегистр. 30-12-2003 | Отправлено: 22:17 16-03-2009
vmcho

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Уважаемые Гуру.
Подскажите, можно ли обработать ответ WGET при ошибке авторизации: Proxy request sent, awaiting response... 407 Proxy Authentication Required, при этом ERRORLEVEL=0, а очень нужно контролировать результаты выгрузки
 
Простите, разобрался ERRORLEVEL=1, просто не сразу его брал....  

Всего записей: 5 | Зарегистр. 09-02-2009 | Отправлено: 12:49 17-03-2009 | Исправлено: vmcho, 13:18 17-03-2009
Crazy_Master



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите пожалуйста, как заставить wget сохранять страницы, выданные поиском в google, если результат на нескольких страницах? При этом запретить следовать другим ссылкам.
Спасибо.

Всего записей: 656 | Зарегистр. 30-12-2006 | Отправлено: 04:04 22-03-2009
TeXpert



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Господа, такой вопрос: на сайте страница представлена phtml-файлами, это, как я понимаю, ПЫХЫПЫ-скрипт. Как попросить wget выкачать уже результирующий html-файл с сопутствующими подресурсами (картинки)?
 
Заранее благодарен!

----------
Майкудук, Пришахтинск не предлагать!:)
А на Пирогова приходит снова весенний гомон...

Всего записей: 3387 | Зарегистр. 08-02-2003 | Отправлено: 10:10 23-03-2009
TeXpert



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
И ещё: очень странно, что параметра --user-agent в числе упоминаемых в Wgetrc Commands нет. С чего бы это?

----------
Майкудук, Пришахтинск не предлагать!:)
А на Пирогова приходит снова весенний гомон...

Всего записей: 3387 | Зарегистр. 08-02-2003 | Отправлено: 13:54 23-03-2009
WGetUser777

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Ни как не могу понять, как передать POSTом русские логин и пароль. Сайт полностью юникодовский.
Передаю из перла:
my $cmd = 'wget --append-output=log.txt -E -OTemp.txt '.
         '--user-agent="Opera/9.63 (Windows NT 5.1; U; ru) Presto/2.1.1" '.
         '--header="Accept: text/html, application/xml;q=0.9, application/xhtml+xml, image/png, image/jpeg, image/gif, image/x-xbitmap, */*;q=0.1" '.
         '--header="Accept-Language: ru-RU,ru;q=0.9,en;q=0.8" '.
         '--header="Accept-Charset: iso-8859-1, utf-8, utf-16, *;q=0.1" '.
         '--header="Accept-Encoding: deflate, gzip, x-gzip, identity, *;q=0" '.
         '--header="Connection: Keep-Alive, TE" '.
         '--header="TE: deflate, gzip, chunked, identity, trailers" '.
         '--load-cookies=cookies.txt --keep-session-cookies --save-cookies=cookies.txt';
my $cmdi = "$cmd --post-data=\"action=login&login=${login}&pwd=${pwd}\" $url";
`$cmdi`;

для GETа срабатывает обычный url encode, но это сайт не принимает GET...
есть идеи?

Всего записей: 1 | Зарегистр. 25-03-2009 | Отправлено: 10:12 25-03-2009
metrim

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А в каком параметре можно прописать директорию в которую должны скачиваться файлы?
А то у меня файлы льются в папку с файлом wget

Всего записей: 107 | Зарегистр. 05-12-2002 | Отправлено: 21:25 01-04-2009
iglezz

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
metrim

Цитата:
-P,  --directory-prefix=PREFIX  save files to PREFIX/..

Всего записей: 684 | Зарегистр. 18-02-2003 | Отправлено: 21:32 01-04-2009
metrim

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Скажите плз: а несколько файлов из списка одновременно wget качать может?
В принципе где то натыкался что он умеет в несколько потоков файл качать, но мне достаточно что бы он не последовательно по одному файлу из списка качал, а вел порядка 3-5 закачек.

Всего записей: 107 | Зарегистр. 05-12-2002 | Отправлено: 01:30 05-04-2009
Aeismann



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
metrim
авторы принципиально не делают многопотоковость. Причина - "чтобы не нагружать сервера"

Всего записей: 174 | Зарегистр. 24-10-2006 | Отправлено: 01:34 05-04-2009
metrim

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
iglezz, как то непонятно: если запускать просто с ключём -p, файлы загружаются соблюдая структуру на сайте (домен\дир1\дир2\файл) в папку из которой запускается скрипт, а если вписать "-p d:\test\", то валит все в директорию d:\test\ не разбиая по папкам.
Как бы сделать так, что бы в папку d:\test\ файлы писались соблюдая структуру сайта?

Всего записей: 107 | Зарегистр. 05-12-2002 | Отправлено: 01:48 05-04-2009
TeXpert



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
metrim
А ты попробуй таки не с "ключём"
Цитата:
-p
, а с ключом -P, что он тебе и указал -- регистр важен. Надо читать хотя бы основные моменты руководства по программе

----------
Майкудук, Пришахтинск не предлагать!:)
А на Пирогова приходит снова весенний гомон...

Всего записей: 3387 | Зарегистр. 08-02-2003 | Отправлено: 04:31 05-04-2009
metrim

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
metrim
А ты попробуй таки не с "ключём"
-p
, а с ключом -P, что он тебе и указал -- регистр важен. Надо читать хотя бы основные моменты руководства по программе
 
Я пробовал и так и эдак. от регистра результат не зависит. Если что - у меня виндаХР, а не линух.
Инструкцию и соответствующий её пункт я вроде читал, но там про регистр - указано не было

Цитата:
‘-P prefix’
‘--directory-prefix=prefix’
    Set directory prefix to prefix. The directory prefix is the directory where all other files and subdirectories will be saved to, i.e. the top of the retrieval tree. The default is ‘.’ (the current directory).  

Всего записей: 107 | Зарегистр. 05-12-2002 | Отправлено: 15:19 05-04-2009
Alex Dragon



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Всё прекрасно работает. Регистр ИМЕЕТ значение, независимо от того, линуксовая или виндовая версия. Значит где-то накосячил, не то или не так прописал.
Полностью свою ком. строку приведи и версию wget'а.
-p (пэ малое) значит «get all images, etc. needed to display HTML page», т.е. выгрести не только саму страницу, а и все картинки и т.п. необходимые для нормального отображения этой страницы, т.е. обработать все src и т.п. Потому что по умолчанию, если сказать что-то типа wget http://site.com/index.html, то он только этот index.html и скачает.
С ключом -p он выкачает и её, и картинки, с сохранением структуры директорий, откуда эти картинки выкачаны. Однако к сохранению в определённый пользователем каталог это не имеет никакого отношения.

Всего записей: 420 | Зарегистр. 05-01-2002 | Отправлено: 17:38 05-04-2009
TeXpert



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
metrim
Цитата:
Если что - у меня виндаХР, а не линух
Если что, интерфейс вызова один для обеих платформ -- я и там, и там вызывал, нормально пашет. И регистр таки важен

----------
Майкудук, Пришахтинск не предлагать!:)
А на Пирогова приходит снова весенний гомон...

Всего записей: 3387 | Зарегистр. 08-02-2003 | Отправлено: 17:44 05-04-2009
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru