Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Linch
Да, у TumaGonx Zakkum этого багфикса нет.
У меня или у Ray Satiro - не знаю. Очень интересный вопрос.  
Ответа на него не знаю. Пожалуйста, попробуйте и скажите.  
Точнее - сам багфикс есть, но там, где я проверял год назад (fantasy-worlds.org) сейчас выдается новая ошибка - "HTTP/1.1 405 Method Not Allowed ... Allow: GET,POST" Первый раз с ней встретился... Подумаю.

Всего записей: 1693 | Зарегистр. 07-08-2002 | Отправлено: 23:46 11-09-2013
Linch



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
Проверил, работает как положено с вашим билдом.

Всего записей: 469 | Зарегистр. 24-07-2001 | Отправлено: 01:03 14-09-2013
anynamer



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
wget может качать rtmp?

Всего записей: 1703 | Зарегистр. 17-05-2010 | Отправлено: 21:41 14-09-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
anynamer
 
Нет.

Цитата:
GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS и FTP (и только)

rtmpdump может.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 21:46 14-09-2013 | Исправлено: ASE_DAG, 21:47 14-09-2013
anynamer



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG Ясно, спасибо!

Всего записей: 1703 | Зарегистр. 17-05-2010 | Отправлено: 21:55 14-09-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
anynamer
 
Всегда пожалуйста. Общая ветка по загрузке потоков на Руборде вот: «Программы для скачивания защищенного потокового/онлайн видео». По конкретно rtmpdump’у можете попробовать обратиться в «UNIX Shell». Главный источник информации по этой теме вообще — http://videohelp.com.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 22:02 14-09-2013
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
 
Вроде и не он один:  

Цитата:
curl 7.32.0 (i386-pc-win32) libcurl/7.32.0 OpenSSL/1.0.1e zlib/1.2.7 libssh2/1.4.3 librtmp/2.3
Protocols: dict file ftp ftps gopher http https imap imaps ldap pop3 pop3s rtmp rtsp scp sftp smtp smtps telnet tftp  
Features: AsynchDNS GSS-Negotiate IPv6 Largefile NTLM SSL SSPI libz

потребуются: cURL.exe с поддержкой RTMP, SSH2, SSL, SSPI + libcurl.dll и libssh.dll (без них не запустится, особенно без libssh) + libeay32.dll и ssleay32.dll v1.0.1.5 (1.0.1e) x86 в одном каталоге. Как GUI пойдёт и GUI for cURL 0.1 там же. Настройки GUI по умолчанию задаются в proxy.cfg и target.cfg (обычные текстовые файлы), лицензия GPL, исходники на Паскаль открыты, проблем под WINE HQ нет.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23908 | Зарегистр. 31-07-2002 | Отправлено: 19:24 16-09-2013 | Исправлено: Victor_VG, 19:30 16-09-2013
mithridat1



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
На самом деле все открытые продукты с поддержкой rtmp,вроде cURL и FFmpeg используют наработки проекта rtmpdump.

Цитата:
As of 2.2 the main protocol code is now available in its own library, librtmp. This library is licensed under LGPL so it may be used freely in other applications. As of 2.3 the library may also be built as a shared library, not just a static library
 
...
 
Projects using librtmp:
FFmpeg
MPlayer (thru ffmpeg)
HTS Home Theater System
cURL

И,кстати,в сURL не самая свежая версия протокола

Цитата:
librtmp/2.3  

Я предпочитаю использовать FFmpeg,из-за расширенных возможностей этой утилиты по обработке видео.Но для гарантии результата лучше брать последнюю версию rtmpdump.

Цитата:
потребуются: cURL.exe с поддержкой RTMP, SSH2, SSL, SSPI + libcurl.dll и libssh.dll (без них не запустится, особенно без libssh) + libeay32.dll и ssleay32.dll v1.0.1.5 (1.0.1e)

Для rtmp libcurl.dll,libeay32.dll и ssleay32.dll необязательны.Работает очень просто
 
curl.exe rtmp://tvrain-video.ngenix.net/mobile/mp4:TVRain_1m.stream -o tvrain.flv
 
Главное положить в папку с curl правильную версию libssh

Всего записей: 4116 | Зарегистр. 05-01-2006 | Отправлено: 10:12 17-09-2013 | Исправлено: mithridat1, 10:18 17-09-2013
HelioSS



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажет, пожалуйста, какая должна быть строка, для того, чтобы сабж зашёл на ftp, проверил наличие файла, его атрибуты (дату создания), сверил с таким же файлом на компе (атрибуты и имя), и, в случае когда файл на ftp "моложе", после получения разрешения на то пользователя, скачал файл с ftp в требуемую директорию, где лежит такой же, но более "старый" файл, перед тем спросив разрешение пользователя на перезапись файла?

Всего записей: 4749 | Зарегистр. 26-11-2007 | Отправлено: 14:20 21-09-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
HelioSS
Не помню, чтоб у wget’а был интерактивный режим.
 
Добавлено:
Более того, вообще сейчас не могу вспомнить ни одного FTP-клиента, который бы умел себя вести как cp -i.
 
Добавлено:
Так что пишите скрипт сами — быстрее будет.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 14:52 21-09-2013
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
HelioSS
 
Таких ключей ни у cURL, ни у Wget/Wput нет и не было. В таких случаях запрос к оператору выводит шелл посредством скрипта или графической оболочки на ними. Вме три названных мной программы не интерактивные т.е не взаимодействуют с оператором в процессе своей работы.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23908 | Зарегистр. 31-07-2002 | Отправлено: 15:57 21-09-2013
Free_Soft



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
есть команда вида

Код:
wget -O - http://name:pass@ipv4.tunnelbroker.net/nic/update?hostname=000000

есть какой-нибудь параметр, позволяющий повторять запрос, если URL недоступен (нет соединения с инетом)?

----------
На вашей перфокартѣ обнаруженъ вирусъ, механизмъ будетъ остановленъ.

Всего записей: 1471 | Зарегистр. 19-04-2010 | Отправлено: 09:36 30-09-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Free_Soft, нет, не видел. Но ничто не мешает приказать что-нибудь такое:
 
$ until wget http://example.org; do sleep 5s; done

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 18:00 30-09-2013 | Исправлено: ASE_DAG, 18:01 30-09-2013
andrecool

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Помогите пожалуйста написать *.bat файл для Wget
Из корня сайта нужно скачать две папки со всем содержимым не изменяя их структуру, имена файлов, кодировку. Логин и пароль от сайта конечно у меня есть, можно конечно это делать через Total Commander но хотелось бы попробовать делать бекап с помощью Wget.

Всего записей: 19 | Зарегистр. 21-09-2013 | Отправлено: 03:23 08-10-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Добро пожаловать на Руборд, Andrecool.
 
> можно конечно это делать через Total Commander
Т. е. речь об FTP? И в чем проблема?
$ wget --mirror ftp://user:pass@ftp.example.org/

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 03:29 08-10-2013 | Исправлено: ASE_DAG, 03:30 08-10-2013
andrecool

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
И вам всем привет!
Да что бы скачать эти папки по FTP, просто я не когда батников не писал и вот решил обратится за помощью на ваш форум.

Всего записей: 19 | Зарегистр. 21-09-2013 | Отправлено: 03:36 08-10-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Так все ли понятно, что я написал? Как видите, всего одна команда, и очень простая.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 03:40 08-10-2013
andrecool

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
У меня получатся так
ftp://логин:пароль@ftp://имя_сервера/мой_домен/www/
и нужно скачать папку_1 и папку_2 они лежат в /www/
в них лежат файлы *.dat *.php *.js ...и так далее и нужно все сохранить как оно есть
как это все написать?
 
Добавлено:
Нужен именно бекап двух папок, а не локальная копия сайта.

Всего записей: 19 | Зарегистр. 21-09-2013 | Отправлено: 03:47 08-10-2013 | Исправлено: andrecool, 04:05 08-10-2013
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
andrecool
> ftp://логин:пароль@ftp://имя_сервера/мой_домен/www/
Что это? См. https://ru.wikipedia.org/wiki/URL
 
> и нужно скачать папку_1 и папку_2 они лежат в /www/
Обратите внимание, что еще два сообщения назад вы говорили, что они в корне. :-) Ну, например, так:
 
$ wget --mirror --include-directories=/мой_домен/www/папку_1,/мой_домен/www/папку_2 ftp://логин:пароль@имя_сервера/мой_домен/www/

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 04:08 08-10-2013 | Исправлено: ASE_DAG, 04:09 08-10-2013
andrecool

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо! сейчас буду пробовать.
 
Добавлено:
Пока не удалил символ $ батник не работал.
Потом эти две папки копировались, но еще и все файлы  которые лежали в /www/  
они лежат в этой директории без папок  
как исключить эти файлы из копирования?

Всего записей: 19 | Зарегистр. 21-09-2013 | Отправлено: 04:12 08-10-2013 | Исправлено: andrecool, 04:41 08-10-2013
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru