Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: juvaforza, 17:27 01-09-2019
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D, RFC 2616. Accept-Language.  Впрочем, не проверял.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 02:08 18-03-2018
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG, спасибо, так сработало: --header="Accept-Language: ru-RU,ru;q=0.9,en;q=0.8"

Всего записей: 737 | Зарегистр. 05-04-2010 | Отправлено: 02:58 18-03-2018
IgoryaN

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Доброго дня!
Скачиваю сайт для просмотра офлайн.
 
wget --load-cookies cookies.txt -r -k -l 5 -p -E -nc -P./LOCAL-DIR http://example.org
 
После окончания скачивания видно, что переходя по ссылкам все страницы открываются с компа. Но если вырубить интернет, теряется форматирование страничек и исчезает фоновая картинка.
 
Покопался в интернете, и как понял, wget не скачивает фоновую картинку, указанную в файлах стиля CSS, может быть ещё какие-то скрипты не скачивает.
Я не веб разработчик, поэтому в формулировке мог что-нибдь напутать )) но общий смысл, думаю понятен ))
 
Подскажите, пожалуйста, нужные параметры для wget.
 
Заранее благодарен за помощь.

Всего записей: 457 | Зарегистр. 23-12-2003 | Отправлено: 11:00 24-03-2018
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
> wget --load-cookies cookies.txt -r -k -l 5 -p -E -nc -P./LOCAL-DIR http://example.org
>
> После окончания скачивания видно, что переходя по ссылкам все страницы
> открываются с компа. Но если вырубить интернет, теряется
> форматирование страничек и исчезает фоновая картинка.
 
Мне думается, что вы что-то напутали, на example.org нет фоновых картинок.


----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 12:35 24-03-2018
IgoryaN

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Мне думается, что вы что-то напутали, на example.org нет фоновых картинок.  

 
Извиняюсь, непонятно выразился ))
Пытаюсь скачать http://psi3000.ning.com, а http://example.org просто, как сайт указал, для вопроса )))
 
wget --load-cookies cookies.txt -r -k -l 5 -p -E -nc -P./LOCAL-DIR http://psi3000.ning.com

Всего записей: 457 | Зарегистр. 23-12-2003 | Отправлено: 18:35 24-03-2018
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
>> Мне думается, что вы что-то напутали, на example.org нет фоновых
>> картинок.
>
> Извиняюсь, непонятно выразился )) Пытаюсь скачать
> http://psi3000.ning.com, а http://example.org просто, как сайт
> указал, для вопроса )))
>
> wget --load-cookies cookies.txt -r -k -l 5 -p -E -nc -P./LOCAL-DIR http://psi3000.ning.com
 
Какое, однако, мерзкое местечко.  Без регистрации — ничего.  Попытался было зарегистрироваться — так там мало того, что несвободная гуглокапча, так еще и потом кидают на рекламную помойку, чтобы я ее посмотрел в течение N секунд, и наконец отправляют анкету на проверку цензору.
 
Поэтому давайте пока включим телепата.  Во-первых, вы уверны, что то, чего вам недостает, вообще отдается по стандарному интерфейсу?  Может быть, это вы просто позабыли, что разрешили им запускать в вашем обозревателе какие-то программы?
 
Во-вторых, может быть, его запрещают роботам?  Вэ-гет, как приличный робот, по-умолчанию эти запреты уважает (выставлена опция robots=on).
 
Ну и да, я решительно не понимаю, чего вы ограничились пятью уровнями вложенности, но про это напоминать вам не надо.


----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 20:44 24-03-2018
IgoryaN

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо большое, ASE_DAG, за внимание к моему вопросу.
 

Цитата:
Ну и да, я решительно не понимаю, чего вы ограничились пятью уровнями вложенности, но про это напоминать вам не надо.  

Потому, что 5 уровней вгет качает двое суток, или чуть больше (с указанными выше параметрами).  ))
 

Цитата:
Во-первых, вы уверны, что то, чего вам недостает, вообще отдается по стандарному интерфейсу?  Может быть, это вы просто позабыли, что разрешили им запускать в вашем обозревателе какие-то программы?  

Тут мне сложно что-либо сказать, т.к. я не специалист по сайтам ((  Но точно помню, что дополнительных разршений сайт не спрашивает. Просто логин и пароль. К слову сказать, дополнение к FireFox "Web ScrapBook", когда в настройках ставишь, чтобы всё качал, выкачивает действительно всё. Но оно не может скачать весь сайт. Только отдельную страницу. Это к вопросу отправке по стандартному/нестандартному интерфейсу.
 

Цитата:
Во-вторых, может быть, его запрещают роботам?

пробовал с отключенным "-e robots=off" - тот же результат.
 
Нашёл в интернете описание подобных проблем, но без решения ((
_https://stackoverflow.com/questions/23754952/wget-downloads-css-import-but-ignores-files-referenced-within-them
_https://superuser.com/questions/703435/using-wget-to-download-css-with-get-params
_https://stackoverflow.com/questions/6348289/download-a-working-local-copy-of-a-webpage
_https://unix.stackexchange.com/questions/254065/problem-using-wget-to-create-static-archive-of-website
_https://superuser.com/questions/55040/save-a-single-web-page-with-background-images-with-wget
 
PS: FireFox сохраняет страничку нормально.
 
Добавлено:
К сожалению, знаний не хватает, чтобы понять в том же самом ли заключается моя проблема...

Всего записей: 457 | Зарегистр. 23-12-2003 | Отправлено: 08:27 25-03-2018 | Исправлено: IgoryaN, 16:01 25-03-2018
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
> Спасибо большое, ASE_DAG, за внимание к моему вопросу.
 
А толку пока нет — цензор молчит.
 
>> Ну и да, я решительно не понимаю, чего вы ограничились пятью
>> уровнями вложенности, но про это напоминать вам не надо.
>
> Потому, что 5 уровней вгет качает двое суток, или чуть больше (с
> указанными выше параметрами).  ))
 
Ну это выбор ваш.  Значит, вы убедились, что не в этом дело, да...
 
>> Во-первых, вы уверны, что то, чего вам недостает, вообще отдается по
>> стандарному интерфейсу?  Может быть, это вы просто позабыли, что
>> разрешили им запускать в вашем обозревателе какие-то программы?
>
> Тут мне сложно что-либо сказать, т.к. я не специалист по сайтам
 
Я тоже.  И что?  Достаточно того, что вы разумный человек, а значит не запускаете у себя все, что к вам валится из Сети.
 
Но с другой стороны — каким-то страницам вы разрешаете запускать у себя в обозревателе программки.  Но Вэ-гету-то вы этого разрешить не можете &#8722; он вообще не содержит интерпретатора Яваскрипта.
 
Вот я и говорю, убедитесь, что этой помойке не разрешили.
 
> (( Но точно помню, что дополнительных разршений сайт не
> спрашивает.
 
А он и не будет.  Это о куках вас куча страниц предельно назойливо уведомляет.  А о том, что сейчас на вашу машинку будет загружена кучка программ (причем еще, чаще несвободных) и будет там исполнятся, не спрашивая вашего разрешения, вас что-то никто не предупреждает.
 
Это при том, что нынче некоторые странички стало просто *прочесть* нельзя без специально для них написанных костылей.
 
> Просто логин и пароль. К слову сказать, дополнение к FireFox "Web
> ScrapBook", когда в настройках ставишь, чтобы всё качал, выкачивает
> действительно всё.
 
То есть Файрфокс *без* него тоже не сохраняет?
 
> PS: FireFox сохраняет страничку нормально.
 
Ага!  Ну иначе было бы совсем странно.
 
> Нашёл в интернете описание подобных проблем:
> https://stackoverflow.com/questions/23754952/wget-downloads-css-import-but-ignores-files-referenced-within-them
> https://superuser.com/questions/703435/using-wget-to-download-css-with-get-params
> https://stackoverflow.com/questions/6348289/download-a-working-local-copy-of-a-webpage
> https://unix.stackexchange.com/questions/254065/problem-using-wget-to-create-static-archive-of-website
> https://superuser.com/questions/55040/save-a-single-web-page-with-background-images-with-wget
 
Ну, во-первых, что у вас со ссылками?  Почему они начинаются с какого-то подчеркивания?
 
А во-вторых, там ни по одной их них ответа на что-нибудь не изложено.  Кроме последней, где отмечено, что до версии 1.12 ходить по ссылкам из CSS не умел (ну, логично, когда-то-то должен был не уметь).  Но она вышла уже доброе десятилетие
тому назад, так что для вас едва ли актуально.
 
> К сожалению, знаний не хватает, чтобы понять в том же самом ли
> заключается моя проблема...
 
Ну попробуйте обратиться к кому-нибудь за помощью, предоставив какую-нибудь возможность вам помочь.  Можно публично это сделать.  Например, на веб-форуме.  Например, на этом.


----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 16:38 25-03-2018
IgoryaN

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG, спасибо за советы. Буду искать к кому обратиться. ))

Всего записей: 457 | Зарегистр. 23-12-2003 | Отправлено: 19:07 25-03-2018
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Снова потерял. Как скачать (https://www.emeditor.com/?wpfb_dl=1), чтобы с оригинальным именем файл скачался, а не (index.html@wpfb_dl=1)?

Всего записей: 736 | Зарегистр. 16-08-2008 | Отправлено: 02:37 26-03-2018
irsemi

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VidelSamogO
--content-disposition
?

Всего записей: 89 | Зарегистр. 28-11-2016 | Отправлено: 03:38 26-03-2018
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
irsemi

Цитата:
--content-disposition  

Точно! Только сайт не отдаёт имя. ((

Всего записей: 736 | Зарегистр. 16-08-2008 | Отправлено: 08:51 26-03-2018
irsemi

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VidelSamogO

Цитата:
Только сайт не отдаёт имя

 

Код:
V:\tmp>wget --content-disposition --server-response "https://www.emeditor.com/?wpfb_dl=1"
--2018-03-26 22:10:08--  https://www.emeditor.com/?wpfb_dl=1
Resolving www.emeditor.com (www.emeditor.com)... 104.198.0.102
Connecting to www.emeditor.com (www.emeditor.com)|104.198.0.102|:443... connected.
HTTP request sent, awaiting response...
  HTTP/1.1 200 OK
  Server: nginx
  Date: Mon, 26 Mar 2018 19:10:06 GMT
  Content-Type: application/octet-stream
  Content-Length: 46754
  Connection: keep-alive
  Keep-Alive: timeout=20
  Last-Modified: Mon, 03 Oct 2016 17:18:39 GMT
  Content-MD5: jK4GvKksnKTUBLZC0dzDSw==
  ETag: "8cae06bca92c9ca4d404b642d1dcc34b"
  Content-Disposition: inline; filename="CssAutoComplete.jsee"
  WPE-Backend: apache
  X-WPE-Loopback-Upstream-Addr: 127.0.0.1:6789
  X-Cacheable: SHORT
  Vary: Accept-Encoding,Cookie
  Cache-Control: max-age=600, must-revalidate
  Accept-Ranges: bytes
  X-Cache: MISS
  X-Pass-Why:
  X-Cache-Group: normal
  X-Type: default
Length: 46754 (46K) [application/octet-stream]
Saving to: 'CssAutoComplete.jsee'
 
CssAutoComplete.jsee     100%[==================================>]  45.66K   215KB/s    in 0.2s

Может у Вас версия старая?

Код:
GNU Wget 1.19.1, a non-interactive network retriever.

 
 
Добавлено:
Кстати, я тут как-то спрашивал, но мне так и не ответили.
 
Запускаю под Windows CMD вот такой цикл:

Код:
for /L %I in (1,1,10) do @wget -O- "http://example.org/image.jpg" >nul

Он выполняется около 7 секунд, все это время процессор (i3, 4 потока) загружен на 80%, из них 40% приходится на процесс services.exe
Запуск wget для вывода справки или с неверными параметрами отрабатывается быстро и без нагрузки на процессор.
Это вообще нормально? У всех так?
 
ОС Windows 7 Home Basic x64 sp1
 
Под Линуксом (с загрузочной флешки) такого не наблюдается...

Всего записей: 89 | Зарегистр. 28-11-2016 | Отправлено: 22:18 26-03-2018
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Может у Вас версия старая

Да. Старьё 2003 года. )

Всего записей: 736 | Зарегистр. 16-08-2008 | Отправлено: 02:08 27-03-2018
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Как с помощью curl скачать через прокcи с https? Прокси тоже https. С вконтакте например, документ pdf.  
Ругается, пишет:

Код:
>curl --proxy47.0 61.845.87.129:3130 --ssl --ssl-allow-beas
t 'https://psv4.userapi.com/c527800/u172428718/docs/d5/1ec43707730c/Verkhoshansk
iy_Yu_V_-_osnovy_spetsialnoy_silovoy_podgotovki_v_sporte.djvu & dl=1' -O -J -L
curl: (1) Protocol "'https" not supported or disabled in libcurl
Bad command or filename - dl

Или в таком виде.

Код:
curl --header 'Host: vk.com' --header 'User-Agent: Mozilla/5.0 (Windows NT 5.1; rv:52.9) Gecko/20100101 Goanna/3.4 Firefox/52.9 PaleMoon/27.8.1' --header 'Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8' --header 'Accept-Language: ru-RU,ru;q=0.8,en-US;q=0.5,en;q=0.3' --header 'Content-Type: application/x-www-form-urlencoded' --header 'Cookie: remixlang=0; remixstid=2084525095_b60e79c0223a6a35b2; remixflash=27.0.0; remixscreen_depth=16; remixdt=0; remixsid=3bd9d0df8b3475183aaddd361e33eb8a2379532c0fd45841d5cd3; tmr_detect=0%7C1522299911432' --proxy1.0 91.240.87.109:3130 'https://psv4.userapi.com/c623800/u192325718/docs/d5/aec40707030c/Verkhoshanskiy_Yu_V_-_osnovy_spetsialnoy_silovoy_podgotovki_v_sporte.djvu?extra=ffw53685647Jev65379356846ZdfHZrhjHEw0Ud8G358935688425757335Zv-prrwOL4ww4274363146w&dl=1' -O -J -L
 

Может ему куки нужны?

Всего записей: 736 | Зарегистр. 16-08-2008 | Отправлено: 11:01 29-03-2018 | Исправлено: VidelSamogO, 11:28 29-03-2018
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VidelSamogO
 
> Ru.Board » Компьютеры » Программы » Wget  
> Как с помощью curl
 
:-\
 
> Ругается, пишет:
> Protocol "'https" not supported or disabled in libcurl
 
Нет, почему же, это вполне пристойно:

$ trans
> :ru
> Protocol "https" not supported or disabled in libcurl
Протокол «https» не поддерживается или отключен в libcurl null



----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 20:35 29-03-2018
los

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VidelSamogO,

Цитата:
Точно! Только сайт не отдаёт имя. ((

 
wget "https://www.emeditor.com/?wpfb_dl=1"
--2018-03-29 19:15:07--  https://www.emeditor.com/?wpfb_dl=1
Resolving www.emeditor.com... 104.198.0.102
Connecting to www.emeditor.com|104.198.0.102|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 46754 (46K) [application/octet-stream]
--2018-03-29 19:15:08--  https://www.emeditor.com/?wpfb_dl=1
Reusing existing connection to www.emeditor.com:443.
HTTP request sent, awaiting response... 200 OK
Length: 46754 (46K) [application/octet-stream]
Saving to: ‘CssAutoComplete.jsee’
 
CssAutoComplete.jsee           100%[====================================================>]  45.66K  82.3KB/s    in 0.6s    
 
2018-03-29 19:15:09 (82.3 KB/s) - ‘CssAutoComplete.jsee’ saved [46754/46754]

Всего записей: 533 | Зарегистр. 08-09-2001 | Отправлено: 21:17 29-03-2018
VidelSamogO



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Понял. libcurl нужен с разрешением.

Всего записей: 736 | Зарегистр. 16-08-2008 | Отправлено: 07:21 02-04-2018
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
VidelSamogO
 
Возьмите MimGW-64 сборку отсюда - https://bintray.com/vszakats/generic/curl/ она не требует внешних библиотек (Standalone build) кроме (если используете) OpenSSL 1.1.0.x и с если у вас стоит OpenSSL более старой версии просто переключится на WinSSL. кладёте в один каталог curl.exe и cur.ca-bundle.crt - достаточно, libcurl не требуется.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 24189 | Зарегистр. 31-07-2002 | Отправлено: 18:11 02-04-2018
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Привет. Когда скачивание происходит по списку ссылок из файла — пропускает ли Wget какие-то ссылки, если, к примеру, некоторое время не было соединения?

Всего записей: 737 | Зарегистр. 05-04-2010 | Отправлено: 03:12 03-04-2018
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru