Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1531 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: juvaforza, 17:27 01-09-2019
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
agatrid
Ну очень утрированно, например скачать *.txt с http://www.nncron.ru/download_ru.shtml
в батнике

Код:
 
@echo off
wget -O file_1.tmp http://www.nncron.ru/download_ru.shtml  
find ".txt""" file_1.tmp>file_2.tmp  
wget --base=http://www.nncron.ru/ --force-html -i file_2.tmp
del /q file_1.tmp & del /q file_2.tmp
 

 
 
 
 

Всего записей: 1648 | Зарегистр. 08-12-2004 | Отправлено: 20:21 26-04-2005 | Исправлено: igor_andreev, 00:41 27-04-2005
agatrid

Junior Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
igor_andreev
Благодарю

Всего записей: 59 | Зарегистр. 25-03-2005 | Отправлено: 12:31 04-05-2005
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
а как можно скачать web-страничку с форума, зайти на которую можно только через браузер, введя сначала логин и пароль?
(в коде сайта слова такие присутствуют типа php, mysql - ну, это так, на всякий случай )
 
p.s.
пробовал использовать такой формат
 
http://user:password@host/path
 
но, скачивается страница, на которой на писано: у вас нету доступа.

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 15:37 31-05-2005 | Исправлено: evgenych, 15:39 31-05-2005
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
evgenych
Так же скачивать, как и с рапидшары и иже с ними.
--cookies=off --header "Cookie: текст печеньки"
 
На всякий случай, если не знаешь, как узнать "текст печеньки"
Пишешь C:\WINDOWS\Web\mycookie.htm

Код:
 
<script language="vbscript">
prompt "Cookie for wget", external.menuArguments.document.cookie
</script>
 

 
Пишешь-запускаешь файл реестра

Код:
 
Windows Registry Editor Version 5.00  
 
[HKEY_CURRENT_USER\Software\Microsoft\Internet Explorer\MenuExt\Cookie for wget]  
@="C:\\WINDOWS\\Web\\mycookie.htm"  
"contexts"=dword:00000001  
 
 

 
И в Internet Explorer в любом месте страницы клацкни пункт в контекстном меню "Cookie for wget" и скопируй текст из окошка запроса. Проделаешь сие например на forum.ru-board.com - увидишь свой логин и пароль в открытом виде
 
P.S: Могу весь мой скрипт написать тут, если надо кому. У меня в контестном меню IE пункт "Download by wget", скачивается сразу любой файл без разговоров в заданную папку, и если еще что-нить выделено на странице, то выделенный текст ложится рядом со скачанным файлом в качестве комментария, а ля FlashGet
 
 

Всего записей: 1648 | Зарегистр. 08-12-2004 | Отправлено: 16:13 31-05-2005 | Исправлено: igor_andreev, 17:38 31-05-2005
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
 
P.S: Могу весь мой скрипт написать тут, если надо кому. У меня в контестном меню IE пункт "Download by wget", скачивается сразу любой файл без разговоров в заданную папку, и если еще что-нить выделено на странице, то выделенный текст ложится рядом со скачанным файлом в качестве комментария, а ля FlashGet  
 
 

 
Хочу
 
p.s. только как бы это все под Оперу заточить?

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 23:41 31-05-2005 | Исправлено: evgenych, 23:45 31-05-2005
8AleX8



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
только как бы это все под Оперу заточить?

http://opera-info.de/forum/thread.php?threadid=1656
http://softmemo.bblog.jp/category/wget/
 
 
Добавлено:

Цитата:
standard_menu (1).ini  
 
[Link Popup Menu]
Item, "to wget" = Execute program, "D:\OLS\Network\wget\WGET.EXE","-P /Data/Download %l --referer=%u"
 
[Image Link Popup Menu]
Item, "to wget" = Execute program, "D:\OLS\Network\wget\WGET.EXE","-P /Data/Download %l --referer=%u"
 
[Hotclick Popup Menu]
Item, "to wget" = Execute program, "D:\OLS\Network\wget\WGET.EXE","-P /Data/Download %t --referer=%u"

 
google

Всего записей: 1813 | Зарегистр. 11-12-2001 | Отправлено: 00:17 01-06-2005 | Исправлено: 8AleX8, 00:18 01-06-2005
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
p.s. только как бы это все под Оперу заточить?

A куки я не знаю как в Опере узнать , ею не пользуюсь, даже не знаю какие они из себя, оперовские. В IE методом тыка понял. А Wget вообще юзает кукисы в формате Netscape.

Всего записей: 1648 | Зарегистр. 08-12-2004 | Отправлено: 04:11 01-06-2005
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
2 igor_andreev,8AleX8
Спасибо. Поковыряюсь.
 
 

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 12:55 01-06-2005
volodyalipkin



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
igor_andreev

Цитата:
Могу весь мой скрипт написать  

Было бы интересно

Всего записей: 765 | Зарегистр. 12-10-2002 | Отправлено: 19:08 01-06-2005
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
volodyalipkin
 
C:\WINDOWS\Web\wgetnow.htm

Код:
 
<script language="VBScript">
  'страница, с которой скачиваем
  wgetHOST=external.menuArguments.location.host
  wgetREFERER=external.menuArguments.location.toString
   
  'Куки, нужны для скачивания с rapidshare.de, почтовых ящиков,
  'страниц с авторизацией и т.п. Хотя чаще всего они и не нужны.
  wgetCOOKIE=external.menuArguments.document.cookie
   
  'Линк, по которому щелкнули мышой
  wgetURL=external.menuArguments.event.srcElement.href
   
  'Меняем в линке, если есть, амперсанды на "%26" и пробелы на "%20"
  '(отдельные несознательные личности делают папки на ФТП с пробелами)
  'можно при надобности замену квадратных скобок [ ] или еще много  
  'чего сделать-заменить  
  wgetURL=Replace(wgetURL, Chr(32), "%20")
  wgetURL=Replace(wgetURL, Chr(38), "%26")
   
  'Проверяем, не пытаемся ли мы скачать с mailto:, gopher:, file: или еще откуда.
  wgetPROT=external.menuArguments.event.srcElement.protocol
  If wgetPROT="ftp:" or wgetPROT="http:" or wgetPROT="https:"  Then
    Set fso = CreateObject("Scripting.FileSystemObject")
     
    'если ссылка вида someword.cgi?link меняем "?" на знак подчеркивания  
    'для имени лога, бо винда ругаться будет.
    gname = fso.GetFileName(wgetURL)
    gname =Replace( gname, "?", "_")
    wgetLOG="D:\download\"&gname&".txt"
     
    'проверяем, есть ли на странице выделенный мышью текст,
    'если есть - будет в качестве комментария к скачиваемому файлу
    set parentwin = external.menuArguments
    set doc = parentwin.document
    set sel = doc.selection
    set rng = sel.createRange()
    'можно убрать, цвет фона выделенного текста меняем для наглядности
    rng.execCommand "BackColor", false, "#ffff00"
     
    'создаем файл описания, он же лог-файл для wget  
    Set f = fso.OpenTextFile(wgetLOG, 2, true)
    f.WriteLine (String(78, "-"))
    f.WriteLine "Time: " & Date() & Chr(32) & Time()
    f.WriteLine "Host: " & wgetHOST
    f.WriteLine "Referer: " & wgetREFERER
    f.WriteLine "File: " & wgetURL
    f.WriteLine "Cookie: " & wgetCOOKIE
    f.WriteLine "Comment: "
    f.Write rng.Text & vbCRLF
    f.WriteLine (String(78, "-"))
    f.Close  
       
    Set WshShell=CreateObject("WScript.Shell")
    'переходим в директорию для закачки
    WshShell.CurrentDirectory="D:\download\"
    'и качаем
    WshShell.Run "wget.exe --referer="&wgetREFERER&Chr(32)&_
    "--cookies=off --header "&chr(34)&"Cookie: "&wgetCOOKIE&chr(34)&Chr(32)&_
    "-a"&wgetLOG&Chr(32)&wgetURL, 7, false
    If Err<>0 then Err.Clear    
    Set fso=Nothing
    Set WshShell=Nothing
  Else
    alert("Invalid URL for Wget :"&vbCRLF&wgetURL)
  End If
</script>
 

 
Ну и рег-файл

Код:
 
Windows Registry Editor Version 5.00
 
[HKEY_CURRENT_USER\Software\Microsoft\Internet Explorer\MenuExt\Download by wget]
@="C:\\WINDOWS\\Web\\wgetnow.htm"
"contexts"=dword:00000022
 
 

 
В wgetnow.htm пару раз попадается D:\download - сменить на свою папку.
В WshShell.Run "wget.exe - сколько угодно своих опций вписывать, мне оно не надо, все verbose=, server_response=, user-agent= и прочее в .wgetrc храню. Повесил открытие .wgetrc в блокноте на хоткей, мне так удобнее опции править.  
 

Всего записей: 1648 | Зарегистр. 08-12-2004 | Отправлено: 23:53 01-06-2005 | Исправлено: igor_andreev, 01:17 02-06-2005
8AleX8



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
igor_andreev
Ай шайтан! Молодца!

Всего записей: 1813 | Зарегистр. 11-12-2001 | Отправлено: 00:41 02-06-2005 | Исправлено: 8AleX8, 00:48 02-06-2005
8AleX8



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Вышел Wget 1.10.  
http://xoomer.virgilio.it/hherold/
http://xoomer.virgilio.it/hherold/wget-1.10b.zip

Цитата:
GNU Wget NEWS -- history of user-visible changes.
 
Copyright (C) 2005 Free Software Foundation, Inc.
See the end for copying conditions.
 
Please send GNU Wget bug reports to <bug-wget@gnu.org>.

* Changes in Wget 1.10.GNU Wget NEWS -- history of user-visible changes.
 
Copyright (C) 2005 Free Software Foundation, Inc.
See the end for copying conditions.
 
Please send GNU Wget bug reports to <bug-wget@gnu.org>.

* Changes in Wget 1.10.
 
** Downloading files larger than 2GB, sometimes referred to as "large
files", now works on systems that support them.  This includes the
majority of modern Unixes, as well as MS Windows.
 
** IPv6 is now supported by Wget.  Unlike the experimental code in
1.9, this version supports dual-family systems.  The new flags
`--inet4' and `--inet6' (or `-4' and `-6' for short) force the use of
IPv4 and IPv6 respectively.  Note that IPv6 support has not yet been
tested on Windows.
 
** Microsoft's proprietary "NTLM" method of HTTP authentication is now
supported.  This authentication method is undocumented and only used
by IIS.  Note that *proxy* authentication is not supported in this
release; you can only authenticate to the target web site.
 
** Wget no longer truncates partially downloaded files when download
has to start over because the server doesn't support Range.  Instead,
with such servers Wget now simply ignores the data up to the byte
where the last attempt left off, and only then continues appending to
the file.  That way the downloaded file never shrinks, and download
retries from servers without support for partial downloads work even
when downloading to stdout.
 
** SSL/TLS changes:
 
*** SSL/TLS downloads now attempt to verify the server's certificate
against the recognized certificate authorities.  This requires CA
certificates to have been installed in a location visible to the
OpenSSL library.  If this is not the case, you can get the bundle
yourself from a source you trust (for example, the bundle extracted
from Mozilla available at http://curl.haxx.se/docs/caextract.html),
and point Wget to the PEM file using the `--ca-certificate'
command-line option or the corresponding `.wgetrc' command.
 
*** Secure downloads now verify that the host name in the URL matches
the "common name" in the certificate presented by the server.
 
*** Although the above checks provide more secure downloads, they
unavoidably break interoperability with some sites that worked with
previous versions, particularly those using self-signed, expired, or
otherwise invalid certificates.  If you encounter "certificate
verification" errors or complaints that "common name doesn't match
requested host name" and are convinced of the site's authenticity, you
can use `--no-check-certificate' to bypass both checks.
 
*** Talking to SSL/TLS servers over proxies now actually works.
Previous versions of Wget erroneously sent GET requests for https
URLs.  Wget 1.10 utilizes the CONNECT method designed for this
purpose.
 
*** The SSL/TLS-related options have been redesigned and, for the
first time, documented in the manual.  The old, undocumented, options
are no longer supported.
 
** Passive FTP is now the default FTP transfer mode.  Use
`--no-passive-ftp' or specify `passive_ftp = off' in your init file to
revert to the old behavior.
 
** The `--header' option can now be used to override generated
headers.  For example, `wget --header="Host: foo.bar"
http://127.0.0.1' tells Wget to connect to localhost, but to specify
"foo.bar" in the `Host' header.  In previous versions such use of
`--header' lead to duplicate headers in HTTP requests.
 
** The responses without headers, aka "HTTP 0.9" responses, are
detected and handled.  Although HTTP 0.9 has long been obsolete, it is
still occasionally used, sometimes by accident.
 
** The progress bar is now updated regularly even when the data does
not arrive from the network.
 
** Wget no longer preserves permissions of files retrieved by FTP by
default.  Anonymous FTP servers frequently use permissions like "664",
which might not be what the user wants.  The new option
`--preserve-permissions' and the corresponding `.wgetrc' variable can
be used to revert to the old behavior.
 
** The new option `--protocol-directories' instructs Wget to also use
the protocol name as a directory component of local file names.
 
** Options that previously unconditionally set or unset various flags
are now boolean options that can be invoked as either `--OPTION' or
`--no-OPTION'.  Options that required an argument "on" or "off" have
also been changed this way, but they still accept the old syntax for
backward compatibility.  For example, instead of `--glob=off' you can
write `--no-glob'.
 
Allowing `--no-OPTION' for every `--OPTION' and the other way around
is useful because it allows the user to override non-default behavior
specified via `.wgetrc'.
 
** The new option `--keep-session-cookies' causes `--save-cookies' to
save session cookies (normally only kept in memory) along with the
permanent ones.  This is useful because many sites track important
information, such as whether the user has authenticated, in session
cookies.  With this option multiple Wget runs are treated as a single
browser session.
 
** Wget now supports the --ftp-user and --ftp-password command
switches to set username and password for FTP, and the --user and
--password command switches to set username and password for both FTP
and HTTP.  The --http-passwd and --proxy-passwd command switches have
been renamed to --http-password and --proxy-password respectively, and
the related http_passwd and proxy_passwd .wgetrc commands to
http_password and proxy_password respectively.  The login and passwd
.wgetrc commands have been deprecated.
 
* `wget -b' now works correctly under Windows.

Всего записей: 1813 | Зарегистр. 11-12-2001 | Отправлено: 01:52 11-06-2005 | Исправлено: 8AleX8, 02:01 11-06-2005
Activium

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите, а как можно закачать графический файл wget'ом из браузера (конкретно из Оперы), когда в браузере используется режим просмотра веб-контента без загрузки графики (No images). Причём надо загрузить не все графические файлы на странице, а только один вполне определённый файл. Я прописал в Оперном меню следующий пункт

Код:
 
[Image Link Popup Menu]
...
Item, "Download by wget" = Execute program, "c:\wget\wget.exe","-A jpg,JPG,jpeg,JPEG,gif,GIF %l"
 

но он не работает так, как хотелось бы. Может надо что-то другое прописать вместо %l? Пробовал %u, но тоже не срабатывает.
 
К примеру, вот как с этой страницы загрузить кнопку "Oткрыть новую тему" при упомянутых условиях (режим No images)?
 
И небольшой оффтоп: а где, собственно, можно почитать про все эти %l, %u? google не хочет находить эти комбинации символов - трактует их просто как "l" и "u".

Всего записей: 58 | Зарегистр. 06-11-2003 | Отправлено: 19:49 12-06-2005 | Исправлено: Activium, 19:50 12-06-2005
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подскажите, это у меня только так, или баг в stable 1.10 ?
Если указать несколько файлов для скачивания, то в конце не пишет цифру, сколько всего байт загрузил.
Например в одну строчку
wget http://www.nncron.ru/download/plugins/procwin.spf http://www.nncron.ru/download/plugins/process.spf
И в конце выдает:
Downloaded:  bytes in 2 files
С параметром -i file.lst тоже самое, если несколько адресов в file.lst

Всего записей: 1648 | Зарегистр. 08-12-2004 | Отправлено: 20:34 12-06-2005 | Исправлено: igor_andreev, 20:38 12-06-2005
Activium

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
igor_andreev
у меня тоже самое

Всего записей: 58 | Зарегистр. 06-11-2003 | Отправлено: 04:01 13-06-2005
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Вылетел чего то stable 1.10 у меня несколько раз подряд без предупреждения и обьяснений. Просто качал-качал и тихо закрывался, не закончив работу и не написав ничего в логах. Кажется они поторопились его зарелизить, откатился на 1.9.1

Всего записей: 1648 | Зарегистр. 08-12-2004 | Отправлено: 05:02 13-06-2005
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А как можно скачать wget'ом вот такое дело:
 
_http://name.nextmail.ru/file1.rar
_http://name.nextmail.ru/file2.rar
...
_http://name.nextmail.ru/file13.rar

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 01:01 05-07-2005 | Исправлено: evgenych, 01:02 05-07-2005
nemorino75

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
evgenych
-i ФАЙЛ
--input-file=ФАЙЛ
Читать список URL из ФАЙЛА, в этом случае нет необходимости вводить URL в командной строке. Если же они присутствуют в обоих местах: и в командной строке, и в файле; то впервую очередь будут обработаны URL из командной строки. ФАЙЛ не обязательно должен быть в формате HTML, хотя HTML тоже допустим, достаточно чтобы URL были перечислены последовательно.

Всего записей: 713 | Зарегистр. 07-02-2003 | Отправлено: 01:47 05-07-2005
Oleg_II



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Уважаемые!
Пользуюсь wget'ом в FireFox с помощью расширения DownloadWith. А можно ли без расширения? Что-то прописать в конфиге?
Регардсы,
Олег 2

Всего записей: 2844 | Зарегистр. 30-09-2002 | Отправлено: 02:21 05-07-2005 | Исправлено: Oleg_II, 02:21 05-07-2005
evgenych

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
nemorino75
Когда такую ссылку (_http://name.nextmail.ru/file1.rar) вставляешь в регет скачивается страничка download_gate, на которой ссылка на этот файл
и называется она уже, к примеру, так
http://nextmail.ru/sto/getfile.php?s=aa6efd5f4e04ac3318286d10bd3ab6ed&filename=427261-42c97c6f6e8322.70126163
 
 
Вот в таком случае можно ли скачать список файлов
_http://name.nextmail.ru/file1.rar  
_http://name.nextmail.ru/file2.rar  
...  
_http://name.nextmail.ru/file13.rar

Всего записей: 189 | Зарегистр. 20-07-2003 | Отправлено: 05:12 05-07-2005
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru