Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
sis_terr



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
 ......    
> строчка с COOKIE.TXT  содрана с другого работающего с cookies батника
мне эту строчку дали тут на 43 стр, а я по принципу - не понимаешь - работает! - не трогай)))
 
> задается в GET-параметрах  
   ага, буду знать значение этого термина
 
>Итак, httrack вы установили?
упс, оказывается это другая программа! ))))
 
ого, оказываеся весьма серьёзная! так она и без Wget может всё скачать,
 тока надо еще и в ней разобраться )))
 
а вопрос изначально был простой
как можно скачать полноразмерные не набивая ссылки на каждое фото?    
 
я упрощу вопрос - как скачать картинки от
http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b10a.jpg
до
http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24u.jpg
не набивая в list.txt 240 строчек
 
Подробнее...

Всего записей: 1288 | Зарегистр. 20-12-2007 | Отправлено: 13:04 18-04-2011 | Исправлено: sis_terr, 13:06 18-04-2011
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, sis_terr
 
Сразу предупреждаю, что никогда в Wget --post-data не использовал и не уверен, как будет себя вести.
Попробуйте следующее:

Код:
 
wget.exe -c -i  --save-cookies cookies.txt --post-data "login=******&password=*****" "http://www.fotoclub.info/festival/login.html"  
 
wget --load-cookies cookies.txt  -c -r -l 2 -p -I"*photo*" "http://www.fotoclub.info/festival/collection/preview.html?club_id=162"  

 
 
Используя cookies (--load-cookies cookies.txt) закачивать с возобновлением  (-c)  рекурсивно, уровень вложенности 2  (-r  -l 2)  только ссылки, содержащие слово "photo"  (-I"*photo*") с страницы  "http://www.fotoclub.info/festival/collection/preview.html?club_id=162"
 
С "http://fotoclub.info/profile/radosvet/"  без входа на сайт вроде сработало. А для "White Rabbit" нужен вход.

Всего записей: 1695 | Зарегистр. 07-08-2002 | Отправлено: 17:54 18-04-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sis_terr
> как скачать картинки от  
> http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b10a.jpg  
> до  
> http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24u.jpg  
> не набивая в list.txt 240 строчек
А вы уверены, что такой диапазон существует, это не случайные числа? Если да, то откуда взяли число 240? 7b24u – 7b10a = 14i (по основанию 36), т.е. 1460 по основанию десять.
В общем, сгенерировать подобный list.txt проще простого, но это: а) не вопрос данной темы; б) мне кажется, не даст вам желаемого результата.
 


Alex_Piggy
> wget --load-cookies cookies.txt  -c -r -l 2 -p -I"*photo*" "http://www.fotoclub.info/festival/collection/preview.html?club_id=162"
И у вас это отработало с ожидаемым результатом? Если да, то какая версия сабжа?

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 23:08 18-04-2011 | Исправлено: ASE_DAG, 23:08 18-04-2011
sis_terr



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Alex_Piggy, так качает только превьюшки
которые находятся в папке  
http://www.fotoclub.info/-imgs/fest/photo/size2
а надо полноразмерные из  
http://www.fotoclub.info/-imgs/fest/photo/size1
 
по общедоступной части сайта фотки лежат так
превью
http://sv.fotoclub.info/profile/mvn/-photos/size2/6k/photo_1302715273_fb9a5.jpg
полноразмерная
http://sv.fotoclub.info/images/rubricator_photo/big/6k/photo_1302715273_fb9a5.jpg
 
ASE_DAG 240 - оставшееся количество нескачанных  
диапазон взят от  клуба, который самый первый выложил фотки, до самого опоздавшего,
  все фото в этом диапазоне, наверно есть пропуски
ну а в общем, меня интересует как сделать счётчик,  
периодически приходится качать картинки с одного форума,
а там набегает от 90 до 260 страничек, вот не хочется набивать километровый list.txt
 

Всего записей: 1288 | Зарегистр. 20-12-2007 | Отправлено: 12:22 19-04-2011 | Исправлено: sis_terr, 14:02 19-04-2011
king_stiven

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Хотел торрент файлы скачать. Я так понял, надо сначала кукисы получить. Затем вгетом скачать странички с ссылками на торнт файлы. Пропарсить их и выдрать ссылки на торент файлы несложно будет, и затем опять же вгетом хочу скачать сами торент файлы. Винда XP
Как это сделать? Пока читаю тему.
 
wget --keep-session-cookies --save-cookies COOKIE.TXT --post-data "login=login&password=password" "http://kinozal.tv/login.php"
 
не пашет

Всего записей: 2141 | Зарегистр. 17-07-2006 | Отправлено: 17:10 19-04-2011 | Исправлено: king_stiven, 17:51 19-04-2011
igor_andreev

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
king_stiven
 
Попробуй --post-data "username=1111&password=2222" "http://kinozal.tv/takelogin.php"

Всего записей: 1644 | Зарегистр. 08-12-2004 | Отправлено: 18:05 19-04-2011
king_stiven

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
igor_andreev
Спасибо, чётко как часики.

Всего записей: 2141 | Зарегистр. 17-07-2006 | Отправлено: 18:28 19-04-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sis_terr
> а надо полноразмерные
Вопросы по способу применения httrack'a в данном случае, если что-то еще не понятно, давайте в соответствующую тему. ;)
 
> как сделать счётчик
Ну я бы сделал
$ for i in {0..<LAST>...<INCREMENT>}; do wget "http://forum.example.org/topic.cgi?topic=10066&start=$i"; done
 
или, если верхняя граница неизвестна и форум возвращает ошибку при запросе несуществующей страницы темы:
$ i=0; while `wget "http://forum.example.org/topic.cgi?topic=10066&start=$i"`; do ((i+=<INCREMENT>)); done
 
Как вам сделать — спросите в теме по вашему любимому скриптовому интерпретатору. :)

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 19:37 19-04-2011 | Исправлено: ASE_DAG, 22:29 19-04-2011
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день
 
@ASE_DAG
Да, сработало. На Win98 версия 11.4 от Bart Puype.
httrack всем хорош только медленно работает (на 500 kBps подключении реальная скорость 5-10). Или это с системой?
 
@sis_terr
Угу,нашел, понял.  
Ссылки на страницу с фотками имеют вид fotoclub.info/festival/collection/preview.html?club_id=118&photo_id=591  в отличие от fotoclub.info/photos/photo_1245.html, на которых я проверял
 
тогда  
или
wget.exe -c -r -l 1 -np -p "http://www.fotoclub.info/festival/collection/preview.html?club_id=121"  
и постепенно увеличивать  -l  пока не закачаются те фотки, что надо (в дальнейшем так и использовать). (При этом закачаются страницы соседних клубов с предпросмотром, могут даже и сами фотки)
 
или вручную выбирать фотки с помощью sed.exe (gnuwin32.sourceforge.net/packages/sed.htm)
start.bat

Код:
 
wget "http://www.fotoclub.info/festival/collection/preview.html?club_id=%1" -O 1.txt
sed -n -u -f 1.scr 1.txt >2.txt
wget -i -c  2.txt -p -P "%1"  
[\code]
 
1.scr
[code]
s/.*\"\([^\x22]*photo_id[^\x22]*\)".*/http\:\/\/www.fotoclub.info\1/gp
 

 
"start.bat 121" скачает фотки 121 клуба.
1.srt - скрипт для sed - stdout, который вытащит из html все ссылки, содержащие слово photo_id (или любое другое характерное слово).  
Но тогда нужно ставить SED.  
Если ссылки с страницы форума, то можно парсить точно также прямо с форума.
 
PS. В смысле, все wget с cookies
 
Edited: Не могу привести в нормальный вид. Два файла start.bat (3 строки) 1.scr (1 строка).

Всего записей: 1695 | Зарегистр. 07-08-2002 | Отправлено: 14:47 20-04-2011 | Исправлено: Alex_Piggy, 14:50 20-04-2011
sis_terr



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Alex_Piggy, никак не могу въехать в эти сложности с обращением к дополнительным или иными программам
 
есть папка с фотками
 http://www.fotoclub.info/-imgs/fest/photo/size1/  
если набить текстовый файлик со ссылками типа
http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24c.jpg  
http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24d.jpg  
http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24f.jpg  
http://www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24k.jpg  
то всё качается, даже без заморочек с cookies.txt а если
http://www.fotoclub.info/-imgs/fest/photo/size1/*.jpg  
чёт не хочет
 
Добавлено:
перебрала все варианты,-A"*.jpg" тоже не работает,
 как правильно написать эту часть  
чтоб скачать все jpg  с папки?

Всего записей: 1288 | Зарегистр. 20-12-2007 | Отправлено: 15:37 20-04-2011 | Исправлено: sis_terr, 17:14 20-04-2011
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Хорошо, дополнительные программы пропустим.
 
Wget не поддерживает маски в http, только по ftp. HTTP - только по прямым ссылкам. (напр. www.fotoclub.info/-imgs/fest/photo/size1/img_1302436842_7b24k.jpg)
Если бы администрация фотоклуба разрешила просматривать содержимое их папок, то проблем так же не было бы.
 
Поэтому сначала нужно найти прямые ссылки на все необходимые файлы.
Угадывать или пробовать попорядку их практически бесполезно - неизвестен алгоритм создания имени файла и система исчисления.
 
wget -r  закачивает страницу, затем все ссылки, которые присутствуют на этой странице. Проблема в том, что там есть ссылки и на другие клубы, которые тоже начнут закачиватся.  
 
К сожалению, очень сложно отделить страницу клуба от страницы фотографии
 
Поэтому и предлагал  просто  
wget.exe -c -r -l 1 -np -p "http://www.fotoclub.info/festival/collection/preview.html?club_id=121"  
Закачиваете при -l 1, смотрите, попали или не попали нужные фотографии, затем ставите -l 2 т.д. Но может быть, что на главной странице клуба не все фотки.
 
Если прямые ссылки есть где-то в форумах или еще где, то можно поступить проще
wget -c -x --force-html -i txt.html  
Эта команда закачает все файлы, на которые есть ссылки в данном html. Т.е. Вы открываете страницу форума, затем сохраняете ее на диск и напускаете wget.
 
Вернемся к фотоклубу
Во время его исследования я обнаружил, что бОльшую часть фоток можно добыть по их ID.
http://www.fotoclub.info/photo/87013.html  (для авторских работ, пример ID=87013)
http://www.fotoclub.info/festival/collection/preview.html?club_id=101&photo_id=600 (для клубов, пример ID=600 )
, используя FOR из стандартных команд WinXP,  как и предлагал ASE_DAG  
 FOR /L %%parameter IN (start,step,end) DO command  

Код:
 
FOR /L %%G IN (1,1,800) DO wget -c -p http://www.fotoclub.info/festival/collection/preview.html?club_id=101&photo_id=%%G
или
FOR /L %%G IN (1,1,800) DO wget -c -p http://www.fotoclub.info/photo/%%G.html
 

Эта команда скачает все фотки с сайта fotoclub.info, под внутренними номерами от 1 до 800. Вход под паролем скорее всего понадобится, хотя кто знает. К сожалению, проверить не могу, т.к. сижу на 98. Не уверен как будет правильнее писать - %%G или %G - одно для командной строки, другое для bat-файла.
К сожалению, получается что можно закачать сотни тысяч фоток с их сайта, но очень сложно скачать какие-либо конкретные в автоматическом режиме (на то он и автоматический)
 
Так же к сожалению, понятнее объяснить не могу. Попробуйте через wget -c -x --force-html -i txt.html с страницей форума.
 
 
 
 

Всего записей: 1695 | Зарегистр. 07-08-2002 | Отправлено: 17:48 20-04-2011
sis_terr



Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
все конкурсные фото свалены в одну папку, без привязки к ID,
 можно зайти на общедоступные     коллекции предыдущего года и посмотреть .
 
почитала   там и 13.7.2 Более сложные примеры , пробовала варианты, но чего то не срабатывает,  
думаю что где то в синтаксисе ошибаюсь

Всего записей: 1288 | Зарегистр. 20-12-2007 | Отправлено: 19:52 20-04-2011 | Исправлено: sis_terr, 20:19 20-04-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Alex_Piggy
> Да, сработало. На Win98 версия 11.4 от Bart Puype.
Хехех... Подтверждаю, сборка Барта Пипа в отличие от оригинального вэ-гета относит маски, заданные ключом -I (-X) и к параметрам в том числе.
Интересно, баг это или фича.

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 20:32 20-04-2011
aageeff



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
имеется сайт с точками геокэшинга http://www.opencaching.com.
Файлы кэшей хранятся в виде http://www.opencaching.com/api/geocache/OX@@@@@.gpx (вместо символа @ - 4 либо 5 букв и цифр).
 
диапазон достаточно большой, однако я бы попробовал выкачать все имеющиеся кэши.
 
подскажите, пожалуйста, как натравить на это дело wget?

Всего записей: 2 | Зарегистр. 13-07-2009 | Отправлено: 10:04 21-04-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
aageeff
> OX@@@@@.gpx (вместо символа @ - 4 либо 5 букв и цифр)
Хотите сделать 2 176 782 335 запросов к серверу?

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 22:31 21-04-2011
king_stiven

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
aageeff
Может пропарсить страницу на  ссылки?

Всего записей: 2141 | Зарегистр. 17-07-2006 | Отправлено: 22:33 21-04-2011
aageeff



Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
да я прикинул на калькуляторе ... собсно и время и канал у меня есть..  
 
страница генерируется динамически.. там не html (флеш наверное).. как выдрать оттуда линки - я не знаю..

Всего записей: 2 | Зарегистр. 13-07-2009 | Отправлено: 09:21 22-04-2011
Alex_Piggy

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Добрый день, aageeff
Смотрел, пропарсить не получится. Разве что попросить разработчиков, что бы дали доступ к API (вроде дают).
Вчера ради интереса попробовал написать  генератор ссылок на это задание. Размер получившегося файла - 483 mB (и это только последовательность [0-9,A-Z]{5}). Полный файл ссылок (только ссылок!) будет, наверное гиг 5. Могу скинуть генератор, но дважды подумай. Если что,- в личку.

Всего записей: 1695 | Зарегистр. 07-08-2002 | Отправлено: 12:17 22-04-2011
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
aageeff
> страница генерируется динамически.. там не html (флеш наверное).. как выдрать оттуда линки - я не знаю
Ссылка?
 
>> Хотите сделать 2 176 782 335 запросов к серверу?
> да я прикинул на калькулятор собсно и время и канал у меня есть
И сколько у вас по времени получилось?
 
Добавлено:
Alex_Piggy
> полный файл ссылок (только ссылок!) будет, наверное гиг 5
Ошиблись на два порядка: 105 Гб. :) Но файл ссылок, вообще говоря, генерить и не надо.
 
> 483 mB
Миллибелл? :D

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 19:29 22-04-2011 | Исправлено: ASE_DAG, 19:56 22-04-2011
juvaforza

Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Хорошие новости: Can you please check if it works well for you now?

Всего записей: 2884 | Зарегистр. 26-11-2005 | Отправлено: 23:00 22-04-2011
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru