Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты).
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1528 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: mithridat1, 08:56 13-02-2019
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
Получилось, но не до конца доведено. Сохранил нужное и ненужное в папке, запустил для этой папки "Окно команд", ввёл $ ls -v *-*.jpg для сортировки, не сработало, в отказе написано : "$" не является внутренней или внешней командой, исполняемой программой или пакетным Файлом.
Через чего запускать предложенные команды ?  
Изредка пользуюсь "Командной строкой", случается иногда использовать "Выполнить",  
сегодня прознал о существовании "Окон команд" для отдельных папок, не удивлюсь если откроется новый горизонт познания  

Всего записей: 996 | Зарегистр. 03-02-2007 | Отправлено: 00:08 06-10-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Aalai
> Получилось
 
На чем?  Более старый Файрфокс?
 
> "$" не является внутренней или внешней командой
 
$ — это приглашение командной строки, символизирующее отсутствие сверхпользовательских прав (на самом деле оно может быть другим).  Подробнее смотрите в шапке ветки «Новичок в ГНУ/Линуксе».
 
Но у вас-то, я так понимаю, операционная система, отличная от ГНУ.  Винда?  Тогда есть такая штука, как «Цигвин» — достаточно полная поставка окружения ГНУ для Винды.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 00:16 06-10-2016 | Исправлено: ASE_DAG, 00:19 06-10-2016
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
На чем?  Более старый Файрфокс?

На рабочем, последней версии. Не знаю почему заработало. А портативный так и не хочет )
У меня Винда... потренируюсь.

Всего записей: 996 | Зарегистр. 03-02-2007 | Отправлено: 00:27 06-10-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Aalai> У меня Винда
 
Да, я догадался.  Сочувствую.
 
> потренируюсь
 
Если будут вопросы — смело спрашивайте, только здесь довольно уже офтопить, давайте либо в ветку по Цигвину (если что не устанавливается и т. п.), либо в «UNIX Shell» (если по самому языку и утилитам вопросы).

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 00:37 06-10-2016
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG

Цитата:
Да, я догадался.  Сочувствую.
Излишне. Мне нравится моя семёрка  

Цитата:
...давайте либо в ветку по Цигвину...
Спасибо, если что, непременно воспользуюсь приглашением
 
Люди добрые не взыщите за отступление от темы, так получилось.  
 
Добавлю...
Подсказали как в Винде в папках собирать каждый тип файлов в отдельные группировки Флейм раздела «Microsoft Windows» , вещь весьма удобная )
 
Обращаясь сюда до последнего дня не имел понятия, что здесь территория далеко не Windows-кая, тем не менее
вражеский лагерь не погнал в шею и практически на пальцах объяснил как решить возникший вопрос  
Всем, спасибо и удачи !

Всего записей: 996 | Зарегистр. 03-02-2007 | Отправлено: 01:29 06-10-2016 | Исправлено: Aalai, 04:12 06-10-2016
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Привет.
 
Диспозиция:
ОС: WinXP+Sp3
Обьект(для примера): страница на самиздате
Средство: wGet (с соотв. ключами + обвязка на gAwk и CMD [скрипты])
Цель: отслеживать (обнаруживать) новое и скачивать оное на свой комп
Запуск/отработка: полностью автоматически (по расписанию) + вручную (при надобности)
 
Вопросы:
 
1. Может быть уже известно "где взять" готовое решение?
Я знаю, что такие есть, но не знаю где...
 
2. Насколько удачен выбор wGet как основного средства для?
Может быть есть что-то более подходящее?
 
3. Т.к. потребный результат явно выходит за рамки топика,
то может быть мне следует перебраться в другое место?
Если "да", то куда?
 
Спасибо.
---
Удачи!
Влад.

Всего записей: 229 | Зарегистр. 14-02-2009 | Отправлено: 09:30 31-10-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
NvvLazyTiger
 
Проверка через nnCron с плагинами и из него же запускать задачу скачивания. Просто, эффективно, надёжно.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23417 | Зарегистр. 31-07-2002 | Отправлено: 13:15 31-10-2016
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо, Victor_VG, но...

Цитата:
Проверка через nnCron с плагинами и из него же запускать задачу скачивания. Просто, эффективно, надёжно.

1. Возможности планировщика nnCron сильно избыточны (для меня). Запуск задания один раз в сутки, можно организовать гораздо проще.
 
2. В качестве средства доступа/скачивания страниц с сайтов, связка "nnCron + плагин http.spf" заметно проигрывает wGet по функционалу (при решении конкретной задачи специализированный инструмент обычно эффективнее универсального).
 
3. Устойчивость (надёжность) искомого решения не особо значима. Это решение таки для рабочей станции, а не для сервера. Т.е. оно будет обеспечено присмотром. Как и любое подобное "[решение] на коленке"...
 
4. Самое существенное. Обеспечение обнаружения не любых, а именно значимых изменений - отсутствует. Т.е. всё равно придётся писать парсер/анализатор/формирователь запросов (с соответствующими обвязкой и обеспечением [в т.ч. и ведение архива изменения значений важных признаков]).
 
Поясню: приведённая "для примера" страница меняется довольно часто, а вот собственно важные изменения - увы:
а) дата в конструкции "• Обновлялось: дд/мм/гггг";
б) отметки "• Upd" и "• New" у "свежачка".
 
Вывод: примение nnCron (для моей задачи) целесообразно только если оный уже освоен и используется в решении других задач. В моём же случае - разумнее освоить "с нуля" только wGet (остальное мне достаточно знакомо).
 
... Если не найдётся уже готовое (в приемлемой степени) решение для.
 
Сожалею.

Всего записей: 229 | Зарегистр. 14-02-2009 | Отправлено: 08:08 01-11-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
NvvLazyTiger
 
Тогда элементарно - wget -N -c -r -k -p --no-check-certificate <url> и не удаляем файлы из каталога-приёмника т.к. ключ -N (в полной форме --timestamping) предписывает не загружать файл если он не новее локального, остальное: рекурсия, скачать все изображения и конвертировать ссылки в относительные для локального просмотра...

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23417 | Зарегистр. 31-07-2002 | Отправлено: 15:32 02-11-2016 | Исправлено: Victor_VG, 15:33 02-11-2016
srkr

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Можно ли, не закачивая страницы, закачать только данные о странице. Чтобы узнать, произошли ли какие-то изменения? Страница увеличилась или уменьшилась?

Всего записей: 56 | Зарегистр. 14-12-2009 | Отправлено: 18:02 02-11-2016
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
srkr
Цитата:
wget -S --spider <url>
там будут заголовки, и с размером, и с временем изменения.

Всего записей: 7896 | Зарегистр. 11-03-2002 | Отправлено: 18:26 02-11-2016
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо, Victor_VG, работает, но... как-то не так как надо...

Цитата:
wget -N -c -r -k -p --no-check-certificate <url>
<url> == ht~tp://samlib.ru/a/abwow_a_s (без символа "~")
Принудительно остановил работу минут через 20, - не понравились "урл"-ы в выдаче на StdOut.
 
Выяснилось что процесс, похоже, попытался притащить на мой комп ВЕСЬ ресурс samlib.ru.
И не исключено что не только этот [ресурс]...
 
... Сурово...
 
... продолжаю пока писать парсер/анализатор.
Бо, доступ у меня довольно медленный, да и винт не очень большой.
 
Sad smile...
 
~~~
Вдогонку...
 
Ключ "--domains=ht~tp://samlib.ru/a/abwow_a_s/*.*" не помогает ограничиться только страницами автора.
Скачивается лишь одна страница (по заданному адресу).
Т.е. рекурсия оказывается как бы заблокирована.

Всего записей: 229 | Зарегистр. 14-02-2009 | Отправлено: 06:45 03-11-2016 | Исправлено: NvvLazyTiger, 07:03 03-11-2016
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
NvvLazyTiger
Вообще-то есть ключи для включения/исключения доменов, а есть - для директорий. А у вас вся каша в одну строку.
А вообще, есть для этого ключ -np (--no-parent)

Всего записей: 7896 | Зарегистр. 11-03-2002 | Отправлено: 09:18 03-11-2016
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ > есть для этого ключ -np (--no-parent)
 
Увы.
Цитата:
wget -N -c -r -k -p --no-check-certificate -np http://samlib.ru/a/abwow_a_s

С ключом -np лучше, но тоже как бы не совсем то...
 
Т.к. за короткое время у процесса обозначилось желание притащить все страницы авторов на букву "a":
Код:
abramow_d_w
abwow_a_s <- искомое
aktualxnoe_i
alekseewa_m
amoris_s_p
andreewa_marina_anatolxewna
anmut_w
ardowa_a
...
 
Всего там 126 авторов (в "no-parent"). А мне нужен один.
 
?
 
BTW Я кручу wGet в руках всего третий день. Пока ещё "не въехал".
Sorry

Всего записей: 229 | Зарегистр. 14-02-2009 | Отправлено: 11:12 03-11-2016
Pasha_ZZZ



Gold Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
NvvLazyTiger
Цитата:
у процесса обозначилось желание притащить все страницы авторов на букву "a"
Логично, вы в конце URL поставьте / - тогда этот каталог будет считаться родительским
 
Добавлено:
А еще можно для компактности
Цитата:
wget -N -c -r -k -p
превратить в
Цитата:
wget -Ncrkp

Всего записей: 7896 | Зарегистр. 11-03-2002 | Отправлено: 11:29 03-11-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
NvvLazyTiger
 
В принципе можно немного поиграть с регэкспами и грепом из Msys/CygWin либо GNU Win32 grep (у мелкомягких есть похожая задумка - findstr начиная с ХР хотя с регэкспами там как обычно  не фонтан ) либо Lua где можно использовать как собственные регэкспы, так и Oniguruma/PCRE  при подключении их движков к Lua/LuaJIT и получить скорость обработки (с LuaJIT) близкую к скорости работы С-кода. Потому не вижу сложного в том, чтобы сделать два прохода - первый читает заголовки страниц и сразу прогоняем их через греп а затем качаем только попавшие под его фильтры страницы. В любом случае придётся смотреть наличие интересующих нас данных игнорируя всё иное, а это разумнее поручить грепу.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23417 | Зарегистр. 31-07-2002 | Отправлено: 23:15 03-11-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Уточнил подраздел 4) by TumaGonx Zakkum (он же osspack32 и The Moluccas) - поправил ссылки, уточнил состав пакетов, версии OpenSSL с учётом изменений на серверах.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23417 | Зарегистр. 31-07-2002 | Отправлено: 01:47 04-11-2016
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
2Pasha_ZZZ
Цитата:
конце URL поставьте /
Спасибо.
Всё со страниц автора скачивается без проблем.
 
Но обнаружение нужных мне изменений посредством wGet, увы, не решается, т.к. (при обращении за) страницы явно строятся заново каждый раз. Т.е. все всегда "новое". "Со всеми вытекающими"...
 
2Victor_VG
Цитата:
можно немного поиграть с регэкспами и грепом
Спасибо, но мне комфортнее работать с языком AWK, - решения его средствами нагляднее.
 
Бо, через год-два забудется всё. А вспоминать "как и почему" (при нужде) таки легче, глядя на
"if(условие){действия}else{действия}", чем на эквивалентную конструкцию в регэкспах&Co.
 
Тем паче (в моём случае), ни быстродействие, ни объём текстов решения совершенно не критичны.
 
А в целом, - да, один-два прохода собственно слежения;
+ начальное создание опорного локального зеркала (страниц автора);
+ сигнализация (если потребовался второй проход);
+ отчётность (для удобства и контроля);
+ ...
Smile
 
---
Удачи!
Влад.

Всего записей: 229 | Зарегистр. 14-02-2009 | Отправлено: 04:08 04-11-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
NvvLazyTiger
 
Ну, чем именно пользоваться в данном случае не важно - главное чтобы было удобно. А с регэкспами тут проще поскольку на выходе фильтра (греп) уже будет только то, что обновилось.  
 
И кстати, кстати, говорят что полезная мысля завсегда приходит опосля - а зачем нам возится? У нас банальное инкрементное копирование, а инструментов для сетевого бэкапа много, так почему бы их к сей задаче не приставить?

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")

Всего записей: 23417 | Зарегистр. 31-07-2002 | Отправлено: 04:19 04-11-2016
NvvLazyTiger



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Цитата:
зачем нам возится? У нас банальное инкрементное копирование, а инструментов для сетевого бэкапа много, так почему бы их к сей задаче не приставить?
[Инкрементный] бэкап использовать можно (в сочетании с "напильником").
Вот только объём потребной "опиловки" не будет особо отличаться от такового для разработки "с нуля".
 
Поясню:
  - что такое бэкап(?), - это некий образ ("time slice" или "snapshot") объекта, позволяющий восстановить состояние объекта на момент бэкапа + инструментарий для;
  - инкрементный бэкап, - это способ уменьшения общего объёма хранения за счет того что хранятся только основа + разницы;
Но,.. snapshot-ы элементарно делаются простейшим батником с wGet, а вот выявление интересных мне изменений в любом варианте придётся писать.
 
Дык?
 
Более того, для моей задачи совсем не требуется "возможность восстанавливать прошлое". Отнюдь. Требуется обнаруживать новьё (да не всякое) и утаскивать только его (на свой комп).
 
А вот хранить (для анализа) нужно лишь спец. timestamp-ы - подстроки двух видов (в зависимости от типа страницы):
  - • Размещен: 16/02/2011, изменен: 05/07/2014. 782k. <- собственно интересное мне;
  - • Обновлялось: 19/10/2016 <- важное для организации обнаружения интересного.
Причём, нужно обнаруживать [отрабатывать] только увеличение объёма или появление совсем нового.
 
Работающий макет построителя snapshot уже готов. Обнаружитель - в процессе...

Всего записей: 229 | Зарегистр. 14-02-2009 | Отправлено: 06:32 05-11-2016
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Имя:
Пароль:
Сообщение

Для вставки имени, кликните на нем.

Опции сообщенияДобавить свою подпись
Подписаться на получение ответов по e-mail
Добавить тему в личные закладки
Разрешить смайлики?
Запретить коды


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.Board
© Ru.Board 2000-2018

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru