Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1551 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Leon_Ko
 
У cURL есть волшебные ключики:
 
curl --manual > manual.txt
curl --help all > curl_help_cmdline.txt (версии до 7.72 включительно просто --help)
curl --help category > curl_help_category.txt (версии до 7.72 включительно просто --help)
curl --version > version.txt
 
которые выводят много интересного

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33133 | Зарегистр. 31-07-2002 | Отправлено: 16:23 12-03-2021
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Werty666

Цитата:
есть мысли, почему не видит эту маску?

нет. У меня указанный вами файл качается.
 

Цитата:
И вообще, как тупо подтянуть все джепэги, по указанному адресу?  

попробуйте для ugrep
'https://architizer-prod.imgix.net/media/mediadata/uploads/.+\.jpg'
но это уже вопросы для другой темы
 
Leon_Ko
Aria2
curl вроде бы в этой
UNIX Shell

Всего записей: 7322 | Зарегистр. 08-09-2001 | Отправлено: 16:55 12-03-2021 | Исправлено: los, 16:56 12-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG

Цитата:
У cURL есть волшебные ключики:

Волшебные ключики помогали только Буратине
Это шютка, конечно - Спасибо!  
 
los
Конструкция ваша, с предыдущей страницы, не сработала у меня вообще. Особенно, когда я $ впереди засандалил - не сообразил впопыхах, что речь о никсах  
Но даже и без $ это пока выше моего разумения.
Про Aria2 вроде и видел в шапке, но поленился разобраться - надо сходить, почитать...
А вот с curl пытался как-то раз разобраться, так как зашёл в UNIX Shell, так и вышел... Это мне явно не по зубам
Если только подскажет кто... Но соваться в UNIX-ветку смысла не вижу: я там, как известное животное...

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 18:04 12-03-2021
Fenrizz



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Leon_Ko
Я приводил пример bat-файла для Windows. Ваша задача состоит из 3 этапов
1. Скачать html-файл по ссылке http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux
2. Извлечь из него ссылку на карту (с помощью xmllint, pup, grep и т.д.)
3. Скачать карту
 
Это можно сделать в одну строку через | или по частям.

Всего записей: 677 | Зарегистр. 12-09-2017 | Отправлено: 18:07 12-03-2021 | Исправлено: Fenrizz, 18:11 12-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Fenrizz
Я помню. И помню, что пробовал. Но... Не сработало, как и в случае с wget. Возможно, у меня руки кривые - не знаю. А потом, там вроде бы речь о xmllint шла, если я не путаю. Нет?
Про пример с Aria2 (я его просил) речи не шло...

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 18:19 12-03-2021
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Fenrizz
Leon_Ko
 
Если поправить HTML файл в текстовом редакторе - для curl просто вбив пробелы до и после URL и отформатировать список в виде одна строка - один URL,  у wget встроенный парсер HTML, а для cURL проще использовать цикл For.  
 
Например в батник можно записать команды:
 
for /f usebackq delims=" " %%A in ("<filename>") do curl.exe -C - -LRO %%A
 
 
или
 
wget -c -N -nd --ca-certificate="curl-ca-bundle.crt" -P "<download_dir>" "--input-file="<file_name>"
 
можно таскать файлы списком, имена файлов будут взяты из URL. Я использую подобный приём в Far UserMenu:

Код:
D:   Download tools:
{
C:   cURL:
{
C:   User choice file name
     @"%FARHOME%\curl.exe" -C - -LRZ --create-dirs --output "!?$cpath$Full file path?!" "!?$clink$Download link?!"
F:   Single (as server name)
     @"%FARHOME%\curl.exe" -C - -LRZO "!?$clink$Download link?!"
L:   Download  URL list (one URL in string)
     @for /f "usebackq delims="" " %A in ("!=\!.!") do "%FARHOME%\curl.exe" -C - -LRZO "%A"
M:   Multiplay link (use space as delimiter for URL)
     @"%FARHOME%\curl.exe" -C - -LRZO --remote-name-all !?$clist$Download links?!
}
W:   Wget:
{
F:   Single (URL)
     @"%FARHOME%\wget.exe" -c -N -nd --ca-certificate="%FARHOME%\curl-ca-bundle.crt" -P "!?$wpath$Download to directory?!" "!?$Wlink$Download link?!"
L:   Multiplay (list URL in to file)
     @"%FARHOME%\wget.exe" -c -N -nd --ca-certificate="%FARHOME%\curl-ca-bundle.crt" -P "!?$wpath$Download to directory?!" "--input-file="!=\!.!"
}
--:  
H:   Command line help:
{
C:   cURL
     view:%FARHOME%\curl.txt
W:   Wget
     view:%FARHOME%\wget.txt
}
}
 

и он почему-то прекрасно работает.


----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33133 | Зарегистр. 31-07-2002 | Отправлено: 18:41 12-03-2021
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG

Цитата:
Если поправить HTML файл в текстовом редакторе...

а если в этом же редакторе просто скопировать нужную ссылку...

Всего записей: 7322 | Зарегистр. 08-09-2001 | Отправлено: 19:10 12-03-2021
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los
 
А енто надо?

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 33133 | Зарегистр. 31-07-2002 | Отправлено: 20:59 12-03-2021
older

Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Leon_Ko
я думаю, для вас самым сложным должно быть получение списка ссылок для закачки
это можно упростить с помощью утилиты geturls
 
команда
Код:
wget -O- "http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux"|geturls /s:"https"|find /i "2gisdata_n_novgorod-"

должна вывести список нужных ссылок
 
на выходе должно получиться что-то примерно вот такое:

Код:
https://download.2gis.com/arhives/2GISData_N_Novgorod-150.0.0.msi
https://download.2gis.com/arhives/2GISData_N_Novgorod-150.0.0.zip'
https://download.2gis.com/arhives/2GISData_N_Novgorod-149.orig.zip
https://download.2gis.com/arhives/2GISData_N_Novgorod-150.0.0.msi
https://download.2gis.com/arhives/2GISData_N_Novgorod-150.0.0.msi
https://download.2gis.com/arhives/2GISData_N_Novgorod-150.0.0.zip
https://download.2gis.com/arhives/2GISData_N_Novgorod-150.0.0.zip'
https://download.2gis.com/arhives/2GISData_N_Novgorod-149.orig.zip
https://download.2gis.com/arhives/2GISData_N_Novgorod-149.orig.zip

 
дальше делайте выборку нужных url-ов и отправляйте их на вход wget

Всего записей: 332 | Зарегистр. 15-02-2003 | Отправлено: 10:28 13-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Честно говоря, ничего не понял. Видать, это слишком сложно для меня
 
los
С вашим вариантом (а он был?) всё ещё более неясно - он у меня вообще никак себя не проявляет. В смысле, я запускаю строчку, и... Ничего!
Нашёл в предыдущей части этой темы (и модифицировал под свои нужды) такой вариант:

Код:
 
set "folder=C:\2GIS"
pushd "%folder%"
wget --no-config -c -nc -np -r -l 1 -H -D download.2gis.com -P "C:\2GIS" -e "robots=off" -A "2GISData_N_Novgorod-*.orig.zip" -nd "http://info.2gis.ru/nizhniy-novgorod/products/download"
for /f "tokens=* skip=1" %%a in ('dir /b/o-d/a-d "2GISData_N_Novgorod-*.zip"') do del /f /q "%%~fa"
7z.exe x "C:\2GIS\2GISData_N_Novgorod-*orig.zip" -o"C:\Program Files (x86)\" -y -r
popd  
 

Насколько я понял, человек хотел скачивать _последнюю базу_, при этом удаляя предыдущие. Только работает оно как-то странно - не пойму вообще как  
 
older

Цитата:
я думаю, для вас самым сложным должно быть получение списка ссылок для закачки
это можно упростить с помощью утилиты geturls

Это я попробовал, действительно работает. Ну, а дальше? Для меня все эти 2GISData_N_Novgorod-150.0.0.zip изначально мусорны - нужен только 2GISData_N_Novgorod-*orig.zip, там чистая база. И пусть он отстаёт на месяц (они там лентяи, это и раньше было так), это не антивирус - такой спешки с обновоением баз нет.
Вопрос в другом: я не знаю, как:

Цитата:
дальше делайте выборку нужных url-ов и отправляйте их на вход wget

Приведите, если можно, пример пожалуйста...

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 07:34 15-03-2021
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Leon_Ko
Я вам дал однострочный рабочий пример, который качает через вгет. Зачем дальнейшее набивание постов?

Всего записей: 12375 | Зарегистр. 11-03-2002 | Отправлено: 08:00 15-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ
В отличии от вас, ежедневно отмечающегося практически во всех топиках форума, мне набивание постов совершенно не нужно.
И если бы ваш пример работал (у меня), то вопросов бы и не было. К сожалению, не всё так просто.

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 08:18 15-03-2021
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Leon_Ko
Везде работает, не работает только у вас. Может быть надо задуматься, глядя в зеркало, а не переливать из пустого в порожнее?

Всего записей: 12375 | Зарегистр. 11-03-2002 | Отправлено: 08:26 15-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Этот ваш бред тоже у всех работает? Вы там пофлудили, и слились как обычно. Результата там от вас так не дождались - вы поскакали в другие темы посты набивать. Может, и сейчас ускачете? Хотелось бы!
Всё равно с вами разговривать, как мёртвую корову доить - всеобъелющий вы наш
Идите к Виктору - там ФАР застаивается, идите к Ратибору, идите... В общем, идите
Я больше отвечать вам не буду - и так много для одного.

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 08:42 15-03-2021
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Leon_Ko

Цитата:
С вашим вариантом (а он был?) всё ещё более неясно - он у меня вообще никак себя не проявляет.

Что же вы проверяли если варианта не было?

Всего записей: 7322 | Зарегистр. 08-09-2001 | Отправлено: 10:19 15-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los

Цитата:
Что же вы проверяли если варианта не было?

Это:

Цитата:
$ curl -qs 'http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux' | grep -Eo 'https://download.2gis.com/arhives/2GISData_N_Novgorod-([[:alnum:]]{3}).orig.zip' | sort -u |  xargs curl -qO

И я уже писал, что ничего из этого не получилось (ничего не выводит в консоль)

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 11:21 15-03-2021
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Leon_Ko

Цитата:
(ничего не выводит в консоль)

и что выводят в консоль?
$ curl -qs 'http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux' | grep -Eo 'https://download.2gis.com/arhives/2GISData_N_Novgorod-([[:alnum:]]{3}).orig.zip'
и
$ wget -O- 'http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux' | grep -Eo 'https://download.2gis.com/arhives/2GISData_N_Novgorod-([[:alnum:]]{3}).orig.zip'
кавычки если у вас windows, видимо, нужно заменить на двойные.

Всего записей: 7322 | Зарегистр. 08-09-2001 | Отправлено: 13:35 15-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los

Цитата:
и что выводят в консоль?
$ curl -qs 'http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux' | grep -Eo 'https://download.2gis.com/arhives/2GISData_N_Novgorod-([[:alnum:]]{3}).orig.zip'

У меня - Windows (Server 2008R2), я делал так:

Код:
curl -qs "http://info.2gis.ru/nizhniy-novgorod/products/download#skachat-kartu-na-komputer&linux" |  -Eo "https://download.2gis.com/arhives/2GISData_N_Novgorod-([[:alnum:]]{3}).orig.zip"

И - опять ничего! И тут у меня закрались сомнения: я брал grep отсюда, может быть это не то, что нужно? Странно ведёт себя этот grep: не проявляет себя никак, а как проверить его работоспособность я не знаю.
Приведённая выше компанда ничего не выводит, соответственно...

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 13:56 15-03-2021
skipik



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Leon_Ko

Цитата:
а как проверить его работоспособность я не знаю

Засунуть в PATH и выполнить grep --version. Если версию выводит - значит работает.

Всего записей: 4802 | Зарегистр. 07-07-2006 | Отправлено: 14:04 15-03-2021
Leon_Ko



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
skipik

Цитата:
Засунуть в PATH и выполнить grep --version.

Давно засунуто, и... Ничего! В смысле, по "grep --version" ничего не выводится. До этого пробовал "grep.exe --help" - тоже самое. Почему у меня и возникли сомнения в работоспособности этого grep.exe.
Архив, скаченный по ссылке выше - grep-2.5.4-bin.zip, я распаковал содержимое \bin в %path%, там 3-и файла... Опять чего-то не хватает?

Всего записей: 1024 | Зарегистр. 26-11-2008 | Отправлено: 14:15 15-03-2021
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru