GNU Wget | |
---|---|
![]() | |
![]() | |
Тип | менеджер загрузок |
Автор | Hrvoje Nikšić[1] |
Разработчики | Mauro Tortonesi, Giuseppe Scrivano и др. |
Написана на | Си[2] |
Интерфейс | командная строка |
Операционная система | Linux и др. UNIX-подобные, Windows |
Языки интерфейса | русский и ещё 38 языков |
Первый выпуск | январь 1996 |
Последняя версия |
|
Создаваемые форматы файлов | Web ARChive файл[d] |
Состояние | активное |
Лицензия | GNU GPL 3 |
Сайт | gnu.org/software/wget/ |
![]() |
Wget[5] — (GNU Wget) свободная неинтерактивная консольная программа для загрузки файлов по сети. Поддерживает протоколы HTTP, FTP и HTTPS, а также поддерживает работу через HTTP прокси-сервер. Программа включена почти во все дистрибутивы GNU/Linux.
Wget является неинтерактивной программой. Это означает, что после её запуска пользователь может повлиять на её работу только с помощью средств управления процессами операционной системы. Как правило, для этого используются сочетания клавиш Ctrl+C при необходимости прерывания работы программы и Ctrl+Z для помещения текущего задания в фон. Современные web-браузеры как правило имеют функцию закачки файлов, однако так как браузер рассчитан на интерактивный режим работы, то скачивание большого количества файлов вручную может быть утомительным. Браузеры, как правило, не предоставляют средств для автоматизации подобных задач. Wget же, например, поддерживает загрузку URL, указанных в файле. Таким образом можно составить список файлов, а в любое удобное время скачать их с помощью wget. Интерфейс командной строки позволяет управлять wget из других программ и скриптов, что используется при автоматизации загрузки файлов (регулярные обновления, мониторинг доступности сервера и т. д.).
Wget позволяет загружать любые файлы во всемирной паутине (в том числе и (X)HTML-страницы) по протоколам http и https, а также файлы и списки каталогов по протоколу ftp.
Файлы можно скачивать рекурсивно по ссылкам в HTML страницах, как с одного сайта с определённой глубиной следования по ссылкам, так и с нескольких. Помимо этого, при загрузке по ftp файлы можно скачивать «по маске» имени (то есть можно задавать с помощью «*» группу файлов).
Wget поддерживает докачку файла в случае обрыва соединения.
Ведётся разработка продолжения Wget — Wget2[6].
Загрузка всех URL, указанных в локальном или внешнем ФАЙЛЕ:
wget -i ФАЙЛ
Скачивание файлов в указанный каталог (-P)[7]:
wget -P /path/for/save ftp://ftp.example.org/some_file.iso
Использование имени пользователя и пароля на FTP/HTTP (вариант 1):
wget ftp://login:password@ftp.example.org/some_file.iso
Использование имени пользователя и пароля на FTP/HTTP (вариант 2):
wget --user=login --password=password ftp://ftp.example.org/some_file.iso
Скачивание в фоновом режиме (-b):
wget -b ftp://ftp.example.org/some_file.iso
Продолжить (-c continue) загрузку ранее не полностью загруженного файла:
wget -c http://example.org/file.iso
Скачать содержимое каталога http://example.org/~user/my-archive/ (недоступная+ссылка) и всех его подкаталогов, при этом не поднимаясь по иерархии каталогов выше:
wget -r --no-parent http://example.org/~user/my-archive/
Также поддерживается идентификация на сервере:
wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://example.org/auth.php
Скачать весь сайт целиком (глубина рекурсии — 10):
wget -r -l 10 -k -o log-file.txt -p http://example.org/
-r, --recursive включение рекурсивной загрузки
-l, --level=ЧИСЛО глубина рекурсии (inf и 0 - бесконечность)
-k, --convert-links делать ссылки локальными в загруженном HTML или CSS
-o, --output-file=ФАЙЛ записывать сообщения (логи) в ФАЙЛ
-p, --page-requisites загрузить все изображения и проч., необходимые для отображения HTML-страницы
-m, --mirror короткий параметр, эквивалентный -N -r -l inf --no-remove-listing.
Вывести содержание ответа в консоль:
wget http://example.org --quiet -O -
До версии 1.12, возвращает 0 при успешном выполнении и 1 в случае ошибки. Начиная с версии 1.12[8], в случае ошибки возвращает от 1 до 8, в зависимости от вида.
Разработка Wget идёт медленно, многие новые расширения протоколов HTTP, FTP, сценарии JavaScript и другие функции не поддерживаются.
В некоторых случаях хорошей альтернативой может являться cURL, а для создания зеркал сайтов (чего cURL не умеет[9]) обычно используется rsync. В версии 1.17 и выше обязательна поддержка SSE2 инструкций процессором.
wget
Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".
Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.
Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .