Загрузка всех URL, указанных в файле FILE:
$ wget -i FILE
Скачивание файла в указанный каталог (-P):
$ wget -P /path/for/kl ftp://ftp.sple.org/file.iso
Использование имя пользователя и пароля на FTP/HTTP:
$ wget ftp://login:password@ftp.sple.org/some_file.iso $ wget --user=login --password=password ftp://ftp.sple.org/some_file.iso
Скачивание в фоновом режиме (-b):
$ wget -b ftp://ftp.sple.org/some_file.iso
Продолжить (-c continue) загрузку ранее не полностью загруженного файла:
$ wget -c http://sple.org/file.iso
Скачать страницу с глубиной следования 10, записывая протокол в файл log:
$ wget -r -l 10 http://sple.org/ -o log
Скачать содержимое каталога http://sple.org/~luzer/my-archive/ и всех его подкаталогов, при этом не поднимаясь по иерархии каталогов выше:
$ wget -r --no-parent http://sple.org/~luzer/my-archive/
Для того, чтобы во всех скачанных страницах ссылки преобразовывались в относительные для локального просмотра, необходимо использовать ключ -k:
$ wget -r -l 10 -k http://sple.org/
Также поддерживается идентификация на сервере:
$ wget --save-cookies cookies.txt \ --post-data 'user=foo&password=bar' \ http://sple.org/auth.php
Скопировать весь сайт целиком:
$ wget -r -l 0 -k http://sple.org/
Скачивание галереи картинок с превьюшками.
$ wget -r -k -p -l1 -I /images/ -I /thumb/ \ --execute robots=off www.sple.org/gallery.html
Продолжить скачивание частично скаченного файла
$ wget -c http://www.sple.org/large.file
Скачать множество файлов с расширением .gif в текущую директорию
$ wget -r -nd -np -l1 -A '*.gif' http://www.sple.org/
Отображать ссылки напрямую (на экран)
$ wget -q -O- http://www.sple.org/timeline.html | grep 'a href' | head
Скачать url в 03:00 в текущую директорию
$ echo 'wget url' | at 03:00
Сделать закачку с уменьшенной скоростью В данном случае 50 КB/s
$ wget --limit-rate=50k url
Оперативно обновлять локальную копию сайта
$ wget --mirror http://www.sple.org/
Скачать диапазон страниц
$ wget http://sple.org/?thread={1..100} $ wget http://sple.org/files/main.{css,js}
Запустить скачивание списка ссылок в 8 потоков
$ cat links.txt | xargs -P 8 wget {}
Проверить ссылки из файла на живость
$ wget -nv --spider -i slist.txt
Скачать с https использовать ключ
wget -r -k https://sple.org --no-check-certificat
Скачать файлы запрещенные в robots.txt
wget -r -e robots=off https://sple.org