![]() |
Как скачать конкретные страницы сайта
Дублирую заголовок, как скачать конкретные страницы сайта. Много страниц, по этому тупо переходить на каждую и сохранять по одной через браузер не предлагать. Не предлагать скачивание всего сайта целиком. Только указанные мной страницы (около сотни). Страница дожна быть скачана целиком со всеми картинками которые отображаются на этой странице с той целью что бы потом их можно было читать оффлайн без доступа к интернету. Download Master умеет скачивать страницу с картинками если указать ссылку на страницу, но потом при попытке открыть эту страницу, картинки начинают подгружаться из интернета а не с локального диска. Программы для скачивания сайтов пытался использовать но они качают слишком много, а нужны строго указанные страницы без перехода по ссылкам на другие страницы.
Можете что то посоветовать? |
wget умеет вроде, но лишнее тоже есть
Код:
Set-Location 'd:\TMP\pages' |
Цитата:
Конкретно как изолированные линки в задачу кидаете - и он качает строго их. Ну или регекспом описываете имя страницы, и он сливает всё соответствующее регекспу. |
Время: 05:45. |
Время: 05:45.
© OSzone.net 2001-