Войти

Показать полную графическую версию : скачать страницу сайта с картинками


speechless
30-08-2009, 12:07
подскажите плиз: как скачать страничку вместе со всем содержимым (хотя бы текст + изображения) - InetGet качает но без картинок (сохранить как не предлагать))))

timsky
30-08-2009, 13:06
Качаешь InetGet'ом, парсишь скачаное на наличие картинок с относительными путями типа /pics/picture1.jpg и выкачиваешь их тоже и раскладываешь по папкам \pics\ и т.д...
Пути могут быть абсолютными типа http://www.site.com/pics/picture1.jpg - тогда выкачивай те, что на одном домене с сайтом.
Можешь вообще все выкачать, но там скорее всего будут банеры и прочая муть...

speechless
30-08-2009, 13:33
А нельзя ли пример для наглядности :o

FlatX007
24-09-2009, 21:11
#include <IE.au3>

$sImgDir = "c:\foo\"
DirCreate($sImgDir)

$sWebPage = "http://www.autoitscript.com/forum/index.php?"; webpage with images

$oIE = _IECreate()
_IENavigate($oIE, $sWebPage)
$oIMGs = _IETagNameGetCollection($oIE, "img")

; Loop through all IMG tags and save file to local directory using INetGet
For $oIMG in $oIMGs
$sImgUrl = $oIMG.src
$sImgFileName = $oIMG.nameProp
INetGet($sImgUrl, $sImgDir & $sImgFileName)
Next

ShellExecute($sImgDir)

speechless
26-09-2009, 10:16
FlatX007 это немного не то. Хотелось бы чтоб скрипт работал напрямую с сайтом (без запуска IE и загрузки страницы). Если это возможно - поделитесь опытом.

beve
26-09-2009, 16:24
Хотелось бы чтоб скрипт работал напрямую с сайтом (без запуска IE и загрузки страницы). »
Теоритически это возможно, а практически - нужно немного знать язык html и регулярные выражения.
Порядок действий:
Загружаеш страницу с помощью InetGet, сохраняеш в некой папке как главный html, дальше парсиш, чтоб найти ссылки на рисунки. И потом каждый рисунок вновь загружаеш с помощью InetGet , сохраняеш, и прописываеш новый путь к этому рисунку в главном html.
Если русунок 1, то несложно, а если русунков с рисуночками больше 100 будет? Поэтому это дело небыстрое. Примера нету.




© OSzone.net 2001-2012