|
Компьютерный форум OSzone.net » Программирование, базы данных и автоматизация действий » AutoIt » скачать страницу сайта с картинками |
|
скачать страницу сайта с картинками
|
Новый участник Сообщения: 32 |
подскажите плиз: как скачать страничку вместе со всем содержимым (хотя бы текст + изображения) - InetGet качает но без картинок (сохранить как не предлагать))))
|
|
Отправлено: 12:07, 30-08-2009 |
Новый участник Сообщения: 46
|
Профиль | Отправить PM | Цитировать Качаешь InetGet'ом, парсишь скачаное на наличие картинок с относительными путями типа /pics/picture1.jpg и выкачиваешь их тоже и раскладываешь по папкам \pics\ и т.д...
Пути могут быть абсолютными типа http://www.site.com/pics/picture1.jpg - тогда выкачивай те, что на одном домене с сайтом. Можешь вообще все выкачать, но там скорее всего будут банеры и прочая муть... |
Отправлено: 13:06, 30-08-2009 | #2 |
Для отключения данного рекламного блока вам необходимо зарегистрироваться или войти с учетной записью социальной сети. Если же вы забыли свой пароль на форуме, то воспользуйтесь данной ссылкой для восстановления пароля. |
Новый участник Сообщения: 32
|
Профиль | Отправить PM | Цитировать А нельзя ли пример для наглядности
![]() |
Отправлено: 13:33, 30-08-2009 | #3 |
![]() Ветеран Сообщения: 553
|
Профиль | Отправить PM | Цитировать #include <IE.au3> $sImgDir = "c:\foo\" DirCreate($sImgDir) $sWebPage = "http://www.autoitscript.com/forum/index.php?"; webpage with images $oIE = _IECreate() _IENavigate($oIE, $sWebPage) $oIMGs = _IETagNameGetCollection($oIE, "img") ; Loop through all IMG tags and save file to local directory using INetGet For $oIMG in $oIMGs $sImgUrl = $oIMG.src $sImgFileName = $oIMG.nameProp INetGet($sImgUrl, $sImgDir & $sImgFileName) Next ShellExecute($sImgDir) |
Отправлено: 21:11, 24-09-2009 | #4 |
Новый участник Сообщения: 32
|
Профиль | Отправить PM | Цитировать FlatX007 это немного не то. Хотелось бы чтоб скрипт работал напрямую с сайтом (без запуска IE и загрузки страницы). Если это возможно - поделитесь опытом.
|
|
Отправлено: 10:16, 26-09-2009 | #5 |
Старожил Сообщения: 307
|
Профиль | Отправить PM | Цитировать Цитата speechless:
Порядок действий: Загружаеш страницу с помощью InetGet, сохраняеш в некой папке как главный html, дальше парсиш, чтоб найти ссылки на рисунки. И потом каждый рисунок вновь загружаеш с помощью InetGet , сохраняеш, и прописываеш новый путь к этому рисунку в главном html. Если русунок 1, то несложно, а если русунков с рисуночками больше 100 будет? Поэтому это дело небыстрое. Примера нету. |
|
------- Отправлено: 16:24, 26-09-2009 | #6 |
![]() |
Участник сейчас на форуме |
![]() |
Участник вне форума |
![]() |
Автор темы |
![]() |
Сообщение прикреплено |
| |||||
Название темы | Автор | Информация о форуме | Ответов | Последнее сообщение | |
[решено] Сохранить страницу сайта. | флэш | Хочу все знать | 17 | 14-12-2009 10:56 | |
Разное - При попытке что-то скачать почему-то выкидывает на страницу westbyte | Электрон | Microsoft Windows 2000/XP | 1 | 11-09-2009 09:02 | |
Можно ли скачать панораму с сайта? | mailfannah | Хочу все знать | 9 | 16-07-2009 15:39 | |
Выводим сообщение скрипта на главную страницу сайта. | xkspy | Вебмастеру | 24 | 13-03-2006 00:31 |
|