Показать полную графическую версию : Посоветуйте программу для выкачивания сайтов
ivanhoe75
11-08-2011, 21:37
Вот пользовался teleport pro, а у неё ограничение в 65 тыс. файлов. Соответственно посоветуйте программу для выкачивания сайтов без подобного ограничения
xoxmodav
11-08-2011, 22:16
Offline Explorer
Website Ripper Copier
Fresh WebSuction
Local Website Archive
HTTrack
WebCopier
Web Dumper
WebSite eXtractor
WebTransporter
Internet Researcher
Offline Commander
abu-ahmad
15-09-2011, 23:31
Здравствуйте!
я обычный пользователь и не владею особыми навыками работы. Хотелось бы узнать как сделать оффлайн копию сайта (dermline.ru). Другие сайты многие я могу. как я понял есть защита от копирования. Но очень нужен сайт для личного пользования по специальности.
P.s не нашел ветки куда бы пихнуть этот вопрос)
ivanhoe75
22-10-2011, 21:42
Классная прога Offline Explorer - на порядок круче телепорта!
....
Рано обрадовался. Она периодически (когда сайт большой и много недокачек, и приходится руками докачивать)
создаёт новую директорию внутри проэкта, куда кладутся докачки. Как с этим бороться? Работает всё конечно, только
проэкт получается поделеный на ненужные части. Что мне теперь, автозамену внутренних ссылок что ли делать, чтобы в корень все страницы покидать?
.....
Интресно, что все ссылки внутри хтмл файлов аналогичные, и браузер сам спускается и поднимается в/из подкаталоги. Можно в корень все файлы покидать и всё вроде будет работать, только кэш файлы и wc3 (это что?) имеют одинаковые имена, и соответственно пропадут при слиянии
© OSzone.net 2001-2012
vBulletin v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.