![]() |
Посоветуйте программу для выкачивания сайтов
Вот пользовался teleport pro, а у неё ограничение в 65 тыс. файлов. Соответственно посоветуйте программу для выкачивания сайтов без подобного ограничения
|
Offline Explorer
Website Ripper Copier Fresh WebSuction Local Website Archive HTTrack WebCopier Web Dumper WebSite eXtractor WebTransporter Internet Researcher Offline Commander |
Здравствуйте!
я обычный пользователь и не владею особыми навыками работы. Хотелось бы узнать как сделать оффлайн копию сайта (dermline.ru). Другие сайты многие я могу. как я понял есть защита от копирования. Но очень нужен сайт для личного пользования по специальности. P.s не нашел ветки куда бы пихнуть этот вопрос) |
Классная прога Offline Explorer - на порядок круче телепорта!
.... Рано обрадовался. Она периодически (когда сайт большой и много недокачек, и приходится руками докачивать) создаёт новую директорию внутри проэкта, куда кладутся докачки. Как с этим бороться? Работает всё конечно, только проэкт получается поделеный на ненужные части. Что мне теперь, автозамену внутренних ссылок что ли делать, чтобы в корень все страницы покидать? ..... Интресно, что все ссылки внутри хтмл файлов аналогичные, и браузер сам спускается и поднимается в/из подкаталоги. Можно в корень все файлы покидать и всё вроде будет работать, только кэш файлы и wc3 (это что?) имеют одинаковые имена, и соответственно пропадут при слиянии |
Время: 01:52. |
Время: 01:52.
© OSzone.net 2001-