Кот Ти
Сообщения: 7318
Благодарности: 1204
|
Профиль
|
Отправить PM
| Цитировать
Если разметка и адреса всех страниц схожие, то реализовать сбор информации достаточно просто (адреса, например, имеют номера от 1.html до 300.html или что-то в этом духе). Кодируется, думаю, за час (плюсуем сюда время на формирование красивого отчёта, обновления по расписанию, создание интерфейса и т.п.)
Если надо на странице каталога выискивать ссылки и по ним скачивать страницы, то это сложнее, но незначительно. Опять же, "ровная" разметка значительно упрощает процедуру.
Да, ещё: если владелец сайта установил ограничения на загрузку страниц (например, не больше 10 штук в секунду или что-то в этом духе), то надо будет ещё предусматривать интервалы между запросами. Проф, может, это быстро сделает, а новичку придётся повозиться.
|
Отправлено: 12:29, 07-09-2010
| #2
|