![]() |
Вопрос. Как исправить robots.txt
Вложений: 1
Добрый день. Нужна помощь по такому вопросу.
Имеется сайт, сделанный на Джумле+Virtuemart. Последний помещает различную служебную информацию (типа libraries, templates и пр.) в общую папку components, которая в итоге содержит 15 поддиректорий. В robots.txt сейчас директория components закрыта: Disallow: /components/ Однако в этой же директории!!! также имеется поддиректория com_virtuemart/shop_image/product/, в которую по умолчанию помещаются ВСЕ КАРТОЧКИ ТОВАРА. И, хотя ниже в robots.txt прописана директива Allow: /components/com_virtuemart/shop_image/product/ Allow: /components/com_virtuemart/shop_image/product/resized/ позволяющая просмотр карточек товара, у меня есть большое подозрение, что ни Гугл, ни Яндекс эти страницы не индексируют. Во всяком случае, Гугл выдает такую картину: - см. вложение Вопрос: как правильно закрыть всю директорию components, кроме одной папки com_virtuemart и двух ее подкаталогов? Буду очень признательна за помощь профи. |
Цитата:
Не пробовали в начале разместить разрешения (Allow), а затем уже запреты (Disallow)? Хотя гарантировать не могу. |
Цитата:
Цитата:
|
Сначала allow. Но те папки которые Вы хотите разрешить не отвечают в вирте за карточки товаров. Это папки с картинками для товаров и открыв их проиндексируются только изображения дающие Вам трафик из поиска по картинкам при правильной подаче.
|
Время: 20:17. |
Время: 20:17.
© OSzone.net 2001-