Показать полную графическую версию : ошибка в sitemap
друзья, я сейчас добавил 26 страниц в сайтмэп, но он пишет ошибку везде
Результаты проверки (1 ошибка)
Произошла внутренняя ошибка. Попробуйте повторить попытку позже.
Превышено время ожидания ответа.
Неизвестный тег
Строка 1:
html
http://i058.radikal.ru/1407/ea/ec522b6bca93t.jpg (http://radikal.ru/fp/6770e47ae9b8420b9384ff1783e1be52)
Помогите, что это такое. И теперь мои страницы не проиндексируются?
Habetdin
31-07-2014, 23:09
Помогите, что это такое »
Неверный адрес sitemap-файла указываете. Судя по первому тегу <html> - робот получил html-страницу вместо xml-файла с картой сайта.
И теперь мои страницы не проиндексируются? »
Наличие sitemap не является необходимым условием для индексации. Это скорее "полезная штука", которая может сэкономить время поисковому роботу :)
Habetdin, можете привести пример правильного сайтмэпа? Или как мне вот моя страниц. мойсайт.ru/моя статья
Как мне из него xml сделать.
Master-It
02-08-2014, 14:14
Вот стандартный sitemap самописного сайта, можете посмотреть синтаксис, валидацию проходит: http://www.bestcatalog.hut4.ru/sitemap.xml html тегов в нем быть не должно.
Master-It, а так сойдет для каждой статьи?
http://мойсайт.ru/index.php/stati/anynews1
<urlset><url><loc>http://мойсайт.ru/index.php/stati/anynews1</loc><lastmod>2013-01-22T15:04:07+00:00</lastmod><changefreq>always</changefreq></url>
И что я должен писать в ластмод? Или есть способ , может прога. чтобы она сама такой xml файл создала
Habetdin
02-08-2014, 19:06
Или есть способ , может прога. чтобы она сама такой xml файл создала? »
Есть и программы (например: GSiteCrawler (http://gsitecrawler.com/en/download/)), и онлайн-сервисы (http://www.xml-sitemaps.com/), и скрипты, которые будут генерировать sitemap прямо на вашем хостинге (часто в виде плагинов под конкретную CMS).
что писать в ластмод? »
Дату последнего изменения документа (в вашем случае - статьи).
Master-It
03-08-2014, 09:53
Master-It, а так сойдет для каждой статьи?
http://мойсайт.ru/index.php/stati/anynews1 »
Habetdin опубликовал ссылки на онлайн сервисы и утилиты для автоматизирования этого процесса.
После создания карты ее необходимо проверить в валидаторе, вот рекомендации от Яндекс для вебмастеров http://webmaster.ya.ru/14066
Habetdin,
а что то не понимаю как прогой пользоваться GSiteCrawler
я ввел туда свой сайт. Сорри, пока он сырой, я его скрываю.
на что дальше нажать, чтобы он выдал xmlку
и надо ли каждый url сайта вводить или он автоматически сам весь сайт произучает?
Habetdin
09-08-2014, 17:29
vanoman, после добавления сайта в проект делаете обход сайта (кнопка (Re)Crawl), затем в меню кнопки Generate выбираете Sitemap:
http://i.imgur.com/jrRATRm.png
P.S.: перед генерацией можно убрать ненужные адреса на вкладке "URL list", при желании - сгенерировать на их основе новый robots.txt (http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml), в меню кнопки Generate соответствующий пункт есть.
а зачем нужен кстати робот .тхт Его роль, чтобы моя страница по запросам отображалась в яндексе поскорее есть?
И смеженный вопросик, смотрел видео от какого -то сеошника, он скахзал, что плюс будет, если сделать красную стрелку в фавор. Но я так и не понял как должна выглядеть это красная стрелка.
Habetdin
09-08-2014, 18:33
а зачем нужен кстати робот .тхт »
Исчерпывающая информация об этом файле и его назначении доступна по ссылке из предыдущего поста.
плюс будет, если сделать красную стрелку »
Плюсов ни от красной, ни от серобуромалиновой стрелки в каком-то "фаворе" не знаю :jester:
Master-It
09-08-2014, 19:05
Если коротко о главном, то robots.txt нужен для того, чтобы в индекс ПС, не попадало то, что не нужно.
Например, каждый комментарий на WordPress имеет свою ссылку, и если в робот.тхт не написать условие: Disallow: /*?*
то в индексе может появиться n-ное количество ненужных страниц, вида windows.html?replytocom=1, windows.html?replytocom=2, windows.html?replytocom=2023, что чревато дублирование контента и последующими санкциями со стороны ПС.
В помощи для вебмастеров Яндекс написано: запретите в robots.txt индексирование страниц, неинтересных пользователям. Например, формы ответа на форуме, статистику посещений, страницы с результатами поиска...
З.Ы. Про красную стрелочку слышу впервые. :wow:
про фавор тут смотрел.
http://www.youtube.com/watch?v=MfsN2u3f9wY
ровно вторая минута 2:00
фавор это фав.икон
Master-It
10-08-2014, 10:26
Посмотрел видос, улыбнуло. Автор это сказал немного в утрированной форме, главное требование от Яндекса - это уникальность и полезность материалов, которые представлены на сайте.
К картинкам (фавикону) это тоже относиться, поэтому их лучше не копировать в интернете а создавать самостоятельно (сделать скриншон, или обратить горизонтально в фотошопе, наложить пару масок) а потом проверить уникальность своей картинки в сервисе http://www.tineye.com/. Тоже самое касается и фавикона, т. е. он должен быть уникальным, можно и со стрелочкой, это будет привлекать внимание пользователей.
Ведь паук он прочитал изображение, (текст страницы), сравнил со своей базой, если такого нет, то отлично, а если есть значит очередной копипаст, включаются другие алгоритмы, а стрелочка там или что еще, ему вообще до фени. (Это чисто мое предположение работы алгоритмов поисковых ботов, а как на самом деле знают только разработчики Яндекса)
© OSzone.net 2001-2012
vBulletin v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.