Вступление При индексации страничек пауки поисковых машин сообразно умолчанию идут сообразно всем ссылкам какие встречают. При этом нередко они попадают на странички с неподдерживаемым форматом данных(RSS, Atom, Trackbak)либо служебные, а означает не нужные обычному юзеру. Еще боты индексируют странички не несущие безличный полезной инфы, к примеру авторизации и регистрации. Все это, в свою очередность, угрожает захламлением итогов розыска сообразно вашему сайту и наиболее медлительной индексацией полезной инфы.
Разрешено ли только этого избежать?Протест прост. Необходимо!Для данных целей мы воспретим индексацию ненадобных страничек при поддержке файла robots. txt.
О синтаксисе robots. txt Тщательно в индивидуальности работы с robots. txt вклиниваться не буду, об этом вы сможете прочесть на спец сайте(гиперссылка внизу поста). В данный момент элементарно коротко обрисую главные моменты.
* Меж директивами User-agent и Disallow( Allow и иными)не обязано существовать порожних строк. Порожняя строчка значит конец блока описания верховодил для указанного больше бота.
* Директива Allow, не глядя на то что её недостает в эталоне есть, поддерживается Yandex и Google. Потому при хотение её разрешено использовать.
* Знаки подстановки(* — последовательность всех знаков и $ — конец строчки)еще отсутствует в эталоне, однако поддерживаются Yandex и Google. Дерзко используем.
* Директива Host поддерживается лишь ДДДККК yandex'ом. При этом она не показывает, какое доменное фамилия полагать главным, как считают почти все. Данная директива произносит боту ДДДККК yandex'а какое из 2-ух зеркал интернет-сайта основное. То имеется покуда бот не посчитал интернет-сайт с www и без www зеркалами данная директива действовать не станет. Идти обязана в конце блока опосля директивы Disallow(Allow).
* Директива "Disallow: ” означает то же наиболее что «Allow: /» и напротив.
Теоретическая часть Подумаем, что нам нужно воспретить для индексации. Во-1-х, админ-папку, а еще страничек авторизации, регистрации и удаленного постинга в блок. Во-2-х, служебную папки с файлами для wordpress и папку с темами и плагинами. В-3-х фиды постов, комментариев трекбеки. При этом крайнее не нужно накрывать от поисковиков, какие отыскивают сообразно блогам, к примеру ДДДККК yandex. Онлайн-дневники.
Комменты к robots. txt Для розыска ДДДККК yandex'а сообразно блогам позволяем все. Для других воспрещаем служебные директории и странички, темы, плагины, фиды, трекбеки. Рисунки и остальные бумаги загруженные чрез обычный загрузчик Wordpress остаются доступными для индексирования.
Вероятные проблемы Этот вариант robots. txt может прикрыть доступ к индексированию фида для всех других поисковиков сообразно блогам. Непонятно как себя поведет розыск сообразно блогам от Google, этак как единичного имени его бота я не отыскал.
Попробую объяснить в двух словах. Каждый из нас не неднократно сталкивался с ситуацией, когда приходится заново инсталлировать Windows. Уверен, что для всех это ситуация неприятна,потому-что: - инсталляция занимает приблизительно 2 часа; - потом установки Windows надо инсталлировать кучу программ, которые используются на компьютере. Так вот, чтобы избежать этих неприятных моментов помогает создание образа системного диска. Как мы будем делать образ диска? С помощью программы http://noutboom.ru - Acronics True Image.
Попробую объяснить в двух словах. Каждый из нас не неднократно сталкивался с ситуацией, когда обязаны заново инсталлировать Windows. Уверен, что для всех это положение неприятна,потому-что: - инсталляция занимает почти 2 часа; - затем установки Windows должен инсталлировать много программ, которые используются на компьютере. Так вот, чтобы избежать этих ненужных моментов помогает создание образа системного диска. Как мы будем делать образ диска? С помощью программы http://noutboom.ru - Acronics True Image.
Представляем Вашем вниманию http://moscow.recikl.ru - дисконтные карты по самым низким ценам.Предлагаем скидки до 25% для рекламных агентств и других посредников! Подробнее http://moscow.recikl.ru/ - тут