5 1 1 1 1 1 1 1 1 1 1 Рейтинг 5.00 [1 Голос]

Индексация сайта поисковиками: оптимальные условия быстрого проведения

То, насколько успешной была SEO - оптимизация нового сайта, можно узнать только после индексации его страниц поисковыми роботами. Под этим подразумевается внесение сведений о новых веб - адресах в базу данных поисковых систем. Тогда ссылки на них будут появляться в ответ на запросы пользователей. Есть несколько нюансов, связанные с индексацией сайта, которые стоит взять на учет.

Поисковая система может узнать о вновь созданном сайте двумя путями:

  1. Веб - мастер вручную подает поисковикам сигнал о появлении нового сайта. Достаточно только ввести основной URL в специальную форму на сайте поисковой системы. Данный адрес записывается в память поисковика и в скором времени пройдет индексацию. Рекомендуется добавлять главный URL - адрес, а найденные на ней ссылки приведут поисковых роботов на остальные страницы.
  2. Максимально оптимизировать сайт, добавить его на сервер и просто ждать индексации. В данном случае внешние ссылки являются фактором, который может намного сократить время поиска. Если входящая ссылка находится на уже проиндексированном ресурсе, то очень быстро начнется анализ и нового ресурса. Этот путь подходит тем сайтам, которые заполнены качественным контентом. Если ресурс начнут цитировать в интернете, поисковые системы перейдут по ссылкам и добавят его в свои каталоги.

Сайт может ждать своей очереди на индексацию и больше 20 дней, поэтому стоит сделать так, чтобы она была максимально полной:

  • рекомендуется не отдаляться более чем на 3 перехода от главной страницы. Если структура ресурса слишком запутанная, можно создать карту, где указываются ссылки на страницы с максимально короткими путями;
  • лучше не применять идентификаторы сессий. Поисковики могут посчитать измененные URL продублированными страницами. Вообще лучше избегать использования скриптов для навигации;
  • стоит учесть объем текста на странице. Не вся информация по URL - адресу проходит индексацию и заносится в память поисковых систем. Обычно лимит составляет 100 - 200 кб текста. Если информации на странице намного больше данного значения, индексируется только ее начало. Ссылки, которые не попадут в эту часть так и не проиндексируются;
  • чтобы получить некоторый контроль над процессом индексации, можно добавить на сервер специальный файл robots.txt. В него вносится информация для поисковых роботов. Здесь можно указать, какие страницы не должна затрагивать индексация.

Информация о сайтах в базе данных поисковиков обновляется время от времени. Некоторые ссылки могут периодически менять свое место в выдаче результатов поиска. Исчезновение URL из индекса может быть связано с проблемами на сервере. Поисковик, вероятно, помечает такой сайт как недоступный. Ресурс через некоторое время проходит переиндексацию, поэтому стоит иногда проверять: все ли новые страницы оптимизированы правильно.

Разработано для Disqus