Если с технической стороны обнаружить проблемы не удалось, если за сайтом не замечено агрессивных методов оптимизации, робот начнет постепенную индексацию ресурса. Для начала будет проиндексировано несколько страниц, после будет период накопления статистических данных – если качество страниц окажется высоким, робот начнет индексацию уже большего количества документов на сайте. В противном случае индексации не будет.
Как он определяет, что страницы некачественные? Первая причина – неуникальный контент. Причем, это касается контента, который просто скопирован с других проиндексированных ресурсов или дублирован на нескольких страницах в пределах одного сайта.
Также индексации не будет, если объем уникального текстового контента на одной странице – меньше 500 символов.
Если вы не нуждаетесь в объемном текстовом контенте, позаботьтесь о других факторах – например, тематическом фото или видео на странице, отзывах и т.п. Для поиска внутренних дубликатов можно использовать сервисы комплексного анализа:
Для проверки уникальности контента в Сети лучше всего использовать сервисы text.ru и content-watch.ru.
Причиной плохого качества страниц могут послужить стандартизированные заголовки и тексты – например, если заголовки идентичные, с заменой всего одного-двух слов. Обычно это случается, если доверить написание мета-тегов автоматизированным плагинам.
Причиной плохого качества, по мнению поискового робота, может стать глубокая вложенность страницы (выше 4 уровня), переизбыток страниц 404 или медленная скорость отдачи страниц – в общем, проблемы с индексацией могут возникнуть из-за неправильной внутренней структуры сайта. Проверка этого фактора должна быть комплексной, и лучше доверить ее специалисту. Некоторые тонкости структурного построения ресурса я описал
в этой статье.