Эта проблема возникает как минимум по 10 различным причинам. Хорошие новости в том, что ее можно решить и вернуть сайт на предыдущие позиции в поисковиках. Как это сделать, разберемся в нашей статье.
Чтобы быть в курсе позиций сайта и вовремя принимать меры, если выдача сократится, нужно отслеживать три критерия: индексацию, видимость и трафик.
Проверить индексацию сайта можно с помощью поисковиков. В Google или Яндексе введите запрос «site:адрессайта.домен» и посмотрите на количество проиндексированных страниц.
Однако чаще всего для проверки индексации используют специальные сервисы — Яндекс.Вебмастер и Google Search Console.
Чтобы посмотреть количество проиндексированных страниц в Яндексе, перейдите ко вкладке «Мои сайты» в Яндекс.Вебмастере и посмотрите значение в колонке «В поиске».
Проверить индексацию в Google поможет инструмент Google Search Console. В разделе «Индекс» нажмите на кнопку «Покрытие», а затем сложите количество страниц «Без ошибок» и «Без ошибок, есть предупреждение». Полученное значение и есть количество проиндексированных страниц.
Если отобразилось намного меньше страниц, чем есть на сайте на самом деле, значит, сайт выпал из выдачи. Это может произойти, если:
Видимость сайта — это доля показов сайта по заданным ключевым словам. Проверить ее можно с помощью специальных инструментов, которые легко найти по запросам вроде «анализ видимости сайтов». Идеальный показатель видимости — 100%, критический — 0%.
Если ранее вы не проверяли видимость и не знаете, на что ориентироваться, проверьте свой сайт и сайты конкурентов. Показатели должны быть примерно одинаковыми. Если это не так, значит, сайт просел в выдаче.
Видимость может резко сократиться, если:
Постепенно видимость может снижаться из-за поведенческих факторов пользователей и появления конкурентов, которые делают качественное наполнение и продвижение своих сайтов.
Отслеживать трафик на сайте можно с помощью Google Analytics и Яндекс.Метрики. Необходимо учитывать, что в разные сезоны (зима/лето) и дни недели (будни/выходные) трафик может различаться. Поэтому рекомендуем смотреть динамику по отдельным периодам (неделя, месяц) и сравнивать показатели с предыдущими аналогичными периодами.
Если трафик упал, а очевидных причин вроде сезонности, наступивших праздников или внеочередных каникул нет, значит, есть проблема с видимостью. Напрямую это может зависеть от поведенческих факторов пользователей и конкурентов, к которым перешли клиенты. Косвенно — от всех проблем, которые приводят к снижению видимости.
Проверить позиции сайта в SEO можно с помощью специальных сервисов. Выделили из них топ-3 инструментов, которыми пользуемся в RU-CENTER:
Инструменты различаются между собой тарифами, интерфейсом и дополнительными опциями. Например, в сервисах «Топвизор» и SE Ranking можно проверить выдачу на разных типах устройств (мобильных и ПК), а у сервиса AllPositions самая низкая цена за проверку одной позиции сайта.
Разберемся, что представляет из себя каждая причина и как ее исправить.
Разработчики поисковых систем Яндекс и Google могут внести изменения в систему ранжирования сайтов. Если поменяется принцип выдачи по ключевым словам, позиции сайта также могут измениться.
Об изменениях можно узнать:
Рецепта, как обезопасить сайт от падения в выдаче, к сожалению, нет — как разработчики изменят механику, угадать наверняка невозможно. Стоит подождать, возможно, через какое-то время сайт вернется на свои позиции.
Если позиции сайта упали резко, значит, он попал под фильтры или ручные санкции. Фильтры накладываются автоматически из-за несоблюдения требований алгоритмов, а санкции вносятся вручную. Произойти это может по нескольким причинам. Вот основные из них:
Проверить, попал ли сайт в фильтры или под санкции в Google, можно в сервисе Google Search Console: «Проблемы безопасности и меры, принятые вручную» → «Меры, принятые вручную».
Попал ли сайт под санкции в Яндексе, проверяем в Яндекс.Вебмастере: «Диагностика» → «Безопасность и нарушения».
Чтобы убрать фильтры, нужно выяснить причину, по которой были наложены ограничения, исправить ее и отправить запрос на повторную проверку. Проверка может занять несколько недель.
А можно устранить все замечания на сайте и подождать. Ограничения и санкции снимутся автоматически после полной переиндексации сайта. Сроки ожидания — от двух недель до полугода (редко).
Поисковые системы отслеживают качество ссылок, ведущих на сайт с других ресурсов, накрутку и манипулирование результатами поисковой выдачи. К сайтам, на которых были замечены нарушения, могут применяться санкции.
В Яндекс.Вебмастере и Google Search Console в разделе «Ссылки» отображаются все ресурсы, которые ссылаются на ваш сайт. Признаки плохих ссылок:
Удалите плохие ссылки и следите за качеством новых.
На сайте могут накапливаться технические неполадки вроде медленной загрузки сайта, пустых метатегов и некорректных ответов сервера. Поисковые системы видят эти ошибки и снижают выдачу.
Ошибки на сайте можно выявить с помощью специальных сервисов, например «Топвизор», Sitechecker и других инструментов для технического аудита, а также используя Google Search Console и Яндекс.Вебмастер.
В Google Search Console нажмите «Покрытие» и посмотрите сведения со статусом «Ошибка».
В Яндекс.Вебмастере перейдите в раздел «Диагностика» и выберите кнопку «Диагностика сайта».
На индексирование также влияет контент. Если Яндекс.Вебмастер находит одинаковые заголовки и описания страниц, в сервисе появляются уведомления и рекомендации, как исправить проблему.
Устраните ошибки и отправьте запрос на повторную проверку.
Или подождите, когда сайт будет проиндексирован: его позиции начнут расти, а уведомления об ошибках в инструментах Google и Яндекс исчезнут.
Восприятие сайта поисковиками и выдача могут измениться из-за нововведений на сайте, например:
Из-за изменений на сайте появляются технические ошибки, например низкая скорость загрузки сайтов, пустые метатеги, отсутствие микроразметки, неверная настройка откликов страниц (301-й и 302-й редирект и страница 404).
Если SEO-оптимизацией у вас занимается отдельный специалист, не забудьте предупредить его обо всех изменениях на сайте, чтобы он учитывал это при продвижении ресурса.
После изменений нужно провести тестирование на ошибки и исправить их.
Поведенческие факторы — это взаимодействие пользователей с ресурсом, например: сколько времени человек провел на сайте, сколько страниц открыл, по каким ссылкам перешел. Чтобы посмотреть эти данные, можно подключить сайт к сервисам Яндекс.Метрика и Google Analytics.
Данные о поведении пользователей анализируют поисковые системы и по запросам в первую очередь выдают более интересные ресурсы — те, которые пользователи посещают часто и на которых проводят больше времени.
Если пользователи контактируют с сайтом меньше времени, чем обычно, то это приводит к постепенному снижению позиций сайта в выдаче.
Проверьте сайт на ошибки, скорость загрузки и удобство пользования. Возможно, клиенты быстро уходят, потому что долго грузятся страницы или на сайте сложная навигация.
Проверьте сниппеты — фрагменты текста, которые высвечиваются в поисковиках — и сделайте их более привлекательными.
Создавайте качественный контент, который захочется читать.
Откажитесь от накрутки поведенческих факторов с помощью сервисов. Такую услугу иногда предоставляют маркетинговые агентства, предлагая продвижение сайта. Поисковые системы, обнаружив накрутку, могут наложить санкции на продолжительный срок — часто от года.
Позиции сайта могут упасть, если появился конкурент, который делает качественный контент, следит за работой и удобством сайта и активно продвигает свой ресурс. Клиенты могут перейти к нему.
Найти конкурентов можно по ключевым словам или с помощью специализированных сервисов, например Serpstat, Similarweb, AllPositions.
Чтобы обезопасить сайт от проседания позиций, внимательно изучите конкурентов. Их сайты могут выгодно отличаться от вашего:
Берите их приемы на заметку и внедряйте в работу.
Позиции сайта могут упасть и из-за недобросовестных конкурентов, которые понижают выдачу искусственно.
О том, что сайт атакуют конкуренты, могут сигнализировать: появление на сайте контента, который вы не размещали, внешние ссылки с непроверенных источников, появление сайтов-клонов и снижение скорости загрузки страниц.
Разберемся, как именно конкуренты понижают сайт в выдаче, как обезопасить сайт и что делать, если вы заметили несанкционированные действия.
Злоумышленники, чтобы понизить сайт в выдаче, получают к нему несанкционированный доступ с помощью вирусных программ или ручного перебора паролей. Затем они проводят следующие манипуляции:
Чтобы вовремя заметить несанкционированные действия, необходимо:
Для понижения сайта в выдаче конкуренты могут размещать плохие внешние ссылки на сайт.
Плохими называют внешние ссылки, которые вредят продвижению сайта в поисковых системах. Подробнее о качестве ссылок рассказали выше, в блоке «Проблемы с обратными ссылками».
Регулярно проверяйте сайт на плохие внешние ссылки. При их обнаружении пишите запрос в службу поддержки Яндекс.Вебмастера или обратитесь за помощью к специалистам Google Search Console.
Скрапинг — это копирование контента и использование его на других сайтах.
Поисковые системы понижают в выдаче сайты со скопированным контентом, но не всегда могут верно определить первоисточник. Недобросовестные веб-мастера этим пользуются — копируют контент с других ресурсов и становятся его правообладателями, если поисковый робот проиндексирует их сайт раньше, чем оригинальный.
Чтобы предотвратить понижение позиций из-за кражи контента с вашего сайта, свяжите счетчики Яндекс.Метрики с сайтом в Яндекс.Вебмастере. Это позволит Яндексу быстро узнавать о новом контенте на вашем сайте.
сли ваш сайт пропал из выдачи или вы обнаружили, что у вас регулярно копируют контент, напишите в техподдержку Google Search Console или в службу поддержки Яндекс.Вебмастера. В качестве доказательства, что контент появился на вашем сайте раньше, приложите ссылки на страницы архива.
Злоумышленники используют агрессивный краулинг или DDoS-атаки — отправляют большое количество запросов, которые сайт пытается обработать. При этом скорость загрузки страниц сильно снижается. Атака приводит к тому, что краулер поисковых систем не получает доступ к сайту и удаляет его из поискового индекса.
Если вы заметили, что страницы сайта грузятся долго, обратитесь к администратору сервера, чтобы он помог определить и отключить источник нагрузки.
Аффилиаты — это несколько похожих сайтов, принадлежащих одной компании.
Иногда поисковые системы считают несколько сайтов аффилиатами и оставляют в результатах выдачи только один ресурс, на котором контент был проиндексирован первым. Остальные сайты уходят далеко вниз в поиске.
Некоторые причины, по которым сайты разных компаний поисковики могут определить как аффилированные:
Понять, что сайт попал под аффилиат-фильтр, непросто. Яндекс.Вебмастер и Google Search Console не поддерживают отчеты, указывающие на то, что два сайта признали похожими.
Об аффилированности может говорить существенное снижение позиций по всем или нескольким кластерам запросов.
Если у сайта нет клонов, которые принадлежат одной компании, нужно найти конкурентов.
Чтобы найти конкурента вручную, введите в поисковик его контактные данные — адрес, номер телефона, название организации — и поищите дубликаты.
Найти конкурентов автоматически можно с помощью специальных сервисов, например «Пиксель Тулс» и Bе1.ru.
Если у компании есть сайты с одинаковым контентом, но ресурсы различаются доменным именем, то следует настроить 301-редирект с каждого домена на основной, чтобы избежать попадания под фильтры.
Рекомендации, которые помогут выйти из-под аффилиат-фильтра и снизить вероятность его получения:
Если информация с сайта дублируется на чужих ресурсах, можно связаться с их владельцами и попросить исправить данные. Однако надеяться на этот способ не стоит. Вам могут отказать или не ответить.
Вирус на сайте — это вредоносный код, из-за которого владельцы сайта могут потерять к нему доступ, репутацию и клиентов, а посетители сайта — конфиденциальную информацию, например данные банковских карт.
Поисковые системы снижают выдачу сайтов, зараженных вирусами.
Если сайт резко упал в выдаче, а на странице перехода появляются уведомления об опасности, значит, сайт заражен вирусами. Чтобы удалить вирусы и обезопасить сайт от повторного заражения, используйте специальные программы.