Заявка на услуги

Как подружиться с Google или новые тенденции в ранжировании сайтов в Google

Дата: 23.10.15

Google регулярно совершенствует алгоритмы ранжирования с одной целью – улучшить качество выдачи сайтов, чтобы наверх поднимались наиболее соответствующие запросу.

С точки зрения поисковой системы сайт должен содержать уникальный контент, полностью соответствующий уникальному торговому предложению и запросу, представлять его в понятном поисковику и людям виде.

Качественное наполнение страниц бессмысленно, если поисковая система его не поймет и не оценит, а такое в свете последних тенденций вполне возможно. Другими словами, для достижения результата в продвижении нужен комплексный подход к форме и содержанию сайта.

В последнее время Google предпринял несколько реальных шагов к понижению в поисковой выдаче позиций сайтов, не выполняющих рекомендаций.

1. Googlebot видит не все

Содержимое сайта может оказаться не различимым для Googlebot. Сайты на платформе WIX были выведены из ранжирования Google из-за того, что робот не смог увидеть файлы CSS и JS. Сначала последовали предупреждения с указаниями на скрытые файлы, затем, если ошибки не исправили, сайты удалили из раздачи.

2.Мобильный поиск имеет значение

В выдаче ниже ранжируются оцениваются сайты, которые неудобны для просмотра на мобильных устройствах. Адаптация сайта к смартфонам и планшетам (то есть если у сайта есть мобильная версия) заметно улучшает позиции. Эта тенденция в действиях поисковика появилась после того, как количество запросов с мобильных устройств летом 2015 года превысило число обычных.

3.Разметка, как фактор ранжирования

При сравнении двух идентичных сайтов выше в раздаче поднимется имеющий правильное техническое устройство. Возрастает роль разметки Schema.org, которая делает сайт понятным для большинства поисковых систем. Но теги и атрибуты не спасут от понижения сайт-пустышку. Поисковик увидит, есть ли за семантической разметкой нужное содержание.

4.Взломанный сайт вне выдачи

В начале октября Google в блоге для вебмастеров разъяснил, что полностью вычищает из выдачи взломанные сайты. Регулярная проверка сайта на наличие последствий хакерских атак в виде вредоносных вирусов поможет избежать неожиданного выпадения из раздачи.

Как не попасть в зоопарк Google

Пингвин и Панда не первый год на вооружении поисковика в борьбе с некачественными сайтами, использующими неестественные внешние ссылки и неуникальный контент.

Последние изменения в работе программы Google Penguin свидетельствуют о начале нового витка борьбы. Новость о том, что пониженые в выдаче ГУГЛ сайты, покупали ссылки на SAPE, Google официально не подтвердил. Но известно, что Пингвин переводится на алгоритм работы в режиме реального времени с полным автоматическим обновлением. Избежать попадания под санкции Пингвина можно регулярным анализом ссылочной массы. Panda в ГУГЛ отвечает за выявление сайтов с некачественным контентом, не соответствующим семантическому ядру. Главная обсуждаемая новость – дублированный с сайта-первоисточника контент сам по себе больше не является причиной для выбрасывания сайта-плагиатора из раздачи. Оценивается качество контента в целом, а не отдельные тексты, фото. Поэтому иногда сайт с оригиналами в раздаче окажется ниже позаимствовавшего у него содержимое. Хорошая новость для тех, на кого Панда уже обрушилась: улучшение контента и исправление ошибок нравится Google, и сайт может быть возвращен на свои прежние позиции. Обновление Панда 4.2 же запущено в июле, и алгоритм постепенно набирает силу.

Вывода из новостей два:

Продвижение сайта в Google требует постоянного внимания к меняющимся требованиям поисковой системы и комплексной работы специалистов. Сайты, угодившие под санкции за некачественные ссылки, контент, вирусы нужно дорабатывать и исправлять в них ошибки, что позволит постепенно увеличить трафик с Google.