Логотип Gusarov

отвечаем
в мессенджерах:

отвечаем
в мессенджерах:

Главные фильтры поисковой системы Google

Каждый SEO-специалист должен знать алгоритмы Google и Яндекс. Именно от них зависит авторитетность ресурса, позиции и трафик. Поэтому информация о фильтрах для вебмастеров – подсказка, как улучшить сайт, сделать его более полезным и релевантным для поисковых машин и людей.

Рассмотрим основные фильтры Google и нарушения, за которые интернет-ресурс может получить санкции.

Базовые фильтры Google

Молодые сайты сталкиваются с фильтром Domain Name Age(«Возраст доменного имени»). Наиболее доступные способы избежать его: купить домен с возрастом от 1 года или системно развивать ссылочный профиль сайта, закупить ссылки с трастовых ресурсов.

Еще один особо распространенный фильтр Google – SandBox («Песочница»). Под санкции попадают молодые сайты. Для решения этой проблемы вебмастер должен провести внутреннюю и внешнюю оптимизацию сайта, перелинковку.

За эти нарушения сайты исключаются из выдачи по релевантным запросам.

Фильтры пессимизации

Часто вместо полного исключения сайта из индекса Google применяет «пессимизацию» т.е. понижает позиции сайта в выдаче. Рассмотрим основные алгоритмы пессимизации:

Фильтр

Причины

Panda Нерелевантная реклама, переспам ключевыми словами, низкая уникальность текста.
Over Optimization («Чрезмерная оптимизация») Большое количество ключевых слов и запросов в текстах на сайте.
Duplicate Content Неуникальные тексты
CO-citation Linking Filter

Неестественный рост ссылочной массы

Комплексные фильтры в Google

Алгоритмы последнего поколения влияют на результат выдачи, ориентируясь на следующие показатели:

Один из самых важных комплексны фильтров Google – Penguin («Пингвин»). Попасть под него можно за нарушения: скрытые ссылки, спам ключевыми словами в текстах, мета-тегах, анкорах, неестественный рост ссылочной массы (даже если для внешних ссылок использовались трастовые ресурсы).

Под «Пингвин» попадают «неестественные» сайты, которые SEO-специалисты оптимизировали слепо под требования поисковых машин и не думая о пользе для людей. Поисковые роботы постоянно совершенствуются, поэтому легко обнаруживают переоптимизированные и заспамленные сайты.

Чтобы исправить нарушение, следует:

Алгоритмы совершенствуются и становятся сложнее, чтобы ТОП в выдаче был релевантным запросу и полезным.

Знаете ли вы все алгоритмы Google и Яндекс? Проверьте себя и пройдите Тест: Сможешь ли ты защитить сайт?

03.05.2018
24 queries in 0,596 seconds.