кнопка наверх

Фильтры поисковых систем: Часть 1 – Фильтры Google

Google наложение фильтров Приветствую вас, дорогой читатель! Сегодня хочу обсудить фильтры поисковых систем. И начать с краткого обзора фильтров и алгоритмов Google. Поговорим об их назначении, видах и способах борьбы с ними. Кто не в курсе, каждый поисковик имеет свою систему фильтрации сайтов в выдаче. Каждый фильтр – это набор критериев, по которым сайт будет исключен из выдачи или опущен на множество позиций вниз. Для любого сеошника нет ничего страшнее, чем попадание сайта под фильтр.

Зачем нужны фильтры Google

В идеале, все фильтры поисковиков направлены на то, чтобы в рейтинговой выдаче отображались только качественные сайты. Но к сожалению, работа поисковиков все еще не совершенна и зачастую санкции накладываются на вполне полезные ресурсы. Алгоритмы фильтров Google очень сложные. На их разработку и обновление порою уходит год, а то и больше. Поэтому чем дальше, тем сложнее обхитрить Google. Но для каждого фильтра найдется свое решение и способ защитить свой сайт от наложения данных санкций.

Google Penguin, или борьба с внешними ссылками

Данный фильтр появился в апреле 2012 года и буквально обрушил позиции многих сайтов. После анализа его работы, выявили основные причины попадания под этот фильтр. Это в основном некачественная и неестественная ссылочная масса. Сюда можно отнести ссылки с плохих заспамленных сайтов (говносайтов), быстрый рост или падение количества внешних ссылок, высокую долю анкоров с прямым вхождением «ключей», перебор в размещении не тематических исходящих ссылок. Кроме того, он учитывает и дублированный контент.

Решение. Очищать свой ресурс от некачественных исходящих ссылок, анализировать доноров. По максимуму стараться делать ссылки естественными. Необходимо контролировать свою ссылочную массу и проводить ее аудит.

Фильтр Google Panda: борьба с некачественным контентом

Если на сайте есть сгенерированный контент или копипаст, то этот фильтр для него. Кроме того, Panda не любит дубли и пустые страницы, а также большое количество рекламы на сайте. Учитывает он и некачественную внутреннюю оптимизацию ресурса.

Решение. В первую очередь, чтобы не попасть под фильтр Google Panda, нужно наполнять сайт качественным и полезным контентом. Не писать переспамленные статьи (тексты изобилующие ключевиками). Поспособствует также грамотная внутренняя перелинковка, которая будет помогать пользователю в навигации.

фильтры гугла

Google Bombing

Данный алгоритм определяет сколь большое количество ссылок с одинаковым анкором ведут на ресурс. Если таких ссылок слишком много, это грозит сайту падением позиций.

Решение. Необходимо разнообразить тексты ссылок, чтоб они не были идентичными.

Google Domain name Age Filter, или «Возраст домена»

Этот фильтр поисковой системы применяется ко всем молодым доменам. Благодаря нему происходит определением позиций сайтов в выдачи в зависимости от их возрастов.

Тут остается только ждать. Но для повышения уровня доверия к своему ресурсу (траста), необходимо обеспечить его качественной ссылочной массой с авторитетных тематических площадок.

Google Sandbox, или «Песочница»

Фильтр не дает новым сайтам продвигаться по высокочастотным запросам. Срок его действия – от 5 месяцев.

За это время вы можете продвигать ресурс по низкочастотным, или среднечастотным запросам, постепенно наращивать контент и ссылочную массу. Главное следить за тем, чтоб за это время не попасть под другие фильтры.

Over Optimization Filter: «Переоптимизация»

Название говорит само за себя. Фильтр борется со слишком усердной оптимизацией статей.

Вам не следует излишне перегружать статью ключевыми словами. Размещайте их равномерно. Пишите тексты в первую очередь для людей.

Supplemental Results Filter, или «Дополнительные результаты»

Фильтр применяется к дублированным страницам с неуникальным контентом. Он переводит их в дополнительные результаты поиска

Решение. Убирать дубли, либо наполнять их новым контентом. Также для устранения фильтра помогут внешние ссылки на данную страницу.

Page Load Time Filter: долгая загрузка сайта

Если сайт долго загружается, это является сигналом для попадания под подобные фильтры поисковиков. Как следствие – понижение в поисковой выдаче.

Чтоб этого не случилось, необходимо оптимизировать систему управления сайтом для ускорения загрузки. Также следует пользоваться хорошим быстрым хостингом.

Too many pages at once Filter: быстрый прирост страниц

Не стоит слишком спешить с добавлением новых статей, иначе система может вас заподозрить в автоматическом добавлении контента.

Добавляйте страницы порционно, но регулярно.

Too many links at once Filter: быстрый прирост ссылок

Как и в случае с приростом страниц, нужно быть аккуратными в добавлении внешних ссылок.

Пополняйте запасы ссылок постепенно, а не за один день. Чем плавнее график закупки ссылок, тем лучше.

Google -30

Этот фильтр призван бороться с откровенным спамом: редиректами, дорвеями и прочими. Он понижает выдачу на 30 позиций, а порою и ниже.

Тут совет прост – не пользуйтесь черными методами оптимизации.

Вот и все фильтры, о которых я знаю, но это далеко не полный список по теме «Фильтры Google». Если вам есть что добавить, обязательно напишите в комментариях. Надеюсь, эта статья  расширит ваше представление о работе поисковых систем, а главное, поможет не попасть под их санкции. В следующей статье я планирую более подробно остановиться на фильтрах Яндекс и их принципах работы.


1 звезда2 звезды3 звезды4 звезды5 звезд (5 оценок, среднее: 5,00 из 5)
Загрузка...
like
Понравилось?
Подпишитесь на блог и получайте новые статьи!
Добавляйтесь в соц. сетях:
Ваш комментарий: