Фильтры Гугла

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу — по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Как ни крути, а от плохого контента нужно избавляться путем изменения или удаления вредоносных страниц. Старайтесь размещать на сайте только уникальный качественный контент, которые понравятся алгоритмам поисковой системы.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Владельцам молодых сайтов не стоит отчаиваться, а следует развивать свой ресурс, наполняя его уникальным релевантным контентом. Как вариант, можно получить ссылки с тематически близких сайтов, которые уже обрели трастовость у поисковых систем и имеют высокое значение PR. Таким образом, можно ускорить «взросление» вашего сайта и выход из «детской» Песочницы.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Про борьбу с соплями у WPnew есть неплохие материалы. Вкратце — следует удалять бесполезные страницы со служебной информацией и технических дубли, а также применять редирект с канонической ссылкой.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Необходимо анализировать исходящие ссылки, проверяя содержимое сайта через специальные программы и сервисы. Особый очаг распространения битых ссылок несут комментарии. В них могут ссылаться на ресурсы, которые могут со временем попасть под фильтры или вовсе прекратить свое существование.

Too many pages at once

Этот фильтр накладывается на сайты, на которых слишком быстро размещают новые страницы. Такой случай вызывает подозрение у Гугла в автоматическом наполнении контента. Обычно, за автоматическое создание страниц отвечает специальная программа по созданию ГС, например, тех же дорвеев.

Не рекомендуется одновременно добавлять большое количество страниц на ресурс. Оптимальное заполнение сайта базируется на регулярном добавлении небольшого количества страниц за раз.

Page Load Time

Сайты с долгой загрузкой содержимого подвергаются наложению этого фильтра. Page Load Time Filter призывает оптимизаторов уменьшать скорость загрузки ресурса.

Старайтесь не использовать на сайте плагины и большое количество рекламных баннеров, которые тормозят загрузку страниц.

Baby Panda

Панда-малышка занимается охотой на сайты «Made for AdSense» (MFA). Такие ресурсы созданы специально для размещения рекламы, которые, в целом, не несут никакого полезного контента для пользователей. Как правило, фильтр применяется для тех сайтов, в которых верхние части страниц занимает реклама. Если на вашем ресурсе страницы содержат обилие рекламы в верхней части, и замечено снижение позиций в Гугле, значит фильтр был наложен.

Нужно следить за юзабилити сайта, чтобы реклама не мешала пользователям просматривать контент. Избегайте передоза рекламы в верхней части страниц сайта.

EDM-алгоритм

Всегда найдутся желающие представить домен в виде ключевого запроса. Для таких умников и предназначен EDM-алгоритм, который позаботится о снижении позиций в выдаче. Не создавайте SEO-домены, ибо такая оптимизация может выйти вам боком.

Проблема решается перездом сайта на новый домен. Затея отнюдь не привлекательная, зато решит проблему с EMD и, возможно, освободит от санкций других фильтров!

Florida

Переоптимизация текста также грозит проблемами с ранжированием в ПС Гугл. Этот фильтр является одним из первых фильтров Гугла, который борется с частым употреблением ключевых запросов в тексте. Естественно, что страницы с переоптимизированным контентом полетят вниз по позициям в поисковой выдаче, и в целом ухудшат трастовость сайта.

У меня нет точной информации, на запрос или на документ накладывается данный фильтр (у Камской вообще написано нечто непонятное про «резкое падение сайта по всем запросам в выдаче»), но общий принцип похож на Переоптимизацию от Яндекса — из-за употребления слишком большого количества ключей позиции по запросам занижаются.

Link Farming

Под фильтр рано или поздно попадают все сайты, которые созданы с целью размещения ссылок. Доноры-линкопомойки становятся бесполезными, так как благодаря фильтру исходящие ссылки вовсе перестают учитываться.

Осуществляя внутренний аудит сайта, следите за общим количеством исходящих ссылок. В идеале, количество бэклинков должно превышать число исходящих.

Анти WAP-клик

Был внедрен примерно 12 июня 2015 года, о чем писал MadFox.

Сайты, сливавшие мобильных юзеров через редирект — ушли в бан, все страницы выпилены из индекса. Данный фильтр коснулся только тех сайтов, которые сливали вап-клик редиректом. Тех сайтов, кто не сливал вап-клик редиректом, данный фильтр почти не коснулся.

Некоторые также полагают, что есть фильтр за появление огромного количества контента за небольшой промежуток времени.

Фильтры за внешние нарушения

При поисковом продвижении сайта часто возникают проблемы с качеством и количеством размещенных ссылок, анкорными листами, трастом доноров, а также запрещенными приемами, связанными с редиректом.

Пингвин

Фильтр «Пингвин» нацелен на борьбу с некачественными ссылками, которые размещают для увеличения PageRank и продвижения в поисковой выдаче. Пингвин весьма заметно действует с 2012 года, значительно понижая сайты-акцепторы недобросовестных вебмастеров по ключевым запросам в выдаче Гугла. При автоматическом Пингвине некоторые разделы сайта могут сохранять трафик, и запросы остаются в топе — трафик и запросы падают лишь с части страниц. При ручном Пингвине весь сайт попадает под санкции. Вот инструкция по снятию Пингвина средствами FastTrust. Обновление и факт применения или снятия санкций во многих случаях происходит автоматически.

Чтобы избежать попадания под фильтр, необходимо регулярно проверять ссылочную массу ресурса. В случае нахождения плохих ссылок, лучше от них избавиться. Сделать это возможно с помощью Гугл-инструмента Отклонение ссылок.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Чтобы снять этот фильтр нужно разнообразить анкоры ссылок. Рекомендуется увеличить количество «естественных» анкоров. Можно снять часть ссылок и добавить новых со всевозможными текстами.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

Не ленитесь проверять доноры на тематики перед закупкой ссылок во избежание наложения фильтра.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Во избежания проблем с действием этого фильтра, необходимо наращивать ссылочную массу максимально медленно и небольшими темпами. Если вы занимаетесь продвижением молодого сайта, рекомендуется покупать не больше 3-10 хороших ссылок в сутки. При успешном продвижении количество можно увеличить.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.
Дешево и все работает, без падений и геммороя. Я с него начинал
И я в том числе. Они номер 1 по надежности и по примочкам
Которые мне пишут тексты сотнями. Рефам даю подсказки в скайпе
Добавить в закладки
Голосовать ПРОТИВГолосовать ЗА 0
Загрузка...
Добавить комментарий

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: