Фильтры Google.

Крупнейшая поисковая система мира давно использует ряд алгоритмов, направленных на улучшения поисковой выдачи. У Google существует большее количество фильтров, нежели у ПС «Яндекс». Но не смотря на то, что Google является безоговорочным лидером в Украине и вторым по объемам поиска в России, часть ее фильтров не применима для русскоязычного сегмента. Тем не менее, Google уже не первый год планирует масштабный выход на рынок СНГ и, возможно, многие недействующие сейчас у нас фильтры будут введены в течении определенного времени.

« Дублирующийся Контент»

С каждым днем количество документов в сети Интернет растет быстрыми темпами. Поисковым системам сложно обрабатывать и хранить такие объемы информации, тем более, что многие ресурсы дублируют друг-друга. В основном из-за этого был введен данный фильтр на дублированный контент. К сожалению, он до сих пор работает не идеально, ведь часто первоисточник текстов ранжируется по ним ниже, чем сайт, укравший его.

Что происходит с сайтом:

Ресурс понижается в выдаче по запросам. Можете ввести часть текста из страниц (порядка 10 слов), количество заходов из которых упало, в поисковую систему и просмотреть результаты выдачи. Если Ваш сайт окажется не на первом месте – это значить, что Google не считает его первоисточником.

Как не попасть под фильтр:

Использовать контент, который не встречается в сети интернет. Если такой метод для Вас дорог и трудоемок, ввиду большого количества страниц, тогда:
– Можно уникализирровать контент, добавив в него оригинальные комментарии и части текстов
– Добавить динамический скрипт, который выводил бы на Ваших страницах какую-либо меняющуюся информации, не повторяющуюся в сети, например – окошко чата пользователей. При этот текст с окна должен индексироваться.

Заменить (в крайнем случае – уникализирровать) контент на сайте

Фильтр « – 30 »

Применим к сайтам, использующие скрытые редиректы и дорвеи. Он предназначен для борьбы с откровенным поисковым спамом в выдаче.

Что происходит с сайтом:

Страницы в результатах поиска понижаются на 30 пунктов по запросам, таким образом это ограничивает количество переходов на такие сайты (подавляющее большинство пользователей не доходит в поиске за 3-ю страницу)

Как не попасть под фильтр:

Не использовать «черные» методы - редиректы и дорвеи.

Варианты вывода сайта из-под фильтра:

Вам необходимо исключить уже приведенные методы, за которые сайт попал под фильтр.

«Слишком быстрый прирост ссылок»

Поисковая система может заподозрить Вас в попытках повлиять на поисковую выдачу путем увеличения внешней ссылочной массы на сайт. Чаще всего ему подвержены молодые сайты.

Что происходит с сайтом:

Сайт может сильно упасть в выдаче, либо это даже может привести к его “бану”.

Как не попасть под фильтр:

Варианты вывода сайта из-под фильтра:

Постепенно снимите ссылочную массу, попробуйте купить или поставить несколько ссылок на авторитетных ресурсах.

«Bombing»

Фильтр накладывается на сайт за большое количество ссылок с одинаковым текстом ссылки. Такое поведение Google считает поисковым спамом и видит в этом желание владельца сайта повысить его позиции в выдаче по определенному запросу.

Что происходит с сайтом:

В большей части случаев сайт “вылетает” из выдачи – накладывается БАН.

Как не попасть под фильтр:

При продвижении сайта не размещать большое количество ссылок с одинаковым текстом.

Варианты вывода сайта из-под фильтра:

Изначально попробуйте разбавить тексты ссылок, которые идут на Вас с других сайтов (либо купите новых, либо измените часть уже имеющихся, если это возможно). Потом добавьте Ваш сайт в заявку на индексацию.

«Sandbox» – песочница

Гугл с осторожностью относиться к сайтам, недавно появившемся в сети. Это обусловнено желанием поисковой системы бороться со спамом. Данный фильтр противодействует молодым сайтам попасть на первые позиции с популярными запросами (особенно – коммерческими).

Что происходит с сайтом:

Не смотря на проделанную работу по продвижению, ресурс не выходит в ТОП по популярным запросам, хотя, при этом есть трафик по низкочастотным поисковым фразам.

Как не попасть под фильтр:

Купить домен “с возрастом” и историей. При этом нужно проверить, что было размещено на нем до Вас, так как не исключено, что новое доменное имя может быть под действием какого-либо фильтра.

Варианты вывода сайта из-под фильтра:

Сразу выбраться из “песочницы” нельзя. Согласно наблюдениям, данный фильтр снимается не с каждого сайта по отдельности, а с групп сайтов сразу(по тематикам). Можно лишь ускорить процесс выхода из-под данного фильтра путем размещения нескольких ссылок на качественных ресурсах с историей, имеющих высокие показатели.

Раньше эффективным способом продвижения было использование обмена ссылками. При этом на сайтах создавались специальные страницы с большим количеством “линков” на другие сайты. Позже Гугл начал бороться с такими способами, предназначенными для влияния на результаты выдачи.

Что происходит с сайтом:

Понижение в поисковых результатах

Как не попасть под фильтр:

Не использовать “линкопомойки” (страницы, которые ссылаются на очень большое количество сайтов). Не используйте в названии страницы на сайте links.html

Варианты вывода сайта из-под фильтра:

Убрать или запретить к индексации страницу с большим количеством ссылок.

«Социтирование»

Для поисковой системы логичным является ранжировать сайты, на которые ссылаются авторитетные ресурсы с его же ниши(тематики). Если на Ваш ресурс ссылается много сайтов с “нежелательными” тематиками (часто это казино, порнография) или рядом со ссылкой на вас в блоке стоят “линки” на такие сайты, тогда Гугл считает, что Вы также имеете схожее наполнение, как и эти сайты. Это вредит тематичности Вашего сайта.

Что происходит с сайтом:

Ресурс по “своим” запросам теряет позиции в поисковой выдаче.

Как не попасть под фильтр:

Варианты вывода сайта из-под фильтра:

Пересмотр ссылочной масы. Попытайтесь снять нежелательные “линки” на Ваш ресурс(имеющие уже описанные параметры), ведущие с других сайтов.

«Степень доверия к сайту»

Этот фильтр можно назвать сборным, да и фильтром назвать сложно, скорее – это параметр для ранжирования. В нем учитываются такие основные факторы, как:
– Какие сайты на Вас ссылаются (их авторитет и насколько сложно получить ссылку от них)
– На какие ресурсы ссылаетесь Вы (нежелательно ставить у себя линки на некачественные и сомнительные сайты).
– Возраст и история доменного имени (сайта). Чем старше – тем лучше.
– Качество страниц сайта, его “перелинковка”.
– Количество ссылок (как в ходящих, так и исходящих, на ряду с упомянутыми их качественными показателями).
А также многое другое…

Как получить большую степень доверия к сайту:

Стараться, чтобы сайт соответствовал уже перечисленным факторам.

«Переоптимизация»

Для того, чтобы поставить владельцев сайтов в равные условия и свести к минимуму возможность существенно влиять на выдачу с помощью методов внутренней оптимизации был введен данный фильтр. Он учитывает количество ключевых фраз на страницах сайта в тексте, заголовках и мета-тегах. Фильтр начинает действовать в случае, если страница перенасыщена ключевыми словами.

Что происходит с сайтом:

Падают позиции страниц сайта по ключевым словам, под которые он оптимизирован.

Как не попасть под фильтр:

Не пытаться чрезмерно насытить текты, заголовки и мета-теги ключевыми словами.

Варианты вывода сайта из-под фильтра:

Подкорректировать информацию на страницах сайта, которые Вы подозреваете в попадании под фильтр. Уменьшить количество ключевых слов.

«Время загрузки»

“Гугл” старается ранжировать выше именно качественные сайты, которые были бы не только полезны и интересны пользователю, но и не вызывали неудобств в работе с ними. Исходя из этого поисковая система стала учитывать время загрузки веб-страниц

Что происходит с сайтом

Ваш веб-ресурс хуже ранжируется в поисковой системе.

Как не попасть под фильтр

Использовать качественный хостинг. В случае увеличение нагрузки на сайт (рост посетителей, установка дополнительных “тяжелых” модулей и другое…) – изменить хостинг-план на более подходящий под эти цели.

Варианты вывода сайта из-под фильтра:

При подозрении попадания Вашего сайта под этот фильтр – смените хостинг или хостинг-план для ресурса.

«Supplementary Results»

Данный фильтр накладывается на некоторые страницы Вашего сайта, которые поисковая система Гугл считает менее значимыми и полезными для пользователей. Часто ему подвержены те документы, которые содержат дублирующийся контент, отсутствуют входящие ссылки на страницы, также, повторяются мета-теги.

Что происходит с сайтом:

Страницы не полностью выпадают из поиска, но их можно найти лишь кликнув по ссылке “показать дополнительные результаты”. Также, они ранжируются очень плохо.

Как не попасть под фильтр:

Разместить несколько входящих ссылок на такие страницы, не публиковать большой процент дублирующихся материалов, писать оригинальные заголовки для веб-документов.

Варианты вывода сайта из-под фильтра:

Устранить все негативные факторы, перечисленные в разделе, за которые накладывается данный фильтр.

Хочу сегодня обратить ваше внимание на фильтры от поисковой системы Google.

Когда я только создал свой блог, я понятия не имел, что алгоритмы поисковиков созданы настолько грамотно, что если им встречается некачественный сайт, тогда они могут на него наложить некоторые ограничения.

Конечно, если вернуть время назад, я развивал бы свой ресурс совсем другим образом и не стал бы делать тех ошибок, которые привели меня к плачевному результату.

Как говорится, если осведомлен — значит вооружен.

Виды фильтров у Google

1) «Песочница» или Sandbox . Этот фильтр накладывается на молодые сайты в момент их рождения в сети интернет.

Это своего рода испытание для сайтов, чтобы не попали на топовые места, мало живущие дорвеи, блоги однодневки и др.

Сами подумайте зачем, Гуглу ставить непроверенные сайты на верхние места выдачи, если через определенное время такой сайт может и вовсе перестать существовать.

Выход из-под фильтра

— ждать;
— наращивать естественную ссылочную массу;
— писать регулярно ;
— купить старый домен;

2) Google Florida . Этот фильтр накладывается на сайты, имеющие чрезмерную оптимизацию страниц.

Он отслеживает злоупотребление мета-тегов: strong, h1-h6, насыщенное количество ключевых слов и их плотность.

Выход из-под фильтра

— заменить seo оптимизацию на нормальную;

3) Google Bombing . Понижение конкретной страницы в выдаче, за счет ссылающихся одинаковых анкоров в большом количестве.

Если вы будете продвигать какую-нибудь страницу, используя внешние ссылки с одинаковым анкором, тогда результат получится полностью наоборот.

Выход из-под фильтра

4) «Минус 30» . Под данный фильтр google попадают сайт, которые используют для продвижения «черную» оптимизацию. Такие ресурсы Гугл понижает на 30 позиций.

Причины попадания под фильтр

— резкое увеличение ссылочной массы с некачественных площадок (каталогов, гостевых книг и комментариев);
— помойки ссылок;
— редирект при помощи java script, а также ;

Выход из-под фильтра

— не использовать вышеперечисленные пункты для продвижения сайта;
— убрать редирект;

5) «Дополнительные результаты» или Supplemental Results . Если страницы окажутся под таким фильтрам, тогда они будут выводиться в поиске, только если «качественных» сайтов будет недостаточно, кликнув по ссылке «дополнительные результаты».

Выход из-под фильтра

— уникализировать на странице мета-теги и title;
— закупить несколько трастовых ссылок на данную страницу;
— увеличить объем уникального контента страницы;

Выход из-под фильтра

— избавиться от нерабочих ссылок;

7) «Неуникальный контент» . Если сайт использует ворованный контент (копипаст), тогда этот фильтр будет понижать его в результатах выдачи.

Хотя бывают случаи, когда фильтр Google накладывается не на ворующего, а на того, у кого своровали. а играет очень важную роль.

Выход из-под фильтра

— не воровать чужой материал;
— ускорить индексацию страниц;
— удалить неуникальный материал;

8) «Время загрузки страниц сайта» . Когда робот заходит на сайт и не получает доступ к его содержимому (по причине некачественного хостинга или сервера), тогда он такие страницы пропустит и они не смогут попасть в индекс.

Выход из-под фильтра

— поменять хостинг на качественный, у которого 99,95%;

9) «Цитирование» или Co-citation Linking Filter . Суть его в том, что ссылаться стоит только на качественные сайты, которые в свою очередь тоже должны ссылаться на качественные площадки.

В основном под такой фильтр могут попасть только сайты .

Выход из-под фильтра

Выход из-под фильтра

— ссылаться на сайты по цепочке 1 на 2, 2 на 3, 3 на 1.

11) «Много ссылок сразу» . Этот фильтр Гугла понижает сайты в выдаче, а иногда даже накладывает бан, за участи площадки в линк помойках, больших закупок ссылок и др.

Выход из-под фильтра

12) «Много страниц сразу» . Если на блоге появляется огромное количество контента за маленький промежуток времени, тогда Google может посчитать, что это не естественно и наложить фильтр.

Выход из-под фильтра

— соблюдайте естественность;
— если используете , тогда поставьте ограничение на количество добавляемого материала;

13) «Степень доверия» или Trust Rank . Чем больше вы получите доверия от Google, тем выше будут ваши позиции в выдаче ТОП. Этот фильтр включает все, что было перечислено выше.

— возраст домена;
— качество входящих ссылок;
— количество исходящих ссылок;
— качество ;

14) Google Panda . Этот фильтр появился не так давно, но уже успел потрепать нервишки многим сеошникам.

Суть его заключается в том, что говносайты не должны попадать в индекс, подробно о нем я рассказал в статье « ».

Выход из-под фильтра

— делайте СДЛ сайт, используя все вышеприведенные рекомендации;

15) Google Пингвин . Самый последний из фильтров. Суть его заключается в том, чтобы понизить в выдаче сайты, которые для продвижения используют покупные ссылки.

В ходе его работы на многих блогах сократилась посещаемость, а на других наоборот выросла. Очень подробно о нем я рассказал в прошлой статье « ».

Выход из-под фильтра

Еще хочу добавить, что если вы делаете сайт для людей (СДЛ), часто обновляемый, содержащий уникальный контент и приносящий пользу, он никогда не попадет под фильтры Гугла, а показатели ТИЦ, PR и Траст будут расти сами собой.

Если все-таки вас фильтр не обошел стороной, тогда не отчаивайтесь и развивайте свой проект дальше.

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу - по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Как ни крути, а от плохого контента нужно избавляться путем изменения или удаления вредоносных страниц. Старайтесь размещать на сайте только уникальный качественный контент, которые понравятся алгоритмам поисковой системы.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Владельцам молодых сайтов не стоит отчаиваться, а следует развивать свой ресурс, наполняя его уникальным релевантным контентом. Как вариант, можно получить ссылки с тематически близких сайтов, которые уже обрели трастовость у поисковых систем и имеют высокое значение PR. Таким образом, можно ускорить «взросление» вашего сайта и выход из «детской» Песочницы.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Про борьбу с соплями у WPnew есть неплохие материалы. Вкратце — следует удалять бесполезные страницы со служебной информацией и технических дубли, а также применять редирект с канонической ссылкой.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Чтобы снять этот фильтр нужно разнообразить анкоры ссылок. Рекомендуется увеличить количество «естественных» анкоров. Можно снять часть ссылок и добавить новых со всевозможными текстами.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

Не ленитесь проверять доноры на тематики перед закупкой ссылок во избежание наложения фильтра.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Во избежания проблем с действием этого фильтра, необходимо наращивать ссылочную массу максимально медленно и небольшими темпами. Если вы занимаетесь продвижением молодого сайта, рекомендуется покупать не больше 3-10 хороших ссылок в сутки. При успешном продвижении количество можно увеличить.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.

Фильтры за возраст сайта:

DNA

Фильтр на недавно зарегистрированные домены DNA (Domain Name Age). Накладывается на «молодые» домены. Для того, что б сайт на недавно зарегистрированном домене смог подняться в топе Googl`а, нужно завоевать «доверие» у системы Google. Выход из под фильтра:

  • Просто подождать;
  • Набирать так называемый траст, поставить на себя ссылки со старых тематических сайтов.

Песочница (или по научному SandBox)

Под фильтр песочница попадают молодые сайты. Основная причина заключается в низком доверии поисковика к сайту. От DomainNameAge, SandBox отличается тем, что под него могут попасть сайты на старых доменах, если эти сайты плохо или совсем не обновляются, не обрастают бэклинками и у них низкий уровень посещаемости.

Выход из под фильтра:

  • Наращивание естественных ссылок с тематических сайтов;
  • Развивать проект дальше.

Фильтры Google за манипуляции с внутренними факторами

Google Florida

Фильтр за чрезмерное использование инструментов оптимизации страницы. Один из самых старых фильтров использующий множество параметров для анализа.

Причина наложения фильтра - неправильная (слишком частое употребление «ключевиков» в тексте, чрезмерное выделение ключевых слов тегами и т.д.).

Последствия - сайт существенно теряет позиции в выдаче.

Выход из под фильтра - заменить всю сео-оптимизированную текстовку на хорошо читаемую (сократить плотность вхождений ключевых слов и фраз). Если не помогает, то на страницах попавших под фильтр оставьте только одно прямое вхождение ключа. Вот так выглядел алгоритм Флориды:

Очень страшно и не понятно 🙂 Сейчас этого фильтра как такового нет, он существовал 7 - 5 лет назад, после чего Гугл его прикрыл, поняв его не состоятельность, ведь фильтр накладывался на определённые страницы, а не сайты и по этому оптимизаторы создавали по несколько версий сайта, одна часть переоптимизирована, а другая недооптимизирована, чтоб обмануть алгоритм этого фильтра. Сейчас работает более лояльная модификация этого фильтра, который уже по ювелирному оценивает содержимое страницы.

Google Supplemental Results или просто Сопли

Перенос сайта из основного раздела в дополнительные разделы поиска. Проверить можно таким способом - Посмотреть основную выдачу таким запросам:

site:сайт/& или site:сайт/*

потом посмотреть всю выдачу:

Разница между запросами 2 и 1 будет ровняться количеству страниц находящимися под фильтром.

Выход из под фильтра:

  • Удаление повторяющихся страниц;
  • Уникализация каждой отдельно взятой страницы;
  • Покупка на зафильтрованные страницы трастовых ссылок;
  • Уникализация title и мета-тегов; * - самое главное
  • Написать полностью уникальный контент; * - самое главное
  • Убрать битые ссылки.

У Шакина например половина страниц под соплями и не смотря на это, с Гугла идёт хороший трафик.

Google Omitted Results

Перенесение сайта из основного раздела выдачи в опущенные результаты поиска Налаживается на страницы, которые по своей структуре и содержанию очень схожи со страницами других сайтов или страницами этого же сайта. Может применяться одновременно с фильтром Supplemental Results.

Признаки - сайт отсутствует в основной выдаче, но он находится, после нажатия на ссылку «повторить поиск, включив опущенные результаты». Выглядит это чудо вот так:

Выход из под фильтра:

  • Сделать продвигаемые страницы уникальными(контент, мета-теги);
  • Удалить все дубли.

Google Duplicate Content

Фильтры Google за манипуляции ссылками

Google Bombing

Фильтр за одинаковые анкоры ссылок. Если на ваш сайт ссылается много сайтов и анкоры ссылок везде одинаковые, то сайт попадает под фильтр и бэки начинают передавать вес намного меньше.

Признаки - проседание позиций или застрявание сайта на одних и тех же позициях длительное время, нет результата от увеличения ссылок на ваш сайт.

Методы выхода и защиты:

  • добавить в анкор-лист новых, разбавленных слов.
  • Увеличить количество естественных ссылок (тут, клик и.т.п.)

Google -30

Накладывается за использование клоакинга, редиректов и других методов черной оптимизации. Признаки: падение сайта примерно на 30 позиций.

Методы выхода и защиты:

  • Стараться не использовать чёрные методы продвижения;
  • Если уже попали под фильтр, то скорей всего дальше будет бан.

ReciprocalLinksFilter и LinkFarming Filter

Понижающие фильтры за искусственное наращивание . Накладываются за участие в сетях по обмену ссылками, наличие линкопомоек и покупку ссылок на сайте. При этом у сайта наблюдаются понижение позиций или бан.

Методы выхода и защиты:

  • осторожно работать с покупкой, продажей и размещением ссылок;
  • устранить причины наложения фильтра.

Co-Citation Filter

Фильтр за бэки с сайтов, ссылающихся на “плохие” сайты. В общем если на вас ссылается сайт и в то же время он ссылается на какие-нибудь ГС (запрещенные тематики и т.п.), то это плохо.

Методы выхода и защиты: - старайтесь получать ссылки только с хороших и тематических сайтов.

To Many Links at Once Filter

Фильтр за быстрый прирост бэклинков. Надо во всём соблюдать естественность и набор ссылочной массы тоже должен быть естественным, тем более для молодого сайта.

PS: Очень буду благодарен за ваш ретвит.

UP:08.01.2017

Последние годы основные фильтры у Google стали Панда и . Первый пессимизирует сайты за использование не качественного контент, а второй соответственно, за продвижение с помощью SEO ссылок.

Поисковая система Google имеет в своем арсенале множество фильтров, которые влияют на продвижение и позиции сайта. В данной статье мы подробно рассмотрим основные и актуальные фильтры Гугл, которые не стоит игнорировать в процессе SEO-продвижения.

Часто можно столкнуться с ситуацией, когда сайт оптимизируешь всеми силами, продвигаешь его трудоемким и времязатратным написанием полезного контента, а в результате показатели Google остаются безутешными, проект находится далеко не на лидирующих местах, или еще хуже, выпадает из-под индекса. При этом в Яндексе наоборот, большинство статей попадают в топовую десятку.

В чем причина? Ответ на данный вопрос простой – сайт под фильтром Гугл. Эта буржунетовская поисковая система находится в постоянном движении, не стоя на месте, придумывает какие-то новинки – так называемые фильтры. Google высокоразвит, в его арсенале мощные алгоритмы, способные с абсолютной точностью определить на самом ли деле качественный ресурс или его следует отправить под фильтр.

Проблема в том, что упомянутый поисковик является полностью автоматизированным, система сама вводит и выводит из-под фильтров, так что обращаться в техподдержку здесь бессмысленно. Рекомендуется ни при каких обстоятельствах не попадать под фильтр, так как есть вероятность остаться в нем навсегда. Поэтому к этой теме нужно подойти со всей серьезностью, изучить распространенные их виды, и что самое главное, разобраться, как с ними бороться. Но для начала, заподозрив что-то неладное со своим веб-проектом (снизился трафик, скачок позиций), нужно проверить фильтр Гугла.

Как проверить сайт на фильтры Гугла

Изучая теорию по SЕО, для будущей подготовки, или при работе уже с собственным проектом, всегда возникает вопрос: «Как узнать что сайт под фильтром Google?». Увы, для этого не существует универсального способа. Однако есть комплекс некоторых методов, комбинируя которые можно получить более достоверный результат. Среди их числа:

- Проверка наличия в поиске главной страницы - является самым простым способом. Для этого название домена вписывают в поисковую строку и нажимают «Поиск». Отсутствие в результате выдачи вашей главной страницы указывает, что сайт попал под фильтр Гугла.

- Search Console сервис (абсолютно бесплатный), позволяющий узнать позиции сайта в Google. Зайдя в него в левой части экрана можно увидеть меню, в котором следует отыскать пункт «Меры, принятые вручную» и кликнуть по нему мышкой.

Это меню отображает информацию о ручном применении санкций по отношению веб-страницы. Однако это не является 100 % гарантией отсутствия фильтров.

- Анализ посещаемости веб-ресурса . На то, что сайт под фильтром Google указывает и резкое падение численности посетителей.

Проверить фильтр Google можно и, выполнив проверку внешних ссылок, которые зачастую образуют ссылочный спам. Иногда по результатам проверок оказывается, что только некоторые страницы выпали из индекса. Этому содействует наличие ссылочного спама на указанные страницы, поэтому к ним и применяются соответственные фильтры.

Может быть, что вы сами того не зная, пополнили плохими ссылками внешний ссылочный профиль продвигаемого проекта. В таком случае необходимо от них избавляться.

Если вы ничего не предпринимали, а проверка указывает на ссылочный спам, значит это действия неких доброжелателей, которые хотят таким методом, избавится от конкурента. Также нужно избавляться от дублированных страниц.

Фильтры Google

Поисковик Google имеет следующие распространенные фильтры:

- Фильтр Панда оккупировал просторы интернета в 2011 году. Применяется он к сайтам, с неуникальным контентом, избыточной рекламой, ссылками некачественных сайтов-доноров, большим количеством ключевиков и др.

Чтобы из под него выйти следует потрудиться над уникальностью текста, избавится от некачественных ссылок, убрать ненужную рекламу (навязчивую, агрессивную или запрещенную) и лишние ключевые фразы.

На помощь предыдущему в 2012 году был создан фильтр Пингвин , наказывающий сайты за черные методы продвижения (внешние линки). Накладывается зачастую через быстрый прирост закупленных ссылок, большую плотность (выше 7%) ключевиков с прямым анкорным вхождением, дублированные страницы и скрытые ссылки.

Для выхода из-под него плотность ключевиков должна составлять не более 4 процентов, ссылки заменяются на безанкорные. Также следует избавиться от скрытых линков и сделать перенаправление дубликатов. Рекомендуется иметь ссылки естественные.

- Песочница(Sandbox). Накладывается на молодые сайты (до 3 месяцев). Предназначение данного фильтра заключается в борьбе с сомнительными сайтами (сайты однодневки) и спамом. Данный фильтр не обходит даже самые качественные проекты в начале их долгого пути.

Sandbox не распространяется на запросы с низкой или средней частотностью. Поэтому молодым ресурсам рекомендуется изначально какое-то время для продвижения использовать низкочастотные запросы.

Чтобы не попасть (выйти) под этот фильтр, необходимо следовать действиям:

Первое время ничего не предпринимать, просто ждать;

Затем обновить контент, добавить новый материал;

Найти (купить) старый домен с подходящей тематикой и делать на нем сайт или же склеить новый домен со старым.

- Дублированный контент . Применяется к сайтам, любителям красть (копировать) чужую информацию. Такие ресурсы попадают под фильтры Гугл и выпадают из индекса.

Чтобы подобные санкции предупредить для продвижения проекта всегда нужно использовать уникальный контент. Если же информация берется с других источников, делать ее качественный рерайт.

- Быстрый рост ссылок . Если за достаточно короткое время на сайте появилось внушительное количество ссылок, их влияние на ранжирование просто исчезает, так как Google воспринимает это манипуляцией по отношению к нему. В итоге ресурс теряет позиции и трафик.

Чтобы не попасть под фильтр, стоит максимально естественным путем (постепенно) пополнять ссылочную массу.

- Бомбинг . Действует при наличии обильного количества внешних ссылок с аналогичными анкорами. В итоге Гугл игнорирует их, сайт не индексируется и не продвигается в поисковике.

Минус 30 (-30). Его предназначение заключается в борьбе с реальным спамом в выдаче, сюда относятся сайты дорвеи или, имеющие скрытые редиректы.

Попав под фильтр, сайт понижается в выдаче и не показывается выше 30 позиции. Для его предотвращения просто не применяйте черные способы продвижения.

- Trust Rank (уровень доверия к ресурсу) .

Зависит от следующих показателей:

Ссылок на сайт и их качества;

Качества контента;

Внутренней перелинковки;

Возраста доменного имени.

- Социтирование . Продвигая свой ресурс, в обязательном порядке нужно позаботиться о том, чтобы на него ссылались сайты с похожей тематикой, в противном случае в силу приступает фильтр Социтирование.

Поисковик способен анализировать обратные линки на ваш ресурс, при большом проценте несоответствия их тематике или еще хуже нежелательной тематики (азартные игры и др.) накладывается данный фильтр. За указанным процессом можно проследить через сервис Google Webmaster Tools.

Чтобы под него не попасть, нужно избегать подобных ссылок и залучать наиболее тематические.

- Скорость загрузки сайта . От нее также зависит продвижение сайтов. При постоянной медленной загрузке из поисковика на сайт, Гугл понижает его позиции.

Чтобы этого избежать, нужно использовать качественные серверы и надежные провайдеры для размещения ресурса. А для своевременной помощи, рекомендуется периодически наблюдать за скоростью и доступностью проекта.

Во избежания всех неурядиц просто не используйте страницы со ссылками на иные сайты.

- Переоптимизация . Этот Гугл фильтр предназначен для понижения сайтов, имеющих чрезмерную внутреннюю переоптимизацию.

Ключевые запросы на странице (оптимизация) должны быть нормальными (умеренными).

Чтобы оградить себя от ненужных последствий, контент следует оптимизировать осторожно, не перенасыщать его ключевиками, чтобы текст был человекочитабельным.

Итог

Как уже говорилось, Google имеет огромное количество разнообразных фильтров, что даже профессионалам (оптимизаторам) бывает нелегко вычислить, под каким из них пребывает сайт.

В продвижении проекта достаточно будет учитывать основные вышерассмотренные фильтры Google, для предотвращения попадания своего проекта в бан или под фильтр.

Спасибо за внимание и до скорого на страницах Stimylrosta.

Обнаружили в тексте грамматическую ошибку? Пожалуйста, сообщите об этом администратору: выделите текст и нажмите сочетание горячих клавиш Ctrl+Enter



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: