На сайте www.joe-whyte.com опубликована статья о различных фильтрах, наиболее часто обсуждаемых в среде вебмастеров, которые поисковая система Google потенциально может применять к сайтам в выдаче. Автор также рассказывает о различных способах, позволяющих обойти эти фильтры и даже использовать их себе во благо.
Google Sandbox так называемая песочница Google, в которую обычно попадают все новые сайты, хотя известны случаи, когда фильтр применялся и к относительно старым сайтам. Поисковая система задействует специальный механизм, который не позволяет молодым сайтам получить высокие позиции по конкурентным ключевым запросам. Однако, по менее популярным ключевым словам молодой сайт может ранжироваться высоко.
Как обойти песочницу? Для подсчета рейтинга сайта Google использует систему trust rank, или уровень доверия. Логика системы проста: если на молодой сайт ссылается старый, авторитетный ресурс, следует вывод, что и молодой сайт достоин доверия Google, и к нему можно не применять фильтр Sandbox.
Google -30 Поисковая система может оштрафовать сайт, опустив его на 30 позиций в выдаче. Наказание применяется в отношении ресурсов, замеченных в использовании спамерских технологий ( дорвеи, javascrip -редиректы и прочее ).
Это спамерский фильтр. Поэтому обычно делать уже нечего. Фильтр имеет временный характер и за ним следует исключение из выдачи. А вот в тех “необычных” случаях, когда он был применен по ошибке (сначала-то слух шел про якобы болтливого сотрудника Google, который руками раздавал -30), запрос на включение может помочь.
Чтобы вернуться на свое нормальное место в выдаче, обычно достаточно просто отказаться от спорных элементов оптимизации и отправить запрос на повторное включение в индекс.
Google Bombing Этот фильтр применяется к сайтам, на которые множество ресурсов ссылается по одному и тому же ключевому слову. Поисковой системе кажется противоестественным, что большое количество сайтов указывают на сторонний ресурс одинаковой текстовой ссылкой.
Google утверждает, что такой фильтр будет применятся только к тем сайтам, владельцы которых не хотели бы быть найденными по соответствующим запросам (и оставляет в секрете механизм дифференциации). Достаточно посмотреть на выдачу по популярным запросам, чтобы убедиться, что остальным это пока не грозит.
Если ваш сайт попал в данный фильтр, помочь может запрос на повторное внесение в индекс поисковой системы. Если фильтр не наложен, но вы заметили, что текст обратных ссылок на ваш сайт со всех ресурсов идентичный, вы можете попросить вебмастеров изменить тексты ссылок или купить ссылки с тем текстом, который вам понравится.
Google Bowling это, скорее, не фильтр, а ряд приемов Black Hat SEO, которые повлекут за собой бан вашего сайта. Обычно термин употребляется по отношению к действиям конкурентов, направленным на борьбу с популярностью вашего сайта. Как правило, такая техника проходит только в отношении новых сайтов.
Хотя Google утверждает, что завистники никак не могут повредить вашему рейтингу популярности, если вы заподозрили в вашем бане чей-то злой умысел подавайте запрос на повторное включение в индекс поисковой системы.
Google Duplicate Content Filter, или фильтр для сайтов, которые используют неуникальное текстовое наполнение. Как правило, такие сайты не поднимаются в результатах поиска высоко, а если на них не ведут обратные ссылки, сайты могут быть отнесены к дополнительным результатам поиска (supplementary results) или вовсе будут опущены за незначительностью (omitted search results).
Если с вашего сайта украли материалы, попробуйте воздействовать на похитителей, а если это не поможет, свяжитесь с Google и опишите ситуацию. Чтобы проблема не повторилась, воспользуйтесь системой copyscape для отслеживания сайтов, которые незаконно пользуются вашими материалами.
Google Supplemental Results, или дополнительные результаты поиска. Так или иначе, определенные страницы сайта могут быть помещены во вспомогательную базу Google. Если по некоему ключевому запросу выдача системы будет небольшой, Google обратится к вспомогательной базе, содержащей дополнительные результаты поиска.
Вывести страницы из разряда дополнительных можно весьма простым способом заполучив ссылки на пострадавшие страницы.
Возрастной фильтр для доменных имен Фильтр похож на песочницу и тесно связан с понятием высокого уровня доверия поисковой системы. Однако можно пользоваться большим доверием поисковика, не находиться в Sandbox и все же попасть в фильтр для молодых сайтов. По логике Google, старый сайт с большей вероятностью, чем новый, будет релевантен конкурентному запросу.
Единственный способ избежать фильтрации обрасти честными входящими ссылками с авторитетных сайтов.
Фильтрация пропущенных поисковых результатов (Omitted Search Results). Если пользователь не активирует опцию show omitted resultsk, то не увидит страниц, внесенных поисковой системой в этот список. В фильтр попадают страницы, содержащие неуникальные тексты, страницы, в точности повторяющие чужие теги title и description, сайты со слабой внутренней перелинковкой или без сети обратных ссылок.
Как и в предыдущих случаях, владельцу сайта предлагается бороться с внутренними проблемами, заставившими сработать механизм фильтрации.
Google Trustrank Единственная внятно сказанная вещь по поводу trustrank это чем старше, тем лучше. Существует много факторов, которые влияют на формирование показателя доверия Google к вашему сайту.
К основным факторам относятся возраст сайта, количество обратных ссылок и уровень доверия к сославшимся на вас сайтам, количество исходящих ссылок, качество внутренней перелинковки сайта, способ генерации URL на вашем сайте. Через этот фильтр проходят все сайты, и если ресурс не отвечает требованиям поисковика, пеняйте на себя.
Как перехитрить фильтр: и старый, и молодой сайт могут иметь высокий или низкий уровень доверия поисковой системы. Все дело в количестве обратных ссылок с раскрученных сайтов, пользующихся доверием поисковика, разумной системе внутренних ссылок на сайте и в качестве проработки некоторых других деталей. Оптимизируйте свой сайт для посетителей и для поисковых индексаторов, и вы будете пользоваться доверием поисковой системы.
Фильтрация страниц с заголовком links.htm. Как правило, такое название носят страницы, где публикуются ссылки на сайты партнеров по линкообмену. Платный обмен ссылками никогда не приветствовался поисковыми системами, а на сегодняшний день это и вовсе один из самых отсталых способов раскрутки сайта. Если вы не можете отказаться от страницы links.htm, замените ее заголовок чем-нибудь близким по смыслу, например partners.htm или coolsites.html.
Фильтр для сайтов, участвующих в системах платного обмена ссылками. Алгоритм Google выявляет все сети платного обмена ссылками и налагает штрафы на сайты, участвующие в таких сетях высоким рейтингом поисковой системы они похвастаться не смогут. Тем не менее, схема платного обмена ссылками может сослужить вам хорошую службу в некоторых ситуациях.
Например, если вы создаете сайт ради того, чтобы получать прибыль от рекламы в AdSense и не собираетесь тратить время на раскрутку, сеть платного линкообмена позволит вам быстро набрать большое количество обратных ссылок.
Фильтр для генераторов ссылок. Автоматическими генераторами ссылок (или link farms) называют страницы и сайты, которые содержат большой объем ссылок, как правило, не связанных общей тематикой. Если Google заметит, что ваш сайт входит в подобную сеть, в лучшем случае вы потеряете рейтинг в выдаче. В худшем вас забанят. Единственный способ обойти фильтр - это, как ни парадоксально, не участвовать в системе автоматической генерации ссылок.
Фильтр взаимного цитирования Этот фильтр еще одна причина быть разборчивее при выборе партнера по обмену ссылками. Скажем, сайт N ссылается на ресурсы по тематике казино и порно, а также на вашу страницу. Вы, в свою очередь, также разместили ссылку на N. Из этого Google сделает вывод, что тематика вашего сайта связана с казино или порно.
Помните, что непродуманная система взаимного цитирования повредит вашему рейтингу в поисковой системе и усложнит раскрутку по нужным ключевым словам.
Сайт, который за краткий срок получает слишком много обратных ссылок, будет отфильтрован Google, а возможно, попадет в банлист всех поисковых систем. Выход не участвовать в сомнительных схемах раскрутки сайтов.
Существуют наказания и за слишком быстрое развитие сайта. Поисковой системе не понравится, если на вашем сайте каждый день будет появляться новая тысяча страниц. Вы, скорее всего, будете заподозрены в автоматической генерации материалов, и, в зависимости от отягчающих вашу вину обстоятельств, ваш сайт либо окажется в OmittedSupplemental Results, либо в бане.
Как обойти ограничение фильтра: если вы и в самом деле автоматически создаете страницы, установите ограничение для генератора. Приемлемое значение 5000 страниц в месяц. Если ваш сайт пользуется хорошей репутацией или очень популярен, коэффициент допустимого прироста может повыситься.
Фильтр для сайтов с битыми ссылками Если на сайте нарушена система внутренней перелинковки страниц, часть из них не будет проиндексирована поисковыми роботами. Возможно, что и посетители сайта не найдут некоторые страницы пойдет ли это вам на пользу? Подстрахуйтесь, создайте карту сайта в файле sitemap, проверьте, все ли ссылки рабочие, при помощи специальных программ.
Фильтрация по времени загрузки страницы Если во время работы краулера страницы будут загружаться слишком медленно, робот обождет положенное время и двинется по сайту далее. В результате страница никогда не попадет в кэш поисковой системы и не будет проиндексирована. Следовательно, и в выдаче поисковой системы она никогда не окажется.
Оптимизируйте страницы сайта для максимально быстрой загрузки. Если на сайте много изображений или flash-роликов, их загрузке должно предшествовать появление javascript кода для краулера. Установите для себя ограничение по максимальному размеру файла на сайте, пользуйтесь достижениями CSS и Web 2.0..
Чрезмерное рвение в оптимизации наказуемо. Не переполняйте тексты на сайте ключевыми словами. Вас могут принять за Black Hat SEO и ваш сайт попадет в бан.