
Ранжирование сайтов зависит от эффективности продвижения и используемых при этом методов. “Черная” оптимизация — это, по сути, получение более высоких позиций в поиске и большего трафика (посещаемости) посредством нечестных методов. При этом сайты получают лучшее ранжирование, чем они реально заслуживают. Но рано или поздно оптимизированные “по-черному” сайты попадают под фильтр поисковых роботов, теряя свои позиции.
Так, многие новички в области поисковой оптимизации продвигают свои страницы по популярным конкурентным запросам, хотя сами страницы не содержат подходящего контента, не соответствуют запросу. Посетители, не нашедшие необходимого, уйдут с сайта и продолжат поиск. Такие действия квалифицируются как отказы. Их большое количество может понизить рейтинг страницы в поиске вплоть до полного исключения из выдачи.
Пользователям нужно предоставлять качественный ответ по теме, которой они интересуются. Необходимо думать о людях, проводить анализ поведения пользователей, прибегая к помощи таких сервисов, как Google Analytics и “Яндекс. Метрика” или по крайней мере просматривая данные статистики счетчиков вроде LiveInternet.
Как проводится ранжирование сайтов
Помимо большого числа отказов некачественные сайты можно определить также по следующим параметрам:
— малое время, в течение которого пользователи находятся на сайте либо на его определенных страницах;
— малое число людей, возвращающихся на сайт;
— отсутствие постоянных обновлений, низкое качество информации;
— малое количество переходов посетителей по ссылкам на сайте.
“Белая” поисковая оптимизация обеспечивает улучшение восприятия (понимания) поисковыми системами ресурса и его отдельных страниц, благодаря чему их нахождение по ключевым словам облегчается, то есть лучшие показатели ранжирования сайта.
Применение “белой” оптимизации ведет к улучшению юзабилити сайта, созданию более качественного контента, ускорению работы сайта, а это нравится как пользователям, так и поисковым системам. Для грамотной поисковой оптимизации требуется применение творческого маркетингового подхода. Не стоит заниматься подстраиванием под требования текущих алгоритмов поисковых систем, нужно стремиться ориентироваться на пользователей.

Для осуществления “белой” оптимизации в первую очередь надо исследовать контент. Следует удостовериться, что тексты на сайте написаны понятным языком. Кроме того, нужно уделять внимание тематическому обмену ссылками с действительно качественными сайтами. Чтобы определить качественность сайта, нужно смотреть не только на уровни тИЦ и PageRank, так как они, по сути, являются показателями не столько сайтов, сколько доменов.
Доменное имя — это адрес сетевого соединения, которое идентифицирует его владельца. При продаже домена на сайт может быть помещен плохой тематический контент, который приводит к быстрому падению доверия со стороны поисковиков. Это говорит о необходимости оценивания содержимого сайта.
Фильтры Гугла
Рассмотрим, как поисковые системы борются с сайтами, которые применяют “черную” оптимизацию, и основные критерии ранжирования ссылок в выдаче по релевантности на примере Google, использующего два фильтра: Panda (отвечает за внутреннюю оптимизацию) и Penguin (отвечает за внешнюю оптимизацию). Эти фильтры определяют некачественные сайты в ранжировании, и они теряют позиции в выдаче или вовсе исчезают из нее.
Внедрение фильтра Google Panda в феврале 2011 г. было связано с необходимостью содействовать пользователям в лучшем нахождении в интернете сайтов, имеющих солидный опыт взаимодействия с пользователями и соответствующих их информационным потребностям. Намерением создателей фильтра было оценивание по достоинству тех, кто тратит усилия на создание качественных и полезных сайтов для людей, а не для поисковиков. Идея в том, чтобы в результатах поиска были представлены наиболее качественные и достойные.
Назовем основные факторы, учитываемые Google Panda. Этот фильтр не приветствует ресурса с малым объемом контента на странице, и те на которых основной текст скрывают всплывающие окна (партнерки кликандеров, к примеру), и т. д.
1. Если веб-ресурс отличается накапливанием заимствованных статей, то он также будет плохо ранжироваться. Помещаемые на сайте материалы должны быть уникальными. Уровень уникальности можно проверить, к примеру, с помощью сервиса ADVEGO PLAGIATUS
2. Не стоит прибегать к применению агрессивных приемов “черной” оптимизации. Так, нельзя использовать на сайте тексты, состоящие сплошь из ключевых слов.
3. Если на сайте в большом количестве имеются ссылки не по теме (не согласующиеся с контентом страницы), то сайт, вероятнее всего, в топ не попадет. Ссылки должны быть естественными, а их текст должен согласовываться с темой публикаций. Когда на сайте имеется много исходящих ссылок, которые не имеют к тексту на странице (его содержанию) никакого отношения, это говорит о стремлении к манипулированию результатами поисковой выдачи в сети. Автоматическое размещение временных ссылок также нежелательно.
4. Еще один негативный фактор — создание страниц на основе шаблонов. Это не касается дизайна или темы оформления сайта. Это касается шаблонных публикаций, т. е. статей, похожих по содержанию, но оптимизированных под разные ключевые запросы. Писать статьи надо для людей, с душой, а не на автомате, поставив на поток (не только люди, но и поисковые системы этого не любят). Рекомендуется улучшать функциональность и удобство сайтов, следить за поведением (настроением) пользователей, публиковать контент, максимально полно отвечающий их запросам.
5. Также на ранжирование сайта влияет качество исходящих и входящих ссылок. Поисковые системы проверяют их, поэтому нужно ссылаться лишь на проверенные ресурсы и не прибегать к размещению ссылок на плохих веб-ресурсах.
Кроме того, с помощью Google Analytics нужно учитывать поведенческие факторы.
Как вывести сайты из-под фильтра Google Panda
1. Рекомендуется избавляться от всех дублей контента. Чтобы дубли не имели негативного влияния, нужно закрывать их от индексации в robots.txt. Контент сайта должен быть уникальным. Однако не секрет, что многие тексты заимствуются недобросовестными владельцами других ресурсов.
Но Google не стремится к определению первоисточников, поэтому время от времени тексты на сайте рекомендуется проверять на уникальность. Те, которые где-то были продублированы, желательно переписать или хотя бы закрыть от индексации.
2. Рекомендуется закрывать от индексации также все служебные страницы, страницы, не содержащие текстового контента, предназначенные не для посетителей и т. п. Это, к примеру, страницы с профилями пользователей, страницы поиска по сайту, а также списки поисковых запросов.
3. Не допускается наличие плохих страниц, даже небольшое их количество может пагубно повлиять на продвижение других страниц и ресурса в целом. Поэтому желательно внимательно следить за составляющими сайта. Особенно это касается сайтов, создание контента которых — прерогатива пользователей (активно комментируемые блоги, форумы и т. д.).
Нужно обеспечивать тщательную модерацию. Безотлагательно должны удаляться все нежелательные сообщения: обсуждение тематик на грани (наркотики, порнография, нарушения закона и проч.), откровенно безграмотные и бессмысленные сообщения или комментарии.
4. Нужно обращать внимание на контент. На странице не следует помещать только пару абзацев текста. Контента, причем качественного и грамотно написанного, должно быть достаточно много. Важна также логическая структурированность длинных текстов, чтобы пользователям их было удобно читать. Целесообразно осуществлять разметку текста с помощью расставленных в нужных местах заголовков, изображений, различных информационных вставок и т. п.
5. Нужно, чтобы реклама на сайте дополняла, а не заменяла контент. Рекламе следует быть для посетителей полезной, а не раздражающей, вынуждающей их покинуть веб-сайт. Целесообразно применять контекстную рекламу и тематические целевые баннеры от прямых рекламодателей.
6. Необходимо уделять внимание интерактивности. Содержание должно быть таким, чтобы посетители стремились к его обсуждению как на страницах сайта компании, так и на страницах сторонних ресурсов (форумы, социальные сети, личные блоги).
7. Следует использовать социальную активность посетителей. Для этого на страницах помещают кнопки соцсетей, с помощью которых пользователи могут поделиться информацией с друзьями.

Алгоритм фильтрации выдачи Google Penguin появился в апреле 2012 г. Его основная особенность (отличающая его от алгоритма Google Panda) состоит в большей направленности на внешние факторы продвижения — ссылки. Значение придается их качеству, количеству, скорости изменения ссылочной массы, ее естественности и т. д.
Google Penguin призван бороться с различным спамом в интернете, т. е. с любыми действиями, совершаемыми для того, чтобы обеспечивалось повышение позиций страниц веб-сайта без улучшения их качества. Упор делается на усиление позитивного влияния на результаты поисковой выдачи естественных ссылок и более высокому ранжированию сайтов, не отягощенных обилием ключевых слов.
Поэтому целесообразно разбавлять ссылки, используя околоссылочные тексты, а в качестве анкоров (текста гиперссылок) не использовать ключевые слова. Анкоры рассматриваются в качестве важнейшего фактора ссылочного ранжирования, они должны употребляться естественно.
Фильтр Google Penguin
Опишем факторы, учитываемые алгоритмом фильтрации выдачи Google Penguin при ранжировании сайтов .Так, считается, что высокая скорость наращивания покупных ссылок нежелательна. В то же время этот фактор следует рассматривать вкупе с аспектами качества ссылок и характеристиками сайта-донора (его возрастом и уровнем “трастовости”).
1. Негативно на поисковой выдаче может сказаться наличие ссылок в “подвале” (в самом низу страницы) — там, где обычно помещают имена авторов сайта (шаблона), дублированное меню, счетчики и кнопки.
Следует заметить, что если сайт содержит большое число ссылок, то удалять их не рекомендуется все сразу. В первую очередь необходимо убрать лишь откровенно плохие ссылки.
2. Очень важно, чтобы внутренние ссылки были гармоничными и естественными. Это имеет большое значение не только с позиций поисковой выдачи, но и с позиций привлечения клиентов, поскольку неестественность внутренних ссылок нередко приводит к плохой читабельности перенасыщенных ссылками текстов.
3. Также фильтром Google Penguin учитывается качество покупных текстов. Нельзя покупать и размещать в каталогах автоматически размноженные статьи, которые проблематично читать, поскольку их язык обычно оставляет желать лучшего.
4. Не стоит регистрировать длинные домены и создавать длинные адреса веб-страниц, содержащие ряд ключевых фраз и слов.
5. Положительным фактором являются переходы пользователей на сайт непосредственно из строки браузера, когда адрес туда вводится вручную или копируется. Можно попробовать помещать неактивные ссылки в виде http:// site ru без тега на пользующихся популярностью сайтах, где на них могут обратить внимание посетители. Ссылка при этом должна быть контекстной, находиться в интересной качественной статье.