Введение
Ряд оптимизаторов, которые только стремятся стать профессионалами в новой для них области «SEO», а также часть «служивых» раз за разом не могут точно диагностировать наложение того или иного текстового фильтра в коммерческой тематике от лидирующего российского поисковика Яндекс.
Для новичков такая диагностика может стать вообще недоступной по причине отсутствия сколь угодно полной и достоверной информации по теме в сети. Данная статья призвана заполнить этот пробел в знаниях оптимизаторов, и навести относительную ясность с возможностью диагностировать и вовремя устранить проблему продвижения одного или группы коммерческих поисковых запросов в результате наложения текстового пост-фильтра.
Все изложенные ниже технические приёмы и проявления санкций актуальны со времени их появления до периода обновления статьи (12.04.2014 — на проекте https://pixelplus.ru/samostoyatelno/). Автор выражает надежду, что они будут на службе бойцов за ТОП-10 и далее.
Коммерческие факторы
Коммерческие факторы очень важны при продвижении в «Яндексе». Об этом, например, можно прочесть в архивной статье десятилетней давности в официальном блоге поисковика «Новая формула ранжирования для Московского региона»
Но лишь спустя время SEO-специалисты начали осознавать важность коммерческих факторов и внедрять рекомендации «Яндекса» на сайты
Если кратко, здесь нужно обратить внимание на несколько моментов. Вот самые основные из них:
-
доверие к компании (сайту),
-
удобство пользования,
-
разнообразие ассортимента,
-
адекватные цены,
-
разные варианты оплаты и доставки.
«Яндекс» подчеркивает, что это делается в первую очередь для людей: старайтесь сделать сайт максимально удобным и визуально приятным еще на этапе создания и первичной оптимизации.
Для Google коммерческие факторы тоже имеют значение, но упора на них он пока не делает. Зато «Яндекс» может наградить высокими позициями в выдаче даже ресурс без внушительной ссылочной массы, если вы учтете все требования.
Как понять, что произошла пессимизация сайта
Необходимо с помощью специальных сервисов контролировать позиции по продвигаемым запросам. Панели вебмастера Яндекса и Google помогают следить за состоянием вебсайта и сигнализируют о неполадках.
Понижение позиций может произойти по нескольким причинам и не все из них фатальные:
- Если по высокочастотным запросам вы слетели, но средне- и низкочастотные на месте, это, скорее, активность конкурентов.
- Если сайт разово выпал и быстро вернулся, причин волноваться тоже нет.
- Если сайт упал по продвинутым запросам за сотню позиций (иногда просто на несколько десятков пунктов), не возвращается, стабильно не реагирует на попытки поднять рейтинг, вот здесь пора принимать меры. Есть все основания полагать, что это пессимизация сайта, причем часто позиции в одной ПС, например, в Гугле, сохраняются, а слетели только в Яндексе.
Об этом же свидетельствует обнуление тематического индекса цитирования (тИЦ).
Пессимизация сайта
Пессимизацией документа или сайта называется понижение позиций в поисковой выдаче. Поисковые системы Google и Yandex понижают позиции сайта по причине борьбы с поисковым спамом. Также поисковые системы не желают делиться прибылью с поисковыми оптимизаторами и поэтому не очень охотно развивают системы обнаружения злонамеренных атак на сайт от третьей стороны. По объективным причинам понижение позиций сайта конкурентом является возможным. Ввиду различий в поисковых алгоритмах, набор действий приводящий к пессимизации сайта в выдаче Google и Yandex отличается.Пессимизация сайта в Yandex происходит ввиду попадания сайта под фильтр поисковой системы или по причине ручных санкций. Преимущественно ручные санкции накладывается по причине агрессивного и явного продвижения сайта внешними ссылками.Пессимизация сайта в Google также происходит по причине попадания сайта под фильтр поисковой системы или по причине санкций, называемых пенальти. В Google легче происходит продвижение сайта при помощи внешних ссылок, поэтому при умеренном продвижении сайта внешними ссылками санкции можно миновать. Основанием для снижения позиций сайта в поисковых системах являются разные факторы. Рассмотрим примеры, за что пессимизируют сайты. Перечень причин для пессимизации:
- Агрессивная реклама;
- Тизерная реклама;
- Всплывающие окна любого характера, включая JavaScript. Поисковые системы выполняют скрипты JavaScript;
- Продажа ссылок;
- Блок рекламы в основном содержании документа;
- Заголовок не соответствует содержанию документа;
- Контент с большим количеством спама в комментариях.
Часто позиции в органической выдаче снижаются по причине попадания документа или сайта под фильтр или из-за накладывания ручных санкций на продвигаемый сайт. Но также позиции сайта могут быть снижены по причине вмешательства третьей стороны. Пессимизация документа или сайта в целом может быть применена в отношении кластера запросов или к одному запросу. Понизить позиции сайта в поисковой выдаче можно при помощи внешнего вмешательства. Подобные манипуляции называются негативным SEO. Негативное SEO сайта конкурента явление частое и используется на всех конкурентных рынках. Цена на услуги по понижении сайта может составлять $1 000 и выше.
Негативным SEO документа или сайта называется комплекс мер по негативной поисковой оптимизации. Негативное SEO применяется для понижения позиций документа или сайта в целом в поисковой выдаче. При продвижении в сегменте с высокой конкуренцией использование негативного SEO является обычным делом. Понизить сайт конкурента в поисковой выдаче достаточно просто. Для влияния на позиции сайта конкурента разработаны специальные инструменты, разработаны тактики и программное обеспечение. Также есть сервисы и для отражения атаки на сайт.
Фильтры Google
Пингвин
- Его цель : санкции за некачественные ссылки
- Симптомы : резкое падение позиций по запросам из ПС Google, а вследствие этого и трафика.
- Основные причины : большое количество нетематических входящих ссылок, агрессивная перелинковка, большое количество ссылок с некачественных сайтов, плохая структура сайта.
- Что делать чтобы не попасть под фильтр пингвин равномерный прирост ссылок разнообразных по качеству и источникам, доноры тематические и незаспамленные, богатый анкор лист, следить за % точных вхождений, разбавлять анкор лист естественными ссылками (40-50% — использовать бренд + хвост запросов).
- Для выхода из под фильтра обязательно нужно использовать инструмент удаления неестественных ссылок Google Webmaster Disavow backlinks, исправлять все внутренние ошибки и писать запрос на пересмотр сайта.
Панда
- Его цель : санкции за некачественный контент
- Симптомы : резкое падение трафика после обновления (обычно через 1-3 дня после обновления)
- Основные причины : отсутствие контента в верхней части страницы, малый объем контента, большой объём рекламы, высокий процент отказов, дублированный контент.
- Снятие фильтра : 1) Устраняем дубли. 2) Переписываем или удаляем неуникальный контент. 3) Разбавляем заголовки. 4) Пишем только полезные и качественные тексты
Baby Panda
Его цель : понижать в выдаче сайты с избыточной рекламой в верхней части рекламы.
Важно чтобы пользователь находил важную информацию в верхней части экрана!
EMD
- Его цель : уменьшить влияние доменов с прямым вхождением запроса в домен (например, prodvizhenie-sajtov-v-moskve-nedorogo.ru)
- В первую очередь касается англоязычных доменов, но ждём скорого выкатывания фильтра и на весь мир, в том числе домены .ru
- Используйте домен бренд, вместо поискового запроса!
Оказывается получить фильтр от поисковых систем Яндекса или Google не так уже и трудно. Фильтры бывают разные и перечислять их нет смысла, но прежде всего это те, которые массово волнуют вебмастеров или просто владельцев сайтов, например, пингвин, панда, АГС, ссылочный взрыв, фильтр за накрутку поведенческих факторов и многие другие. Разберем 10 вариантов, при которых можно получить фильтр от поисковых систем.
Принцип работы и особенности фильтра за переоптимизацию
Особенностью данного фильтра есть то, что он проводит анализ на проседание не одного конкретного запроса, а всех запросов, по которым идет ранжирование. Такой уровень фильтрации позволяет хорошо проверить страницу, а также помочь ее владельцу значительно повысить трафик.
Для того чтобы выйти из-под фильтра за переоптимизацию необходимо:
- Полностью заменить или произвести частичную корректировку добавленных на ресурс текстов, которые были замечены фильтром Яндекса. При корректировке текстов необходимо постараться убрать все орфографические ошибки, которые в них есть, а также избавится от тегов акцентирования внимания и лишних ключевых слов в подзаголовках.
- Можно попробовать удалить все тайтлы и альты с картинок имеющихся на ресурсе. Вероятность, что данный способ поможет выйти из-под воздействия фильтра крайне мала, но она все же есть.
- Постараться сделать текст релевантным названию.
- Максимально убрать «воду» из статьей. Большое количество авторов при написании текстов той или иной тематики добавляют ненужные факты или истории чтобы текст имел больше символов, и они получили за работу больше денег. Такой подходит при написании текстов необходимых чтобы выйти из-под фильтра переоптимизации не подойдет. Необходимо делать тексты максимально изолированными и приближенными к тематике, чтобы людям было их легко и интересно читать.
Что такое переоптимизация текста
Переоптимизацией текста является частое, неоправданное употребление большого количества ключей. При этом часто ключи используются в кривой нечитаемой форме. Стоит заметить, что ключевые запросы, употребляемые в контенте, могут быть не только одного образца, но и разных лексических форм релевантных запросу.
Приведем наглядные примеры статей с явной переоптимизацией.
- Наша компания предлагает пластиковые окна по очень выгодной цене. Купить пластиковые окна дешевле, чем у нас вряд ли получится. Мы устанавливаем лучшие и самые долговечные пластиковые окна во всей области. Обратившись к нам, вы будете радоваться новым пластиковым окнам в самое ближайшее время.
- Компания «Окно-СПАМ» предлагает лучшие пластиковые окна, балконные остекления, а также жалюзи на окна. Предоставляет возможность профессиональной установки окон как пластиковых, так и деревянных. Заказать замеры и изготовление окна Вы можете по телефону 89123456789.
Как видно из приведенных примеров, первый текст явно переспамлен однотипным ключевым вхождением. Помимо того, что подобная статья попадает под санкции алгоритмов поисковых систем, она еще и вызывает неприятное ощущение при прочтении за счет тавтологии. Второй текст может показаться, на первый взгляд, не таким заспамленным, как первый, но на самом деле он практически полностью состоит из ключевых запросов релевантных ключу «окна».
Следует отметить, что переоптимизация определяется не только качеством текстового контента.
Сейчас становится бессмысленно тратить время на насыщение контента ключами и внесения как можно большего их числа в метатеги. Подобные действия приведут только к понижению позиций. Поисковые системы ведут активную борьбу с подобным явлением и все больше лоббируют интересы пользователей. Это не значит, что оптимизация не нужна, совсем без нее никак.
За что можно получить в поисковых системах бан?
Вообще, если вы со вниманием относитесь к своему интернет-проекту, то получить бан практически невозможно. Чтобы сайт был наверняка забанен поисковой системой, необходимо, прежде всего использовать приёмы чёрного SEO
Повторюсь, что к ним относятся:
- Клоакинг
- Дорвеи
- Однопиксельные ссылки-картинки
- Сокрытие текста
- Свопинг
- Линкофермы (Link farms)
- Ссылочный спам
- Сателлиты
Между прочим, новички могут получить бан в поисковых системах из-за ссылочного спама (по-неопытности). Хотя скорее, тут будут ПС-фильтры, но и вероятность быть забаненным велика. Имею в виду, прежде всего, «популярные» прогоны по каталогам.
Также, помимо приёмов чёрного SEO, можно сюда отнести и нахождение сайта на некачественном хостинге. Суть здесь в том, что на таком хостинге:
- страницы будут подгружаться очень долго. А у поисковых роботов есть лимит времени по ожиданию ответа от сервера. Логично, что ждать очень долго они не будут и просто не смогут включить страницы такого сайта в индекс. Это даже не явный бан, а просто невозможность проиндексировать сайт. Но также «намекает» поисковым системам, что подобный сайт едва ли понравится пользователю
- сервер на хостинге может быть просто криво настроен — часто выдавать ошибку 500 — 502 (internal server error) или ошибку подключения к базе данных. В таком случае, после нескольких попыток обратиться к сайту, поисковые роботы оставят эту затею.
Как дополнение (январь 2013): данный сайт «был наказан» Гуглом за длительные проблемы с сервером. В качестве наказания — ~50% процентов страниц «содержатся» на данный момент в гугловском Supplemental Index. С хостингом бывали временные проблемы и Google на это не реагировал, но как только сайт оказался недоступным более 24-х часов — то всё. Резко так…:).
Было это в ноябре 2012. Пришлось срочно переносить сайт на другой хостинг. А сейчас январь 2013. Но Гугл никак не может позабыть того..
В общем, подвести итог всему вышесказанному можно словами Яндекса: делайте сайт для людей (и размещайтесь на хорошем хостинге!) и вы избежите бана в поисковых системах.
Случайные публикации:
- В чем особенность рейтингов онлайн казино?В интернете существуют уже десятки игровых клубов, выбирать среди которых…
-
О чем можно написать статью для вашего сайта…й статьи и из этой.
Использование Гугл планировщика ключевых слов, доступ к которому,
- Работа на Testopay: создайте свой бизнесПереход каждого арбитражника на следующий уровень начинается с возни…
-
DatsPush.com — система покупки Push-трафика…лее нажимаем создать, и приступаем к созданию самих пуш-объявлений.
Category —
-
Обзор Flirtymania.com — партнерка видеочата…ия трафика увеличится в разы.
Выводы
Резюмируя написанное, можно
Оставьте комментарий:
Внутренняя пессимизация
Внутреннюю пессимизацию осуществить труднее. Она включает в себя взлом вашего сайта и подмену данных, но все-таки это не редкость. Вот основные угрозы, которые влечет хакерская атака.
1. Подмена вашего контента
Вы думаете, что заметите, если кто-то подменит ваш контент, но на самом деле, это очень трудно обнаружить. Сюда входят создание спама (и ссылок) на сайт. Суть в том, что спам обычно умело спрятан (например, при помощи «display:none» в HTML), поэтому вы не увидите его, пока не заглянете в код.
Здесь одним из самых простых решений для большинства «мелких» и «средних» сайтов станет ВирусДай, например. На некоторых сайтах он используется, где это позволяет заказчик или приватность данных.
2. Деиндексация сайта
Внесение изменений в robots.txt является одной простой заменой, которая может ударить по оптимизации вашего сайта. Директивы Disallow достаточно, чтобы поисковая система полностью игнорировала важные страницы вашего сайта или даже весь сайт.
Возможным вариантом пессимизации сайта является изменение страниц так, чтобы они перенаправляли пользователей на сайт взломщика. Большинству маленьких компаний это не угрожает, но если ваш сайт авторитетен и популярен, кто-то может воспользоваться этим хитрым методом, чтобы повысить рейтинг своего сайта или просто перенаправлять пользователей на свой сайт, когда они переходят на ваш.
Для сайта подвергшегося атаке эти перенаправления не просто временные неудобства. Если поисковая система обнаружит это раньше вас, вы можете быть наказаны за «перенаправление на подозрительный сайт».
3. Взлом вашего сайта в целом
Даже если хакер не ставит перед собой целью пессимизацию, атака может повредить вашему рейтингу. Поисковая система хочет защитить своих пользователей и с неодобрением относится к сайтам, содержащим хакерские программы (или сайтам, ссылающимся на них). Поэтому если они заподозрят, что сайт был взломан, они могут понизить рейтинг вашего сайта или, по крайней мере, добавить надпись «этот сайт может быть взломан» рядом с вашим сайтом в выдаче.
Не говоря о пессимизации, одним из вашим главным приоритетов должна быть защита атак хакеров.
Фильтры поисковых систем
У Google и «Яндекса» есть много похожих фильтров. Но даже при видимой схожести они разные. Избегать бана следует в любом поисковике. Зачем вам понижение позиций в выдаче и блокировка нормального функционирования веб-ресурса?
Фильтры «Гугл»:
- Пингвин. Под этот фильтр попадают за ссылочный спам. Когда слишком активно закупаются внешние ссылки для оптимизации. Даже по низкочастотным запросам сайты вылетают далеко за пределы первой десятки лидерских позиций в выдаче. Чтобы не попасться, нужно сократить количество покупаемых на биржах ссылок либо вообще отказаться от их приобретения. А если уж и приобретать, то исключительно с трастовых ресурсов.
- Панда. Попасться на эту «удочку» можно за плохие внутренние показатели веб-ресурса. Например, неуникальный контент, торговля ссылками, навязчивая реклама в больших количествах, некачественная верстка сайта и т. д. и т. п. Чтобы обойти фильтры, нужно изначально делать интернет-ресурс удобным для пользователей и «безвредным» для поисковиков, выкладывать на него только уникальный контент.
- Песочница. Применяется в основном к недавно появившимся веб-ресурсам. «Гугл» не пропускает молодые сайты по высокочастотным запросам. Вместе с тем он позволяет им продвигается вверх в поисковой выдаче по низкочастотным. Поэтому: низкочастотные запросы вам в руки – и вперед покорять «Гугл». В «песочнице» сайт может находиться долго, даже несколько лет. Чтобы выбраться из-под фильтра, если это все-таки случилось, нужно иметь как можно больше естественных ссылок на веб-ресурс.
8 шагов по избавлению от фильтра
Что делать, если вы все таки попали под санкции МПК? Без паники, действуем по шагам. Все можно исправить.
Если на сайте есть рекламный формат «блок ссылок» от Google Adsense — убираем. Для 100% гарантии, на время проверки сайта можно снять всю рекламу, кроме блоков РСЯ Яндекса
Особое внимание уделить блокам тизерных сетей, CPA-оферам. Шок-контент, клик-бейт заголовки, все это может быть причиной наложения фильтра МПК
После этого можно попробовать подать заявку на пересмотр в кабинете вебмастера У вас нет рекламы (например, обычный коммерческий сайт), но МПК вы все таки получили? Скорее всего дело в контенте низкого качества. Много текстов рерайта, мусорных страниц и т.д. Нужно провести аудит контента и страниц сайта. Убираем дубликаты и мусорные страниц, битые ссылки. Если на сайте много текстов, написанных рерайтом — удаляем или переписываем. После этих процедур, заходим в раздел «Проблемы с сайтом» в консоли Яндекс Вебмастер и под сообщением о проблемах нажимаем кнопку исправлено. Дополнительно я рекомендую написать платонам (в поддержку Яндекса) сообщение с просьбой проверить сайт после всех изменений, которые вы сделали.
Кому-то помог перенос сайта на новый аккаунт Яндекс.Вебмастера. А кому-то после обращения в техподдержку намекнули, что ресурс уж очень плохой, посоветовали развиваться. Но метку всё же сняли.
Минусинск
Свежее оружие «Яндекса» в борьбе с seo-ссылками. Фильтр «Минусинск» анонсировался как постоянный алгоритм, но пока скорее работает в ручном режиме. Попадают под него сайты с обширной ссылочной массой (от 1000 уникальных доменов).
Симптомы: падение сайта по всем запросам на 10-20 позиций.
Как выйти из под «Минусинска»: Как бы ни было печально, но, прежде всего, придется снять бОльшую (поставить ударение на «о») часть ссылок, ведущих на сайт. Параллельно рекомендуем вести диалог с технической поддержкой «Яндекса». Опишите им усилия, которые предпринимаете. Для того, чтобы не навредить позициям в Google, снимайте для начала ссылки, не проиндексированные американской поисковой системой, плюс ссылки с молодых ресурсов с нулевым PageRank.
Фильтры на одинаковые сниппеты
Симптомы: Сайт выпадает из топ-10, но остается в выдаче «показать все сайты без предпочтения» (для просмотра в url выдачи добавить в конце переменную rd=0).
Как снять фильтр на одинаковые сниппеты: Написать уникальные теги description и карточки товаров.
Фильтры Google
Существует мнение, что фильтры Гугл сильнее в своем действии в англоязычной части интернета, нежели русскоязычной. Так что очень может быть, что не все фильтр работают в русскоязычной среде сети.
- Sandbox ака песочница — этот фильтр накрывает молодые сайты, которые были созданы не ранее 6 месяцев назад. Из-за этого фильтра поисковая система не выдает страницы этих сайтов в поисковой выдаче по высокочастотникам. Благо, этот фильтр особо не затрагивает низкочастотные запросы, по ним сайт вполне может оказаться в выдаче поисковика. К сожалению, сайт может просидеть в песочнице очень долгое время – от трех месяцев до нескольких лет. Выходом из песочницы может стать хорошая набранная масса естественных ссылок с уважаемых ресурсов.
- Bowling – так называют методы черной раскрутки сайтов, которые конкуренты могут использовать, чтобы дискредитировать ваш сайт и занести его в бан. Этот фильтр актуален для новых сайтов с низким уровнем доверия (Trust Rank). Хотя Гугл и утверждает, что конкуренты никоим образом не смогут повлиять на позиции вашего ресурса, есть смысл подать заявку на включение вашего ресурса в индекс, если есть подозрение, что конкурент все-таки отправили вас в бан.
- Дополнительные результаты — фильтр Google , который помещает страницы, которые считает недостойными, ниже нормальных, как бы под индекс. При таком раскладе увидеть эти страницы в поисковой выдаче можно будет лишь тогда, когда поисковик сочтет, что нормальных страниц не хватает. Чтобы выйти из-под фильтра понадобится несколько внешних ссылок на ваш сайт.
- Bombing — данный фильтр применим к ресурсам, имеющим слишком много ссылок с одинаковым анкором. Избежать попадания под этот фильтр можно используя уникальные анкоры для каждой покупной ссылки.
- Возраст домена – фильтр, похожий на песочницу. Есть мнение, что чем старше домен, тем больше у него уровень доверия. К сожалению, молодые ресурсы могут попасть под этот фильтр, проскочив песочницу. Чтобы избежать данного фильтра, опять-таки стоит наращивать ссылочную массу с авторитетных источников.
- Дублирующийся контент – фильтры Google , которые понижают сайты с украденным содержанием в выдаче. Так что размещайте только уникальный контент и смотрите, чтобы его никто не украл. Если заметите плагиат с вашего ресурса, может обратиться в Гугл.
- Фильтр -30 применяется к ресурсам, которые используют запрещенные методы SEO: дорвеи и редиректы. При обнаружении оных, ресурс понижается по запросам на тридцать пунктов.
- Опущенные результаты – данный фильтр влечет за собой выпадение из результатов поисковой выдачи, он распространяется на ресурсы, которые имеют маленькое количество ссылок на себя, заголовки и другие мета-теги, которые повторяются, дублированный контент с других ресурсов или же плохая внутренняя перелинковка страниц.
- Социтирование — фильтр, который отслеживает ссылки на ваш сайт и их источники. Если на вас ссылается ресурс инородной тематики, это может повредить тематичности вашего, так как поисковик может приписать вас к той же тематике, что и ссылающийся сайт. Вследствие чего ваш сайт может упасть по тематическим запросам. Дабы этого избежать берите ссылки с ресурсов однородной тематики.
- Links – под этот фильтр Гугла попадают страницы, созданные специально для обмена ссылками (линкопомойки). Такой способ уже не эффективен для повышения позиций в выдаче и более того, он не поощряется поисковой системой
- Много ссылок сразу – фильтр применяется к сайтам, у которых чересчур быстро увеличивается количество внешних ссылок. Итогом этого может стать бан со стороны поисковой системы. Так что покупать ссылки следует по чуть-чуть.
- Чрезмерная оптимизация – фильтр, попасть под который могут сайты с чрезмерным количеством ключевиков и мета-тегов.
- Битые ссылки – применяется, когда поисковые роботы находят ссылку, которая ведет на отсутствующую страницу, и они не могут туда добраться, а значит и проиндексировать ее. Это отрицательно влияет на результат поиска и на показателях качества сайта. Поэтому следует избавиться от таких ссылок.
- Отфильтровка страниц по времени загрузки. В случае, если страница очень долго загружается от того, что она перегружена эффектами или же имеет проблемы с хостингом, робот может отказаться от ее индексации и она так и не попадет в поисковую выдачу.
- Степень доверия ака Google Trust Rank – в данный фильтр включены все показатели перечисленные выше, он учитывает возраст сайта, количество и качество входящих ссылок, количество исходящих ссылок, качество внутренней перелинковки страниц сайта и т.д. И чем выше степень доверия, тем лучше позиции сайта в поисковой выдаче.
Аффилиат-фильтр
Строго говоря, это не фильтр, а просто группировка на выдаче. Но для простоты будем считать его фильтром. Накладывается на интернет-ресурсы, чьи владельцы хитрые жуки. Чем больше сайтов – тем больше посетителей! Такой закон работает не всегда. «Яндекс» умеет распознавать случаи, когда одна и та же компания создает несколько сайтов с одинаковыми товарами/услугами. В таком случае в выдаче будет показываться лишь один из этих сайтов. Причем нельзя предсказать какой, его выберет «Яндекс».
Симптомы: Сайт резко проседает или исчезает из выдачи по некоторым запросам, в то время как его «родственничек» чувствует прелестно (в топе или близко к топу).
Стоит учесть, что данный фильтр может быть наложен не только по прямым признакам (одинаковые контакты), но и по косвенным: один и тот же владелец доменного имени, схожий ассортимент товаров/услуг, похожие дизайн и структура, одинаковая CMS.
Как снять аффилиат-фильтр: Самый действенный способ: сменить домен у одного из ресурсов и начать заполнение сайта заново, не повторяя предыдущих ошибок. Если доменное имя обязательно нужно сохранить, то придется идти на серьезные меры: сменить владельца одного из доменов, провести полный редизайн одного из сайтов, максимально снизить пересечение ассортимента. После этого можно попробовать написать в техническую поддержку «Яндекса». Не факт, что сотрудники поисковой системы встанут на вашу сторону, но зато как говорил герой одного знаменитого фильма: «Я хотя бы попытался».
Санкции, применяемые Яндексом и причины попадания в бан
Знание того как работают все существующие на данный момент фильтры все равно не гарантирует владельцу сайта, что он не попадет в бан. Связанно это с тем, что еженедельно Яндекс выпускает более новые и обновленные системные программы, проводящие мониторинг по правилам, которые подверглись незначительным правкам. Несмотря на это, знать причины попадания в бан все же необходимо. Обладая такими знаниями можно устранить образовавшуюся проблему или пообщаться с администратором Яндекса, который позволит вернуть сайт обратно в поисковую систему. Хорошо оперируя санкциями и условиями их применения, всегда можно доказать свою правоту и обвинить фильтр в неправильной трактовке контента или других мелочей.
Все фильтры существующие и применяющиеся на данный момент Яндексом можно разделить на предварительные и постфильтры. Рассмотрим подробнее чем они отличаются:
- Первый тип фильтров используется поисковой системой еще до того, как сайт попадает в базу и начинает индексироваться. Работу такого фильтра можно понять, рассмотрев почему многим ресурсам не удается использовать некоторые попытки накрутки поведенческих факторов.
- Вторые фильтры налагаются после просчета соотношения того что хочет найти пользователь к тому, что ему предлагается ресурсом.
Что же касается санкций, которые так любит накладывать поисковая система Яндекс на пользователей, то они делятся на ручные и автоматические. Разделив все санкции можно сказать, что они приводят к следующим последствиям:
Полный бан ресурса. Такие санкций приводят к тому, что сайт «выкидывают» с поисковой системы полностью. Это влечет за собой множество последствий, таких как потеря трафика и последующее уменьшение целевой аудитории ресурса.
Неучет ссылок, которые исходят с сайта
Важный фактор, на который обращают внимание люди, собирающиеся приобретать ссылки с того или иного ресурса.
Неучет ссылок, которые приводят на сайт. При наложении таких санкций, все ссылки на ресурс, которые представлены на внешних источниках блокируются
Это приводит к ухудшению ранжирования, а также потере возможной аудитории сайта.
Ограничение при поиске. Такие санкции налагается при использовании владельцем ресурса запрещенного контента или агрессивной рекламы. После наложения этих санкций, ссылки на сайт будут получать лишь пользователи, поставившие в поисковике галочку возле «поиск без ограничений».
Исключение огромного количества страниц из поисковой системы. Данные санкции применяются по системе подключения АГС.
Помимо этих санкций, существуют еще и другие, менее популярные, но тоже влияющие на определение ресурса в поисковой системе. Все они, как правило, напрямую влияют на количество аудитории, которая посещает и будет посещать сайт, а также на его ранжирование в системе.
Причины наложения санкций:
Первая и самая популярная причина, по которой множество сайтов ежедневно попадают под санкции – некачественные тексты
Практически на всех сайтах есть тексты, не важно какой они носят характер, но если они написаны без соблюдения определенных правил, то сайт из-за них может попасть под санкции.
Вторая причина заключается в использовании слишком большого количества внешних ссылок. Фильтр отвечающий за переоптимизацию сразу же накладывает на ресурс санкции, если находит такую причину.
Третья причина, это использование огромного количества рекламы
За использования большого количества рекламы и использования рекламы противоречащей правилам поисковика происходит наложения ряда санкций.
Четвертая причины заключается в использовании множества сайтов одной компании. Многие владельцы компаний делают это с целью не только максимальной рекламы своей организации, но и для того чтобы занимать как можно больше позиций в поисковиках.
Общие рекомендации по выводу сайта из бана
http://help.yandex.ru/webmaster/yandex-indexing/webmaster-advice.xml#violation — так должен выглядеть по мнению Яндекс качественный сайт.
Особое внимание должно уделяться уникальности и качественности контента. Регулярно стоит проверять сайт на дублирование, даже если вы сами писали все тексты
Если тексты хороши, их могут у вас скопировать. Пишите для людей и без ошибок.
Для молодых сайтов — лучше запуститься заново на новом домене, проанализировав и исправив предыдущие ошибки.
Для возрастных, трастовых сайтов:
снять насколько возможно с сайта ссылки (покупные и продажные) избавиться плностью от агрессивной рекламы (popup, popunder, clickunder) провести модернизацию сайта, структуры, сделать редизайн, поменять пути ссылкам в случае полного бана переписать контент, разбавить фото, видео, таблицами, фактами, никакой оптимизации текстов когда большая часть ссылок уйдет из индекса, сайт будет чистым и новым — отправить письмо из панели веб-мастера в поддержку вести еженедельное обновление и работу над сайтом (новости, анонсы, статьи и т.п.) отправить повторное письмо в поддержку, а потом еще и еще спустя 1-2 месяца после исправления ситуации, когда позиции появятся и поднимутся хотя бы на +20, провести закупку нескольких хороших, дорогих ссылок (не более 10 в месяц), только с тематических сайтов. Срок вывода сайта может занять от 2-3 месяцев до нескольких лет, зависит от типа бана, возраста сайта, качества и предыдущей репутации ресурса, от оперативности действий и навыков общения с поддержкой Яндекс.
нет комментариев