Обязательно еще почитайте мой свежий опрос 12-ти известных SEO-специалистов .
Один очень интересный сервис подсказали мне на днях — он проверяет «Новый» текстовый фильтр Яндекса, который по мнению известного SEO-специалиста, давно уже накладывается на отдельные страницы. Дмитрий предполагает, что этот вид санкции появился летом 2014 года и накладывается на сайты, продвигаемые в Яндексе как в Москве, так и в других регионах.
Часто, анализируя сайты, я по-прежнему вижу жуткий переспам ключевыми словами, много выделений жирным, переспам Title, скученное употребление ключевых слов (по 3-5 штук в одном абзаце) и т.д. Причем, что интересно, некоторые проекты (все реже и реже) стоят довольно высоко в топе. Но тут часто имеют место довольно сильные хостовые или ссылочные факторы, которые пока держат такие страницы. И это не надолго, учитывая новые и новые фильтры от поисковых систем. А многие переспамленные страницы улетели на много позиций, начиная с прошлого лета.
Сейчас реально наступила и входит в расцвет эра фильтров поисковых систем. Еще вроде бы не так давно их было всего-то 3-4, а теперь чуть ли не десятки. За ссылки, рекламу, поведенческие, тексты, качество сайта и многое другое. Ручные, автоматизированные. Постфильтры, предфильтры. Одновременно в Гугле и Яндексе или у каждого свое. Можно снять или лучше не пытаться. Снятие занимает от нескольких апов до полугода-года и больше. Очень разнообразные.
К примеру, вроде бы еще недавно я объясняла, что моя ТОП База создается для качественного полуавтоматического размещения — медленного, постепенного, разнообразного, в разных видах сайтов и поэтому безопасного. Потому что за резкий и мусорный прирост ссылочной массы накладываются санкции. И далеко не все верили, что все обстоит действительно так. Сейчас это, в принципе, уже всем известно. Как и наличие других многочисленных видов фильтров и бана.
Пора уже начинать как можно лучше в них разбираться. В первую очередь для профилактики. Раньше я могла похвастаться, что ни один из моих проектов не был ни под одним видом санкций. Потом у меня появился «аффилиат» и вот теперь, судя по всему, есть кое-где и «новый» текстовый Яндекса. Но зато нет и не было более серьезных типа Пингвина или за ссылочный взрыв.
Помогут больше узнать о фильтрах поисковых систем блог «Оптимизаторши» Елены Камской (о ней и ее проектах в отдельном посте) и материалы Дмитрия Севальнева.
В частности вот эти две статьи:
Потестируйте его, он работает очень быстро и просто, без регистрации и оплаты. Вбивайте URL домена в формате domen.ru и запрос, по которому у вас проект просел или не может подняться достаточно высоко в Яндексе.
Про сам сервис в коротком описании на этой странице все написано. Я связалась с автором и уточнила еще несколько моментов.
Собственно, все сводится к тому, чтобы:
используя расширенный поиск Яндекса и его операторы, создать запрос в нужном формате и сравнить по нужному ключевому запросу позицию своего проекта и сайтов на 1-15 позиций выше. Если наблюдается различие в ранжировании документов в общей выдаче и искусственно созданной нами (суженной до нескольких сайтов) — то, значит, имеет место влияние «Нового» текстового фильтра Яндекса.
При этом проверять стоит запросы, которые находятся в Яндексе за 20-й позицией и дальше. И те, которые точно не под другими фильтрами.
И, конечно, стоит понимать разницу между совсем неоптимизированными и не продвинутыми под конкретный запрос страницами и страницами, с которыми вроде бы, на ваш взгляд, все хорошо в плане текстов и оптимизации под этот запрос, но была просадка по позициям в Яндексе или не может подняться выше ТОП 15-20.
Смотрим тот фильтр, который adv. Второй вариант — old (старая версия расчета) оставлен автором просто так.
«Суть методики, кратко: если ваш проект по запросу вида «запрос (site:vashsite.ru | site:konkurent.ru)» находится выше сайта конкурента, при том, что по обычному запросу находится ниже (или вообще за топ100), то вероятно на ваш сайт (вернее, на страницу) наложен фильтр. Если снять фильтр, то ваш проект и по обычному запросу будет выше сайта конкурента.
«Вероятная позиция» — это позиция сайта, если бы не было наложено этого фильтра. Точность этого параметра достаточно условна , и на отличия +-1 внимания обращать вообще не стоит. Но, как говорят буддисты — это лучше, чем ничего.
По поводу точности. Статистических данных нет. Мои личные проверки показывают, что наличие фильтра показывает достоверно. «Вероятная позиция» — под вопросом.
Если реальная позиция сайта отличается от «вероятной» на 1-2, то значит фильтра нет. Если проект в топ 10 — фильтра нет.
Имеет смысл проверять фильтр по тем запросам, которые находятся за 20 местом и ниже.
Платным делать его не планирую. Мне лень)»
Я попроверяла на нескольких моих проектах — все выглядит достаточно достоверно. Пара друзей сеошников попроверяли — тоже. Проверяйте, напишите о результатах или своих мысли .
Также вам может помочь моя статья — там есть несколько полезных сервисов для определения естественности, тошнотности, релевантности страницы.
Там в вышеупомянутых статьях были другие полезные ссылки по санкциям поисковых систем от Дмитрия Севальнева, приведу тут их еще раз. Про раздел «Самостоятельно» на PixelPlus я уже писала ранее в рассылке и еще напишу в этом блоге.
Пишите, как вам этот сервис Евгения Кулакова.
Все мои проекты, кроме этого SEO-блога:
ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.
SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.
Мои бесплатные комплексные курсы по SEO
- 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.
"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности
Всем привет! В 2014 году в SEO произошло множество изменений, направленных на повышение качества поисковой выдачи и борьбу с веб-спамом. Среди них отключение ссылок для части запросов в Яндексе, борьба с накруткой поведенческих факторов, изменения в работе алгоритма АГС, обновления фильтров Панда и .
Множество сайтов были пессимизированы за запрещенные методы продвижения. Алгоритмы поисковиков несовершенны и под раздачу периодически попадают вполне нормальные веб-ресурсы. Задача вебмастера вовремя определить, что сайт зафильтрован. Это не так трудно, учитывая некоторые признаки, которые будут описаны далее. Гораздо сложнее узнать под какой фильтр попал сайт, чтобы выяснить причины и суметь максимально быстро все исправить. Вот об этом и пойдет речь в этой статье.
Самое жестокое наказание - это бан сайта, то есть полное исключение всех страниц из индекса и запрет на добавление в аддурилку. Бан достаточно редкое явление и надо очень сильно постараться, чтобы его получить. Единственным решением проблемы может быть только смена домена.
Гораздо чаще на сайты накладывают фильтры, которые могут быть разных типов:
Не буду все подробно тут описывать, так как их очень много и информации в интернете об этом хватает. Наша задача определить само наличие каких-либо санкций, которые могут накладываться, как на весь ресурс в целом, так и на отдельные страницы.
Признаки того, что сайт попал под фильтр:
Надо помнить, что не всегда потеря трафика - признак фильтра. Есть вполне объективные причины:
Некоторые причины наложения санкций поисковых систем:
Список можно продолжать еще долго, так как борьба поисковых систем с недобросовестными оптимизаторами продолжается постоянно.
Итак, сайт потерял трафик и позиции. Нам известны почти все основные фильтры Yandex и Google, но как понять, какой именно наложен на наш ресурс. Например, наличие АГС можно легко посмотреть через RDS-бар или сервис xtool.ru. Про ручные санкции Гугл нам сообщит сам. А как быть с остальными фильтрами, как их определить?
Очевидно, что стоит сопоставить график посещаемости сайта с выходом основных обновлений поисковых алгоритмов. Если провалы или взлеты посещаемости будут точно совпадать с датами апдейтов, то с большой долей вероятности их можно связать между собой.
Для определения Панды и Пингвина есть зарубежные онлайн-сервисы, которые требуют обязательный доступ к счетчику Google Analytics. Например, http://www.barracuda-digital.co.uk/panguin-tool/
Лично я чаще использую Метрику, к тому же Яндекс интересует меня в большей степени. Как быть в этом случае? А выход есть - это новый бесплатный инструмент от земляков из компании SeoLib под названием “Анализ трафика “.
Чтобы проверить сайт на фильтры Яндекса и Гугла достаточно залогиниться в аккаунте Я.Метрики или Гугл Аналитикс, откуда будут подгружаться данные о трафике. Затем регистрируемся на сайте seolib.ru и в правом верхнем углу нажимаем на значок гаечного ключа. В выпадающем списке инструментов выбираем “Анализ трафика “.
Я выбрал Метрику и в моем случае приложение запросит разрешение к данным на Яндексе. Жмем кнопку “Разрешить ” и на открывшейся странице выбираем проект для проверки.
Получаем график сравнения динамики посещаемости из поисковиков с датами изменений алгоритмов ранжирования.
При наведении на вертикальные полосы отображается дата и название обновления.
Как можно заметить, у меня началась просадка трафика в Yandex с 1 декабря 2014 года. В это время был Антифрод-апдейт - санкции за накрутку ПФ (клики в выдаче и переходы по ссылкам). Не знаю, может совпадение, так как я накрутку не использую. Посмотрим, как будет дальше.
Ниже показана расшифровка по цветам для Яндекса и Гугла. Ненужные фильтры можно скрыть, отметив их галочкой.
Еще одна интересная функция - сравнение трафика. Можно выбрать 2 периода, поисковую систему и сравнить ТОП-50 самых трафикогенерирующих страниц и запросов. Будет показано среднее число визитов в сутки для каждого периода, а также количество и процент их изменений.
На этом обзор инструмента по проверке сайта на фильтры поисковиков можно закончить, но знакомство с сервисом SeoLib только начинается. Рекомендую присмотреться к нему, здесь очень много полезных для оптимизатора инструментов. Некоторые из них платные, но стоимость вполне адекватная. К тому же до 31 декабря действуют новогодние бонусы при единоразовом пополнении на:
P.S. Совсем скоро наступит Новый 2015 год и, пользуясь случаем, хочу поздравить вас, мои дорогие читатели, с этим замечательным праздником! Желаю крепкого здоровья вам и вашим родным, моральных и физических сил, чтобы выстоять в кризис! Желаю вам личного счастья и процветания вашему бизнесу! Не теряйте веру в себя, даже если на пути встречаются трудности! До встречи в Новом году!
При написании этой статьи я ориентировался на исследования Дмитрия Севальнева и прочих экспертов компании «Пиксель Плюс», где работал одно время. У Дмитрия много статей по этому поводу, собственно фильтры — это его главная «тема» и в основном можно обходиться лишь его исследованиями. Я же ставил перед собой цель структурировать информацию по фильтрам Яндекса, чтобы было удобно смотреть.
Фильтры Яндекса (а также других поисковых систем) делятся, прежде всего, на ручные и автоматические . Вообще классифицировать их можно по многим признакам, но в первую очередь нужно учесть это разделение.
Если уж и попадать, то предпочтительнее под автоматические санкции – они так же автоматом снимутся, как автоматом и были наложены. В случае же с ручными санкциями, скорее всего, предстоит долгая переписка с техподдержкой поисковика.
Ручные и автоматические санкции делятся, в свою очередь, на такие:
Классифицируя иначе, можно выделить 4 вида фильтров – текстовые, ссылочные, за накрутку поведенческих факторов и остальные (adult, АГС, аффилиаты, дорвеи, другие).
Кроме этого разделения и разделения на ручные и автоматические санкции есть ещё деление на предфильтры и постфильтры. Предфильтры накладываются еще до расчета релевантности сайта, на этапе попадания в базовый поиск, постфильтры же накладываются уже в процессе ранжирования. Ну и, наконец, санкции делятся на запросозависимые, подокументные и хостовые. Первые ведут к проседанию одного запроса, вторые - всех запросов со страницы, третьи - всех запросов со всего сайта.
Подробно о фильтрах:
Если же хотите вкратце (либо просто поглазеть на Лену Камскую), то вот другой видос:
Причинами санкций могут быть текстовое содержание, ссылки, реклама, искусственные накрутки и так далее. Кстати даже опытные продвиженцы могут рассуждать о фильтрах, когда на самом деле причина проседания более прозаична, так что давайте сразу разберемся.
Перед определением вида санкции и ее лечения следует, прежде всего, убедиться в наличии санкций. Возможно, продвигаемая страница не попала под санкции, а просто выпала из индекса. Если Яндекс не находит даже кусок текста со страницы, введенный в кавычках (или страницу по запросу вида url:site.ru/adres/stranicy.html ) – возможно, следует добавить страницу в инструменты вебмастера или, если не сработает, переписать текст.
Также возможно, что проседание позиций связано с изменением алгоритма ранжирования, в результате которого позиции большого числа сайтов были существенно изменены и наш сайт оказался среди их числа. Для определения этого требуется комплексно сравнить ТОП-10 выдачи по интересующему запросу «до» апдейта и «после» (с помощью инструмента «Анализ поискового запроса» в Megaindex ). Если существенно потерял позицию только наш документ, то это санкция. Если изменения по ТОП-10 более значительные (из ТОП-10 выпало 4 сайта, сменился сайт на 1 и 2 месте и так далее), то это с большой вероятностью алгоритм. Если мы определили, что продвигаемая страница по-прежнему находится в выдаче, а существенно изменил позицию в ТОПе только наш сайт, то мы с большой долей вероятности столкнулись с теми или иными санкциями.
Как один из вариантов причин проседания запроса – запрос мог поменять свой тип с точки зрения логики поисковой системы, и как следствие, выдача может сильно поменяться.
Текстовые фильтры делятся на запросозависимые и документозависимые. Первые ведут к проседанию в выдаче одного запроса или их группы, вторые – к проседанию всех запросов со страницы. В основном текстовые фильтры можно отнести к группе постфильтров, и в подавляющем большинстве случаев они накладываются автоматически. Но бывают и жестокие ручные текстовые санкции - в этом случае проседает, как правило, большая часть запросов с сайта или вообще все.
Большое видео с SEO-коучинга:
Если позиции плохие, и подозрения есть именно на текст (а не на наличие нетекстовых фильтров или хостовые факторы), тот тут такая схема работы:
Кстати, один из способов определить наличие фильтров - подать заявку на добавление сайта в Яндекс Каталог. Если есть санкции, то об этом поддержка Яндекса часто оповещает в качестве обоснования причин отказа принятия сайта в ЯК.
Наиболее часто встречаются фильтры «Переоптимизация» и «Фильтр Севальнева», еще есть фильтр за одинаковые сниппеты и «Ты последний», но с ними приходится сталкиваться не так часто.
Добавлю лишь, что Яндекс накладывает текстовые фильтры не только с учетом разных форм одного и того же слова, но и по корням слов. Многие считают, что фильтр может быть наложен, допустим, только за чрезмерное употребление слова «строительный» в разных формах, учитывая «строительных», «строительными» и так далее. Но санкции можно поймать и если с этим словом все будет в порядке, но будут присутствовать слова «стройка», «строить» и другие однокоренные, употребление которых и приведет к превышению порога спамности.
«Переспам» - один из первых текстовых фильтров Яндекса, направленных против чрезмерной оптимизации текстового содержимого страницы. Внедрен с февраля 2010 года, официально не анонсировался. Сегодня встречается не очень часто, поскольку постепенно уступает место «фильтру Севальнева» и «Переоптимизации». Сейчас новые сайты практически не ловят «Переспам». Через несколько лет данный фильтр окончательно уйдёт в прошлое. Хотя, возможно, есть тематики, где он еще применяется.
«Переспам» - запросозависимый фильтр; при нем проседает один запрос, обычно резко, на 20-40 позиций; по другим запросам документ нормально ранжируется.
Можно определить, введя в Яндекс модифицированную форму продвигаемого запроса (обычно морфологическую или перестановку слов). Скажем, вместо [грузоперевозки Рязань] – [грузоперевозка Рязань] или [Рязань грузоперевозки]. Если по переформулированному запросу наш сайт окажется в выдаче резко выше (например, был на 37 месте, а стал на 14) – скорее всего, наложен фильтр переспама, документ переспамлен по продвигаемому запросу. Точно говорить о наличии данной санкции можно, лишь если запрос растёт при нескольких модификациях (поскольку фильтр позапросный и накладывается на один запрос).
Избыточное количество чистых вхождений, акцент на заданной фразе в тексте, Title и анкорах входящих ссылок - всё это может быть причиной переспама.
Если сайт под фильтром, то методы его снятия могут быть следующие:
Обычно переспам снимается в первый же текстовый апдейт после переиндексации.
Сразу скажу, что ручная диагностика фильтров — дело трудоемкое. Профессиональные оптимизаторы пользуются для определения фильтров сервисом Саши Арсенкина .
«Переоптимизация» - это наиболее часто встречающийся сегодня текстовый фильтр Яндекса. Внедрен с сентября 2011 года, официальный анонс был в блоге Яндекса на ya.ru. По этому текстовому фильтру возникает больше всего вопросов, и вообще в ходе практики я наблюдал самое разное поведение запросов на страницах, где была диагностирована «Переоптимизация». В ходе статьи буду делать небольшие замечания по этому поводу.
Это документозависимый фильтр. Проседают все запросы, ведущие на страницу, например на 10-30 позиций; документ теряет большую часть поискового трафика с Яндекса; документ плохо ранжируется даже по длинным (4-5 слов) запросам. В этом по идее и есть главное отличие от «Переспама» - там проседает один запрос, тут - все запросы с одной страницы.
Вроде стройная теория, однако бывало, что на странице обнаруживался фильтр только по одному запросу, но «Переспам» и «Новый фильтр» не диагностировались. Вроде переоптимизация, но по одному запросу. И на таких страницах было наиболее тяжело снять фильтр. Мое личное мнение - если наблюдается такая фигня, то, скорее всего, контент просто хуже по качеству оформления, а не текстов, чем у конкурентов.
В отличие от того же «Переспама», здесь позиции запросов при переформулировке слов (перестановка или смена окончаний) не меняются или меняются незначительно. Но «Переоптимизацию» можно определить следующим образом:
Если при запросе такого вида наш сайт в выдаче окажется выше нескольких конкурентов, которые в выдаче по запросу без дополнительных операторов были выше нас, то, скорее всего, наложен фильтр переоптимизации. При этом лучше проверить именно несколько конкурентов – есть вероятность, что на единственного конкурента, с которым вы сравнивали свой сайт, также наложен фильтр, или же это будет крупный портал, с которым сравнивать нет смысла.
Вот еще видео-пример:
Несогласованный текст, несоответствие страницы ключевым словам (под которые она оптимизирована), переоптимизация контента (текста, Title).
Обычно требуется провести тот же комплекс мер, что и в случае с переспамом, но если он не поможет, принимаем более серьёзные меры:
Если в целом текст, допустим, некачественный и не тематический по отношению к продвигаемым ключам, состоит из большого числа слов из общего нетематического корпуса слов (слишком много вводных слов, длинные предложения, малое разнообразие частей речи, много прилагательных), то текст, возможно, придется переписать - просто чистка ключей может не помочь.
Переоптимизация обычно снимается через один-два текстовых апдейта после переиндексации.
В 2014 году начала наблюдаться ситуация, при которой запросы улетали за топ-200, и стандартные методы борьбы с текстовыми фильтрами не срабатывали. В итоге оптимизаторы пришли к выводу, что это новый текстовый фильтр Яндекса. Его в общем и назвали просто «новым фильтром», также в ходу наименования «текстовый антиспам» и «фильтр Севальнева», поскольку Дмитрий Севальнев из «Пиксель Плюс» был, возможно, первым, кто открыл и описал данную санкцию.
Сейчас уже далекий 2016, так что, я думаю, поздно называть этот фильтр «новым». Поэтому я его называю «севальневским» 🙂
Полная потеря трафика по запросу (возможно резкое проседание), чаще проседают именно группы запросов, но в целом можно говорить, что санкция накладывается не на весь документ, а позапросно. При этом, в отличие от «Переспама», при переформулировке позиция не растет, то есть можно предположить, что фильтр накладывается на все формы запроса. Часто проверка путем сравнения двух сайтов показывает, что наш сайт с 250 места выше по релевантности, чем сайт на 70-80 месте.
Определяется этот новый фильтр примерно так же, как и переоптимизация. Отличить от «Переоптимизации» можно по абсолютному числу потерянных позиций - в случае с фильтром «Переоптимизация» это 5-30 пунктов, в случае с «Новым» потеря оказывается значительно выше:
Из практики можно сделать вывод, что если сайт далеко за пределами топ-100 по запросу, но при посайтовом сравнении оказывается релевантнее запросу, чем сайты на 70-80-х местах, с большой долей вероятности мы имеем дело с «фильтром Севальнева».
В инструментах Сани Арсенкина фильтр проверяется там же, где и переоптимизация. У него инструмент «два в одном».
Для снятия «севальневского» текстового фильтра Яндекса рекомендуется делать тот же комплекс работ, что и для «Переспама» и «Переоптимизации», но дополнительно:
В случае если действия, описанные выше, после переиндексации документа и нескольких текстовых апдейтов поисковой выдачи Яндекса не принесли ожидаемого результата - рекомендуется полностью переписать текст.
Как я уже говорил, фильтры могут быть наложены за переспам однокоренными словами. То есть если максимально допустимое количество вхождений на страницу – 10, и у вас по 7 раз употреблены слова «печать» и «печатание», то за это может быть наложен текстовый фильтр, хотя слова по идее - разные.
Еще один момент – иногда, когда вроде как страница на первый взгляд не переспамлена, стоит посмотреть вхождения в исходном коде страницы. Их там на самом деле может оказаться дофига.
«Ты последний» - это, по большому счету, фильтр за неуникальный или неактуальный контент.
Причем «контент» тут не всегда значит «текст», за использование заведомо неуникальных шаблонов сайт тоже может попасть под этот фильтр.
Под этот фильтр попадают в основном умники, которые думают, что накопипастив кучу текстов, они сделают отличный сайт и на него повалит народ. То есть это новички, школьники и прочие лица в состоянии опьянения. Их опьяняют «интернетовские деньги», они как Стивен Абутмен из Южного парка. Помните?
Канада не получает достаточно денег! У других стран много денег, нам нужна часть этих денег! Как насчет… Как насчет интернета? Интернет делает много денег, так дайте нам часть этих денег! - Да! Дайте нам интернетовские деньги!
Но вместо интернетовских денег юные Гейтсы и Цукерберги получают фильтр «Ты последний».
Если вдруг сильно проседает трафик с Яндекса, но сайт продолжает нормально индексироваться - есть повод проверить сайт на предмет наличия данного фильтра. И, соответсвенно, если сайт индексируется, а трафика нет - тоже есть повод сделать то же самое.
Введите уникальный кусок текста из Title или со страницы в Яндекс (брать нужно страницу, которая есть в индексе). Если сайт не находится в числе первых - скорее всего, есть фильтр. Дополнительно проверьте уникальность текста через Advego Plagiatus или Etxt Antiplagiat. Но текст может быть неуникальным при условии, что Яндекс считает наш сайт первоисточником - если вводите кусок текста в кавычках и какой сайт на первом месте, тот и считается первоисточником.
Кроме неуникального контента причинами могут быть дублирующиеся тексты или куски текста на сайте.
Повышать уникальность текстов до 100%, избавляться от дублей внутри сайта. Легче всего просто заказать новые тексты. Кроме того:
Дублирование внутри сайта – это тоже дублирование контента. Важно также учитывать процент уникальных текстов на сайте (уникальных шинглов) относительно общего количества текстов. При ранжировании карточек товаров уникальность текста может не играть сильной роли (хотя в Google играет), но общая уникальность информации на сайте будет важна для нормального ранжирования. Также при ранжировании могут играть роль мономы (комбинации факторов), скажем (объём текста)/(время пользователя на странице). С дублями, описанными выше, можно бороться следующими методами:
Что же касается полных дублей страниц, их можно найти либо при помощи сканеров вроде Screaming Frog, либо через панель Вебмастера Google (Инструменты для веб-мастеров – Оптимизация HTML) и иногда Вебмастера Яндекс (Мои сайты – проверить URL). В случае со Screaming Frog полученные после сканирования данные выгружаются в Excel, дальше подсвечиваются одинаковые теги Title в файле – так можно вычислить дубли и их URL.
Чтобы получились «правильные» карточки товаров, необходимы:
Как вариант - можно еще просто убрать ключевые слова из всех текстов. При этом оставить их в Title, но сократить содержание последнего до трех слов или меньше. В этом случае спамность текстов будет нулевой. Ждем переиндексации, и после прошествии еще некоторого количества времени Яндекс должен снять фильтр. Желательно еще снять анкорные ссылки, если их много. После выхода сайта из-под фильтра можно потихоньку, понемногу возвращать ключи в тексты.
Яндекс исключает документ из выдачи, если его сниппет дублирует уже имеющийся в выдаче сниппет другого документа. Это и называется фильтром за одинаковые сниппеты.
Сюда же, кстати, входят и санкции за одинаковые Title.
Фильтр на одинаковые сниппеты наиболее характерен для товарных запросов и сайтов интернет-магазинов. Его назначение заключается в том, что с целью повышения разнообразия результатов выдачи Яндекса скрывается ряд похожих результатов. Предпочтение отдается тем документам, у которых сниппет (Title и текст описания) существенно отличается от уже представленных результатов.
Сайт полностью исчезает из выдачи по некоторым запросам, но если добавить в урл конструкцию &rd=0, появляется в результатах поиска.
Сниппет страницы полностью или почти полностью дублирует сниппет другой страницы, которая находится в топе.
Для снятия фильтра требуется:
Можно подумать, что если, мол, текст из сниппета уникальный, то фильтра быть не может. Но это неверно. Если по тексту из сниппета Яндекс ничего не находит - это ничего не значит. Сниппет обычно берется:
Теперь давайте по ссылочным фильтрам — постоянным спутникам плохих сеошников.
Мощный фильтр, запущенный в 2015 году и направленный против сайтов, которые покупают ссылки. Как Яндекс определяет, покупная ли ссылка? Намек на метод можно найти в Мадридском докладе. В самой сжатой форме - если сайт ссылается коммерческими анкорами («купить», «цена») на сайты разных тематик, то, вероятнее всего, он торгует ссылками. Но помимо всего прочего ничто не мешает Яндексу просто выгрузить базы ссылочных бирж. В целом про этот фильтр на момент июня 2015 года мало что известно.
Признаки: сайт проседает по всем запросам примерно на -14 позиций.
Причины: большое количество некачественных покупных ссылок (Сеопульт, Сапа и так далее).
Вот огромный экспертный видос по Минусинску:
Чтобы предотвратить ситуацию, когда сайт резко вырывается в топ чисто за счёт огромного количества покупных ссылок, введён данный фильтр. Штрафует акцепторов при наличии неестественно высокого темпа наращивания ссылочной массы. Доноры, участвующие во «взрыве», также помечаются как неблагонадежные.
Я не уверен, что с появлением Минусинска этот фильтр должен продолжать работу - ведь за покупные ссылки карает Минусинск, а за рост качественных ссылок не должны вообще накладываться санкции.
Однако Яндекс намекал, что во избежание покупок ссылок конкурентами с целью «завалить» врага под фильтр, покупными ссылками могут считаться лишь старые, так что с другой стороны, «Ссылочный взрыв» может еще оставаться в строю.
Признаки: сайт «залипает» на определенных позициях.
Причины: покупка большого количества ссылок в короткий период.
Ранее был одним из основных инструментов Яндекса для выявления покупных ссылок. Предусматривает различные типы санкций, применяемые к сайтам при манипулировании ссылочной массой (ссылочные кольца, прогоны и другие).
С выходом Минусинска пока непонятно, применяется ли сейчас.
Признаки: сайт резко понижается в выдаче по всем запросам.
Причины: абсолютное преобладание ГС в ссылочной массе.
Фильтр, созданный для борьбы с ГС, продающими ссылки. Ведёт к неучёту анкора и веса ссылки. То есть когда на сайт накладывается этот фильтр, ссылки с него начинают давать куда меньший эффект. Проверить всех своих доноров на наличие непота представляется практически нереальным, поэтому при покупке ссылок нужно предъявлять жесткие требования к донорам, отслеживать эффект от покупки, составлять блек и вайт листы.
Неучёт внутренних ссылочных связей при наличии избыточной (спамной) перелинковки внутри сайта. То есть польза от вашей внутренней перелинковки может пойти насмарку, если Яндекс посчитал ее спамной и наложил данную санкцию. Основная причина наложения фильтра - спамное содержание анкоров и их повышенная длина, однако причиной может быть и, допустим, отсутствие корректного оформления ссылок.
Используется для борьбы с накруткой поведенческих через биржи. Штрафует сайт за искусственное улучшение кликовых поведенческих факторов с применением мотивированного трафика или эмуляций действий пользователей в поисковой системе Яндекс. Ресурс продолжает нормально ранжироваться только по витальным и запросам с явным указанием URL-адресов с сайта. Поведенческие факторы являются ключевыми в ранжировании сайтов по средне- и высокочастотным запросам. И хотя их число исчисляется десятками, под пристальным прицелом оптимизаторов оказались наиболее значимые, а именно, так называемые кликовые факторы на страницах результатов выдачи:
Именно на искусственное улучшение данной группы факторов направлено большинство сервисов по накрутке. На текущий момент можно утверждать, что фильтр за накрутку кликовых поведенческих факторов функционирует в Яндексе наравне с прочими санкциям и применение данной технологии оптимизации подвергает сайт существенному риску потери позиций в срок от 6 месяцев и более.
Признаки: в некоторых случаях – понижение позиций сайта по части запросов. Срок – 1 год. Сейчас лучший способ диагностировать факт наложения фильтра - обращение в службу поддержки поисковой системы Яндекс через панель вебмастера.
Платоны прямо сообщают о факте применения данных санкций к сайту, что можно воспринимать как достоверное подтверждение и способ диагностики.
Рекомендуется, особенно в случае непричастности к актам искусственного улучшения поведенческих факторов, вступить в честный и аргументированный диалог, в котором открыто изложить свою позицию. В ряде случаев данные действия могут ускорить процесс снятия фильтра.
Причины: накрутка кликовых поведенческих факторов с целью повысить позиции сайта.
Позиция представителя Яндекса по фильтру за ПФ:
Факты накрутки и неучёта действий пользователей могут фиксироваться с помощью большого числа алгоритмических и статистических методов. Севальнев на проекте «Пиксель Плюс самостоятельно» рассказывал об одном из алгоритмов, который применяется также в антиспаме для функционирования санкции «Ссылочный взрыв»:
То есть выявляются все сайты, у которых неестественно большой рост, и сравниваются IP кликавших на них юзеров.
Кейс по работе с сайтами под ПФ-фильтром от Артура Латыпова и SEO-коучинга:
Тысячи их! Не возьмусь даже утверждать, что в этой статье я смогу описать их все.
Алгоритм АГС (официальной расшифровки нет, но мы-то знаем, что это означает «антиговносайт») был разработан для борьбы с некачественными сайтами (в Google похожую функцию имеет алгоритм Panda). То есть он направлен на ограничение в ранжировании и индексации сайтов, созданных не для пользователей. Впервые его влияние было замечено 1 ноября 2013 года. Официально анонсирован 6 ноября 2013 в блоге Яндекса: http://webmaster.ya.ru/16272 . Было несколько «волн» наложения санкций. База регулярно обновляется, ряд сайтов из-под санкций выходят, а ряд сайтов попадает под них. Ссылочные биржи и эксперты дают различные оценки – кто-то говорит, что от всей базы доноров в биржах под АГС находится 1% сайтов, кто-то – что 20% (в общем, от 1 до 20 процентов).
С апреля 2014 – обнуление тИЦ. Сейчас при попадании под АГС обнуляется тИЦ сайта (при проверке этого показателя через Яндекс Каталог сервис пишет, что тИЦ «не определен»), но сам сайт может оставаться в индексе Яндекса. Ранее же была распространена ситуация, когда большинство страниц вылетало из индекса, оставалось только от 1 до 101 страницы.. Через пару дней после попадания под действие алгоритма я написал в поддержку - мол, контент уникальный, веду блог для людей, что следует исправить? Платон думал 4 дня, а затем написал:
Здравствуйте, Марк!
Приносим извинения за задержку с ответом.
Я проверил, с сайтом все в порядке. тИЦ будет актуализирован при ближайшем пересчете.
То есть если есть уверенность, что сайт не должен был попасть под АГС, имеет смысл связаться с поддержкой.
Низкое качество сайта в целом, низкопробный контент.
Исследования показали, что наличие сайта в Яндекс.каталоге снижает вероятность попадания под АГС в 2,5 раза, в DMOZ – ещё выше, в 5,4 раза. YACA+DMOZ вместе же снижают вероятность попадания под АГС аж в 40 раз. Также хороший знак здесь – наличие Яндекс.директ. Что касается торговли временными/арендными ссылками, то одни говорят, что такая деятельность не влияет на попадание сайта под АГС, другие же считают, что это одна из основных причин попадания под действие алгоритма. Посещаемость же должна влиять куда однозначнее – при исследовании 6986 сайтов наблюдалось резкое падение доли сайтов под АГС среди сайтов с посещаемостью более 150 посетителей и особенно более 300 посетителей в сутки.
Презентация Дмитрия Севальнева по более полному исследованию АГС:
Вот кстати как писать в ТП:
На коммерческих сайтах опасность попадания под АГС присутствует, если:
Для вывода коммерческого сайта из-под АГС нужны:
Вот кстати как писать в ТП:
Что требуется для вывода информационного сайта из-под АГС:
Еще советы по выходу из-под фильтра:
Я знаю одного вебмастера, который спец именно по выходу из-под АГС. Если все перепробовали, и не помогло — пишите мне, дам контакты.
Яндекс склеивает похожие сайты, если есть подозрение на то, что у них один и тот же владелец. В итоге из всей группы аффилированных сайтов в зоне видимости в выдаче по запросу остаётся только один. Я лично не слышал, чтобы фильтр накладывался на информационные сайты, кстати говоря. Также аффилированность сайтов не является отягощающим фактором при продвижении:
То есть если у вас сайт продвигается по запросам группы [вызов газовщика на дом], а еще один сайт - по запросам в стиле [вызов деда мороза на дом], и при этом вы аффилированы, то обоим сайтам будет на это наплевать - они просто не почувствуют склейки.
Полное исчезновение сайта из выдачи по нескольким запросам, которые до этого были в топе или близко к нему. Также если сайт продвигается плохо даже после проведенных по нему работ – большинство запросов в выдаче за топ-100, но часть запросов при этом растёт, есть вероятность, что существует его аффилиат, который и виден по тем запросам, по которым наш сайт не продвигается. При этом по разным запросам и в разных регионах наиболее релевантными могут быть разные сайты.
Вот еще способ определения от Игоря Бакалова:
Продвижение сайтов одного владельца по одинаковым/пересекающимся запросам в одном регионе.
Аффилированность Яндекс вычисляет через контактные данные, дублированный каталог услуг и цен (даже сайты просто с одинаковыми ценами Яндекс может определять как аффилированные), данные регистрации доменов, html вёрстку и cms сайта. На 98-99% аффилированных сайтов санкции налагаются автоматически, но аффилированность может быть и ручная.
Как избежать аффилированности (склейки сайтов в группу)?
Сайты не попадут под фильтр аффилиатов, если, допустим, у них только IP одинаковый. Но если пользоваться при этом сервисами – например, одним кошельком, то шанс попасть под аффилированность повышается. Как в таком случае быть, если оптимизатор продвигает похожие сайты? Тут может быть такой выход – оформить ИП, и тогда можно пользоваться одним аккаунтом в сервисах для работы с клиентскими сайтами.
Сначала требуется проверить наличие фильтра на одинаковые сниппеты, если такой фильтр обнаружен – аффилированности по запросу нет.
Быстро выявить афиллированность по запросу можно следующим образом:
Имеется также старая база аффилиатов по Яндексу: http://tools.promosite.ru/old/clones.php Можно вбить в Яндекс номер телефона, адрес или почту, добавить ~~ site:nashsite.ru.
В случае автоматических санкций устраняем все причины:
Затем ждём – фильтр снимается автоматически. В случае наложения ручных санкций нужно проделать всё то же самое, но уже не ждать, а писать в техподдержку, присылать сканы свидетельств о регистрации, договоров аренды и так далее.
Накладывается из-за наличия на сайте агрессивной рекламы. Понижает в ранжировании сайты с избыточным рекламным содержимым (pop-up, кликандер и другие). Причинами также могут быть наличие агрессивной рекламы, вызывающих тизеров, всплывающих окон, кликандеров. Иногда понижаются сайты с обманным содержимым во всплывающих окнах, уведомлениях.
Для снятия фильтра за некорректное рекламное содержимое требуется произвести смену размещаемых рекламных материалов или подключенной партнерской программы и дождаться полноценной переиндексации ресурса. Для ускорения процесса рекомендуется после внесения существенных изменений на сайте сообщить об этом в службу поддержки поисковой системы через панель вебмастера.
Ранжирует ниже сайты, монетизирующиеся партнерками и при этом не дающие дополнительной ценности пользователям. Это могут быть, к примеру, нераскрученные купонники, на которых нет ничего, кроме кодов партнерских программ.
Исключает из индексации спам-сайты, направленные исключительно на привлечение трафика обманными техниками, среди них могут быть:
Фильтрация сайтов для взрослых из выдачи не по адалт-запросам. Сайт полностью исчезает из выдачи по всем запросам, кроме «взрослых», что сопровождается резким снижением трафика (если под него попал, допустим, коммерческий сайт). Сайт фигурирует в выдаче только по запросам с явным adult-контентом. Причины - наличие взрослого контента, ссылки на adult-ресурсы, реклама взрослых сайтов.
Я еще слышал информацию, что сайт может быть пессимизирован из-за плохих поведенческих, но подробнее рассказать, каким образом это происходит, пока не могу. Постараюсь обновлять данную статью и быть в курсе всех технологий Яндекса, направленных против неестественного влияния на выдачу. Да, и если связаться с поддержкой Яндекса не получается - пишите на
Познакомились с их видами и способами позволяющими из-под них выйти, а сегодня очередь дошла до русского поисковика Яндекс.
Посетители моего сайта (за что вам огромное спасибо) спрашивали, почему я не рассказал про фильтры Яндекса, так как в рунете он занимает одно из лидирующих мест среди остальных систем поиска, и каждый начинающий блоговед должен знать, к чему могут привести не правильные действия.
Скажу честно, все что связано с Яндексом для меня ни есть хорошо, потому что изначально я пошел по не правильному пути развития и этот блог попал под один из фильтров. 🙁
Если вы внимательно читаете мои посты, тогда могли заметить, что я очень часто отмечаю факт наложения санкций от Яндекса и постоянно ищу пути решения этой проблемы. Как говорится у кого что болит, тот про то и говорит.
Не буду ходить вокруг да около, поэтому давайте я расскажу, какие фильтры есть у Яндекс и способах борьбы с ними.
Если вы еще совсем новичок и не понимаете, о чем идет речь, то советую воспользоваться любым поиском и почитать про понятие фильтров исчерпывающую информацию.
Фильтр — это воздействие (санкции) на страницы или сайт со стороны поисковой системы.
В результате наложения санкций у вашего блога могут выпасть из индекса некоторые страницы или весь блог целиком. Также могут просесть продвигаемые запросы, все зависит от конкретного фильтра, под который попал сайт.
1) "Ты последний". Этот фильтр Яндекс накладывает за присутствие не уникального контента, информации, которая ни несет пользы для читателей. Суть его заключается в том, что такие страницы из индекса не пропадают, но и трафик не приносят. Яндекс их понижает в результатах выдачи.
Для того, чтобы проверить попала ли страница под данный фильтр, достаточно из текста взять длинное словосочетание и ввести его в строку поиска, если сайт за пределами ТОП 10 или в самом низу списка сайтов, тогда наличие фильтра имеет место быть.
— использовать только качественный ;
— переписать или убрать ворованный материал;
2) «Ты спамный» (переоптимизация ключевиками) . Этот фильтр накладывается на страницы сайта, у которых присутствует большая плотность , слишком много выделений текста жирным, подчеркиванием или курсивом, в результате чего страницы понижаются вниз ТОП выдачи. Запомните переоптимизация — это тоже плохо.
Способ выхода из-под фильтра:
— убрать из контента излишнюю оптимизацию;
— плотность ключевых слов не допускайте выше 4%;
3) «Непот фильтр» . Он накладывается на сайты, которые в массовом количестве. Как следствие, такие ресурсы перестают передавать ссылочный вес. Если вы продвигаете запросы посредством таких ГС проектов, можете наблюдать снижение позиций в выдаче.
Способ выхода из-под фильтра:
4) «Аффилирование» . Этот фильтр убирает из выдачи сайты одного и того же владельца, который решил уменьшить конкуренцию и продвигает несколько проектов с помощью одних и тех же запросов.
Способ выхода из-под фильтра:
— сменить владельца домена;
— разнести домены по разным хостингам;
— изменить сайт целиком ( , контент, телефоны, адреса и др.);
5) «Редирект» . Этот фильтр проверяет сайты или блоги присутствие на страницах java скрипт редирект. Этот скрипт перенаправляет посетителей с одного сайта на другой.
Способ выхода из-под фильтра:
— убрать вредоносный код редирект со страниц;
6) «Новый домен» . Этот фильтр Яндекса аналогичен фильтру . Суть его заключается в том, что все молодые сайты и блоги автоматически попадают под действие данного фильтра, пока не получат доверие от поисковиков.
Способ выхода из-под фильтра:
— писать регулярно;
— писать уникальные и объемные посты;
— получать внешние ссылки с качественных площадок (с высоким ТИЦ и PR);
— увеличивать посещаемость;
7) «Фильтр АГС» . Вот мы и добрались до самого злокачественного фильтра, который приносит сайтостроителям много бед и хлопот.
Позаимствовал этот фильтр свое название от оружия армии РФ (Автоматический Гранатомет Станковый ), однако на просторах сети интернет он получил свое второе имя (Анти Говно Сайт ). Как можно заметить, в оба названия вложен один и тот же смысл — это борьба с некачественными площадками.
АГС-17. Ранняя версия фильтра, направленная на выявление некачественных площадок, которые созданы в основном для , а не для пользы человеку (типичные ГС-сайты).
После наложения этого фильтра из индекса вылетают все страницы кроме главной, хотя бывают случаи, когда в индексе еще вися несколько других страничек, однако это никакой роли не играет.
АГС-30 . После того, как алгоритм фильтра АГС-17 завалил кучу , так как и ГС их тоже назвать нельзя, Яндексом был разработан, куда продвинутый алгоритм «30» , который был доработан и улучшен.
АГС-40. Обновленный фильтр, который вместо исключения страниц из поиска обнуляет ТИЦ сайту, в результате чего площадка ранжируется ниже других. Теперь отдается предпочтение сайтам, у которых имеется .
8) «Минусинск» . Одним из последних обновлений Яндекса 2015 года стал запуск нового фильтра по борьбе с сайтами занимающимися массовой закупкой seo-ссылок.
Теперь все проекты, которые использовали для продвижения покупные ссылки отправятся в конец поисковой выдачи. Подробнее про Минусинск прочитаете .
Первое. Неуникальный контент . Когда я только создал этот блог было писать статьи самостоятельно очень тяжело и поэтому я стал прибегать к некачественному рерайту других статей. Также я создал на блоге отдельную рубрику, где стал размещать отсканированный контент (беда была в том, что после попадания под фильтр я проверил эти статьи на уникальность и офигел, половина из них оказалась 100% плагиатом).
Учтите, что весь материал обязательно проверяйте на уникальность, которая должна быть от 90% и более. Про клавиши «Ctrl + C» и «Ctrl + V» забудьте раз и навсегда, тогда будет вам счастье.
Второе . Маленький объем статей . Зачастую писать много и долго было очень утомительно, поэтому мои статьи не превышали 1000 знаков (с пробелами). Можете посмотреть мои самые первые посты и сравнить их с последними. Есть разница?
Пусть у меня и уходит на написание статей от 2 до 3 дней, затрачивая время по 3 часа, зато оно того стоит. Если хватит сил, и я осилю курс , тогда, надеюсь, писать будет куда легче.
Третье . Дублированные страницы . Сначала я не понимал, зачем создавать файл robots.txt и запрещать еще какие-то страницы к выдаче, так как с WordPress я раньше никогда не работал. Теперь понял, что Яндекс посчитал одни и те же статьи за дубликат, но уже поздно.
Четвертое. Внешние ссылки . Изначально я зарегистрировался в бирже ссылок Sape и стал продавать ссылки. Соотношение исходящих ссылок было больше входящих, другими словами я продал 100 ссылок с блога (притом большинство не тематических), когда на блог ссылалось только 60.
Пятое. Возраст площадки . Закинул свое детище в систему Sape я после 2,5 месяцев индексации. Прекрасно понимая, что только после 1 года жизни блога можно было так делать, но желание заработать легкие быстрые деньги взяло верх.
Шестое . Посещаемость . На тот момент посещаемость составляла в среднем от 17 до 30 человек в день. Надо было хоть немного продвинуть страницы по НЧ-запросам и увеличить посещаемость.
1) Пишу регулярно, примерно раз в 3-4 дня только УНИКАЛЬНЫЙ КОНТЕНТ;
2 ) Все статьи не меньше 3000—4000 знаков (без пробелов);
4) Составил файл robots.txt, тем самым убрав дубли страниц;
5) Никакого заработка на раннем этапе развития проекта;
6) Работаю исключительно на посещаемость (примерно 200 уников в день).
Пока на все мои письма Платон Щукин отвечает стандартными отговорками, мол, развивайте сайт и тогда он автоматически выйдет из-под фильтра Яндекса. Если честно, так для меня это уже стало каким-то соревнованием, смогу ли я завоевать доверие у Яши или нет.
Если хотите следить за мной и моим блогом, а также узнать, чем закончится борьба с АГС, обязательно подпишитесь на статьи и будьте в курсе событий.
От себя хочу добавить, что если вы будете делать качественные и интересные СДЛ сайты, тогда никакие фильтры от Яндекса вам не будут страшны даже в самом жутком сне.
Всем пока и удачи!
Вашему вниманию предлагается полноценная статья, в которой я расскажу обо всех фильтрах Яндекса - непосредственно за качество контента и сайта. Подскажу что делать, если сайт ненароком попал под фильтр.
Типичная ситуация у начинающих блоггеров, вебмастеров и оптимизаторов: работаешь над сайтом, а все без толку; внезапно пропадает большая часть трафика с сайта; сайт никак не хочет «взлетать», да и вообще плохо чувствует себя в поиске.
Сидишь такой и не знаешь, куда бежать. Ведь Яндекс не напишет тебе русским языком в панели Вебмастера, что на сайт наложен фильтр. Приходится обращаться в поддержку, узнавать, что происходит и почему, как решить эту ситуацию.
При этом, не обязательно под фильтр попадают сайты умышленно нарушающие поисковую лицензию Яндекса - когда вебмастера знают, что идут на риск. Наоборот, часто это случается просто по неопытности - когда ты делаешь что-то не совсем так, как нужно.
А все почему? Потому что раньше фильтров было немного и были они предельно простые. Нарушил что-нибудь - улетел в бан. Исправил, написал в Яндекс, подождал месяц-два - сайт вернулся в поисковую выдачу. Сейчас не так, сейчас все гораздо сложнее - то и дело приходится избегать различные подводные камни. Разные фильтры и работают по разному: один накладывается на сайт, другой - на его отдельные страницы.
И, как бы оптимизаторам не хотелось верить в то, что Яндекс делает это с целью коммерческой выгоды от размещения рекламы Директа в выдаче, все обстоит не совсем так. Ведь выдача действительно становится лучше. Пользователи более довольные, им без разницы куда кликать: на рекламу в выдаче или на результаты поиска - главное, чтобы цель поиска была достигнута. И если раньше манипулировать этим было проще, например купив десяток ссылок, то сейчас все заметно осложнено. Поисковики делают все, чтобы в выдаче присутствовали только качественные и полезные сайты.
Вот об этом и поговорим - как не нужно делать и за что может быть наложен фильтр на сайт. Помните - за разные нарушения накладываются разные фильтры. И, соответственно, по-разному идет вывод сайта из под санкций. Многие фильтры уже устарели, поэтому о части из них я не буду рассказывать, а упомяну только наиболее актуальные.
Прежде чем перейти непосредственно к конкретным яндексовским фильтрам, я поделю все фильтры на 4 группы:
Вы можете ознакомиться со сводной таблицей фильтров Яндекса:
АГС (сокр. анти «говносайт») пожалуй единственный фильтр Яндекса, о котором разработчики алгоритмов предоставляют официальную информацию:
Цель фильтров семейства «АГС» - удалить из выдачи низкокачественные сайты, которые не создают ценности для российских интернет-пользователей. Но не так чтоб прям «удалить», просто убрать их влияние на результаты ранжирования. Более того, с 2014 года у сайтов под фильтром АГС обнуляется накопленное значение ТИЦ, т.е. можно сказать что фильтр бьет прежде всего по любителям быстрого заработка на массовой и автоматической продаже ссылок.
Как узнать, что сайт попал под фильтр «АГС»?
Очень просто, если по запросу проиндексированных страниц в Яндексе, вы видите в выдаче 1-10 страниц которые ранжируются нормально (а их у вас должно быть много больше), а остальных страниц нет - это АГС. Пример фильтра АГС на сайте семи блоггеров:
Также у сайтов под АГС ТИЦ = 0.
Для того чтобы окончательно убедиться в этом, можно заглянуть в Вебмастер Яндекса :
По каким причинам Яндекс накладывает фильтр АГС-2015 на сайт?
Причин несколько:
Это лишь часть списка из 100 показателей, разработанных авторами алгоритма «антиговносайт». Так или иначе, красной нитью прослеживается цель - минимизировать влияние на ранжирование говносайтов, а также уменьшить их число в выдаче. Надо сказать, работает. Тысячи сайтов, сделанных для продажи ссылок (а не пользы интернет-посетителей) уже канули в лету из-за попадания под этот фильтр. Полностью автоматический!
Как выйти из под фильтра АГС?
Если под АГС попал ваш любимый СДЛ и вы ничего плохого не замышляли, пишите Платонам письмо из Панели Вебмастера. Задайте вопрос, скажите, что вы новичок и толком не поняли, что произошло.
Если под АГС попал один из сотни ваших ГС, варианта два. Забить и сделать еще сотню ГС (только лучше), либо делать из этого ГС полноценный СДЛ, который не стыдно показать бабушке. Пройдет время и фильтр будет автоматически снят Яндексом (т.к. накладывается он тоже автоматически), если из ГС получился действительно СДЛ. На практике такое бывает не так часто, поэтому некоторые вебмастера предпочитают просто сменить домен сайта с сохранением позиций в поиске.
В любом случае, если вы делаете некачественный сателлит, нужно понимать риски и быть готовым к тому, что за 1-2 АПа у сайта из индекса выпадет более 1 тыс. страниц. Плохо то, что быстро выйти из под АГС не получится - срок вывода составляет до 4 месяцев.
Инструкция по выводу из под фильтра АГС:
Не используйте молодые домены и бесплатные движки (ВП, Джумла, Друпал, ДЛЕ) на бесплатных шаблонах. Откажитесь от бесплатного хостинга и доменов третьего уровня и превратите наконец «бесполезный» сайт в полезный.
Подробнее о том, как правильно выходить из под АГС — .
Подводя итоги об АГС-фильтре Яндекса, напомню 2 мифа об АГС:
Так и работает АГС - не пускает бессмысленные веб-сайты в выдачу, не занося их в поисковую базу Яндекса.
Положительные последствия работы фильтра АГС:
Об этом фильтре уже не говорится так открыто, как об АГС, да и само название ему дали оптимизаторы и вебмастера, которые наблюдали одну странную закономерность.
Если вы возьмете любую уникальную фразу с сайта, заголовок страницы или сам домен и «погуглите» ее в Яндексе - увидите, что в выдаче по любому такому запросу сайт отсутствует в первой десятке результатов или находится на последнем месте. Поэтому и «ты последний». Фильтр старый и такое явно его определение уже неактуально, потому что в Яндексе что-то подкрутили и фильтр стал больше похожим на т.н. «гугловские сопли» или саплементал-фильтр (Supplemental).
Цель фильтра «Ты последний» - пессимизировать страницы, не представляющие по мнению ПС интереса для пользователей из-за неуникальности или низкого качества. Вы можете наблюдать падение трафика с ПС Яндекс, но сами страницы по прежнему сидят в выдаче (а не пропадают из нее как в случае с АГС) и сайт продолжает индексироваться.
Причина фильтра - контент. Подобные санкции от ПС сигнализируют о том, что контент устарел, потерял уникальность и актуальность, возможно вы редко обновляете сайт или используете какие-то распространенные шаблоны, которые также используются на других ГС. Либо контент с вашего сайта частично скопирован и размещен вместо с контентом других сайтов на мусорном ГС.
Лекарство от фильтра - смена дизайна, замена и актуализация контента. Для подтверждения фильтра «Ты - последний» необходимо обратиться в ТП Яндекса и, если там подтвердят низкое качество контента на сайте, начать над ним активно работать. Вам помогут: новые качественные материалы, уникальные изображения и фотографии, элементы для взаимодействия пользователей с сайтом (различные сервисы типа калькуляторов).
Если решите статьи писать самостоятельно, то прочтите .
Фильтр накладывается Яндексом на схожие сайты за «аффилирование», а именно: когда оптимизаторы и вебмастера хотят сразу занять несколько мест в выдаче по ключевым запросам несколькими «разными» сайтами.
Делается это так - одно и то же «коммерческое предложение» (цены, адреса, телефоны) размещается на нескольких сайтах и выступает в качестве объединяющего фактора, который позволит занять одной фирме несколько мест в топе.
Задача аффилиат-фильтра - предотвратить монополизацию выдачи одним сайтом/компанией. Делается это путем исключения из выдачи наименее релевантных страниц из тех, что признаны аффилированными.
Прямые признаки для наложения аффилиат-фильтра (одинаковые на нескольких сайтах): контакты (адреса, карта, телефоны, данные в Справочнике Яндекса), whois+время регистрации доменов и IP-сервера хостинга, похожесть доменов, нахождение сайтов на одном аккаунте в Вебмастере/Метрике (при наличии других признаков).
Косвенные признаки для наложения аффилиат-фильтра (одинаковые или сильно схожие на нескольких сайтах): дизайн шаблона сайта со структурой навигации, высокое пересечение товаров/услуг/цен.
Яндекс уже давно научился накладывать фильтр не только по прямым признакам, но и по косвенным - анализируя принцип подачи информации и описаний.
Фильтру подвержены не только «белые» коммерческие сайты, но и «серые» использующие одинаковый контент или XML-фид от партнерских программ. Все потому что вебмастерам лень уникализировать контент и приводить его в порядок (а начинающие просто не знают об аффилиат фильтре).
Симптомы фильтра за аффилированность - сайт просто резко пропадает из топа по запросам (могут быть все, а может и нет), по которым в выдаче уже есть другой сайт, более релевантный, но аффилированный с этим. Обратите внимание, что никаких санкций в отношении индексации сайтов нет - индексируются они нормально.
Забавно, но в выдаче могут находиться оба сайта - по разным запросам, причем время от времени они могут меняться местами - пропадать и снова появляться. Но вместе и одновременно в выдаче они не будут находиться - фильтр же.
Проверить сайты на аффилиат-фильтр Яндекса просто, вот поисковый запрос:
"знакомства" dating.ru loveplanet.ru
Видите только один сайт, а должно быть два? Все ясно - второй под фильтром. Присутствуют оба сайта? Фильтра нет, наиболее релевантный запросу ставится первым (релевантность также зависит от порядка сайтов в запросе - попробуйте сами).
Что делать чтобы вывести вебсайт из-под аффилиат-фильтра?
Устранить причины, по которым он был наложен.
С точки зрения необходимости гарантированного результата (и сохранения обоих сайтов), можно действовать только стратегически - поделить между двумя сайтами ключевые фразы и продвигать сайты отдельно друг от друга. Тактически, чтобы получить быстрые результаты, нужно убрать с любого сайта т.н. «объединяющие» признаки - т.е. адреса, телефоны, контактные данные, информация о фирме, каталоги товаров и услуг должны быть разными. Также возможно придется принять «жесткие меры»: поменять дизайн и структуру одного сайта, сменить владельца доменного имени и регистратора, полностью переделать информацию об услугах и товарах. Если вы действительно нарушали лицензию Яндекса, то только после вышеобозначенных действий можно писать в ТП.
Можно не писать, а ждать - со временем фильтр автоматически снимется, если все сделали верно, сайты будут показываться в одной выдаче по одним запросам. Можно обезопасить себя от этого просто заранее создавая сайты под разные группы запросов.
Помните, что в таких ситуациях санкции российского поисковика Яндекса могут не только накладываться автоматически, но и вручную - по «стуку» от конкурентов или недоброжелателей. Выкидывает из поиска чаще всего по группе запросов, т.е. по НЧ и СЧ сайт(ы) могут сохранять позиции, а по ВЧ потерять.
Бывает и так, что сайты попадают под аффилиат-фильтр по ошибке. В этом случае пишите в поддержку Яндекса из панели Вебмастера - придется пообщаться с Платоном и привести весомые аргументы.
Как вы наверное знаете, в алгоритмы постоянно добавляются новые факторы определения ранжирования. Относительно недавно в поисковые алгоритмы расчета полезности страниц добавили показатели поведения пользователей на сайте.
Оптимизаторы заметили это и многие из них приняли решение подкрутить и накрутить эти показатели. Сотни экспериментов по накрутке этих показателей и стало понятно, как именно нужно имитировать поведение посетителей, сайта чтобы это положительно влияло на место сайта в поисковой выдаче.
Яндекс такая ситуация не устроила и ребята-аналитики создали фильтр за накрутку факторов поведения. Его задача - отсутствие в выдаче страниц с накрученными ПФ.
Симптомы - позиции сайта по коммерческим запросам проседают из ТОП-10 до ТОП-40 и ТОП-50, вследствие чего снижается трафик из Яндекса.
Проверка наличия фильтра тоже простая: нужно сравнить позиции сайта в простой выдаче и в выдаче без учета поведенческих. Второе сделать не менее просто, добавьте какую-нибудь фигню к запросу, например «влмтфыдвсяьжс». Я покажу на примере.
Для сравнения группы запросов удобнее пользоваться специальными скриптами. Посмотрите как выглядят позиции сайта, зафильтрованного за накрутки поведенческих факторов:
Вылечить сайт от фильтра просто - убрать накрутку ПФ, заняться изучением поведения реальных пользователей на сайте, чтобы сделать для них более удобный дизайн и интерфейс сайта.
Правда, сейчас санкции за накрутку ПФ немного изменились. Если раньше сайты сильно понижали в выдаче, то сейчас влияние неестественные кликов просто нивелируется самим Яндексом - он распознает накрутку поведенческих факторов по прямым и косвенным признакам.
Т.е. Яндекс предварительно фильтрует информацию о поведенческих факторов и в том случае, если она не несет в себе полезности для Яндекса, просто не учитывает ее при ранжировании. В 2016 сложно определить фильтр за ПФ - он срабатывает в явный минус для сайта только в том случае, когда на сайте есть признаки других нарушений: внутренний переспам и др.
В этом случае фильтр за накрутку поведения пользователей выступает как катализатор для той или иной пессимизации сайта и работает по тому же принципу что и фильтр за «ссылочный бум».
А ручную накрутку определить просто (не говоря уже про автоматическую). Смотрите сами, если есть некая группа людей которые то и дело что целыми днями вводят в поиск запросы, переходят на одни и те же сайты и изображают там активный интерес к контенту, то явно они делают это не просто так. Все это отслеживается.
Помните, что средний срок выхода из под фильтра за накрутку ПФ (в комплексе с другими факторами) составляет 3-7 месяцев. Время под фильтром может дорого обойтись и лучше не рисковать, чтобы потом не восстанавливать позиции в поиске.
При помощи этого фильтра Яндекс избавляет выдачу от страниц сайтов, которые не дают всеобъемлющего и полноценного ответа на запрос пользователя. Яндекс опускает сайт целиком в выдаче на 10-20 позиций, либо отдельные его страницы.
Причина наложения санкций ПС «Ты - спамный» простая. Это переоптимизация нерелевантной страницы - ответа на вопрос на странице нет, зато различных вхождений запросов больше чем нужно т.е. размещен бессмысленный контент с КПД для пользователя равным 0. В некоторых случаях это: автоперелинковка, явный переспам текста или его неестественное написание строго под запросы, последовательное перечисление подряд ключевых слов или злоупотребление тегами акцентирования и выделения текста. Думаю вы понимаете, о чем я.
Например, вебмастер добавляет на страницу вхождение ключа + «отзывы» или «цены», а на самой странице никаких отзывов/цен нет. Введение в заблуждение пользователя и поискового робота.
Подобная система защищает сайты с качественным контентом от искусственного «нагона» плохих ссылок конкурентами. Т.е. не получится «завалить» морду конкурента ссылками с варезников и отправить его под фильтр.
Один из старейших фильтров под названием «Непот» также используется ПС Яндекс, чтобы снизить влияние покупных ссылок на любой сайт-акцептор. При этом, в отличие от предыдущих трех фильтров, непот фильтрует не сайт-акцептор, а сайт-донор (на котором размещены ссылки).
Но такие санкции воздействуют не на весь сайт, а применяются к отдельным ссылкам или блокам ссылок, уменьшая их вес и влияние практически до нуля.
Непот-фильтр накладывается на сайт за:
Непот-фильтр накладывается автоматически и снимается тоже автоматически. Меняете оформление, снимаете ссылки и ждете. Иногда приходится делать запрос в службу поддержки: «Простите пожалуйста, больше не буду».
Очевидно, за 10 лет сверхбыстрого развития рунета мы (вебмастера) смело шагнули в следующее десятилетие и вынуждены подстраиваться под все возрастающие требования Яндекса к сайтам.
Представители Яндекса постоянно говорят «развивайте сайт», иначе - фильтр. При этом отмалчиваются, когда показываешь им «Сайт для людей», но без SEO-оптимизации который слабо представлен в поиске.
Только и остается что искать «золотую середину» в попытках угодить и бездушному постоянно меняющемуся алгоритму, и пользователям которым нет никакого дела как там что у вас настроено - им важен контент, ответы на свои вопросы.
Поэтому не спешите при продвижении сайтов, руководствуйтесь здравым смыслом при желании внести любые изменения в сайт, не используйте ключевики в тексте так, чтобы они препятствовали чтению статей, не обвешивайте сайт рекламой и не продавайте ссылки. И наоборот, покупайте только крутые ссылки с качественных сайтов-доноров, обычно это недешево.
Ну, теперь вы знаете теоретический минимум о фильтрах Яндекса. Само время закрепить его на практике. Желаю вам успешного обхода фильтров! Помните, что лучше под них не попадать, чем потом делать двойную работу по выводу сайта из под санкций.