Несмотря на то, что изменения в алгоритмах Google – одна из самых животрепещущих тем в сфере SEO , многие маркетологи не могут с уверенностью сказать, как именно алгоритмы Панда, Пингвин и Колибри повлияли на ранжирование их сайтов.
Специалисты компании Moz подытожили наиболее значимые изменения алгоритмов Google и буквально разложили по полочкам информацию о том, за что отвечает каждое обновление.
Алгоритм Панда, главной целью которого является повышение качества результатов поиска , был запущен 23 февраля 2011 года. С его появлением тысячи сайтов потеряли свои позиции, что взбудоражило весь Интернет. Поначалу оптимизаторы думали, что Панда штрафует сайты, замеченные в участии в ссылочных схемах. Но, как позже стало известно, борьба с неестественными ссылками не входит в круг полномочий этого алгоритма. Все, чем он занимается, – это оценка качества сайта.
Чтобы узнать, не угрожает ли вам опасность попасть под фильтр Панды, ответьте на такие вопросы:
Какие именно факторы учитывает Панда при ранжировании сайтов, наверняка не знает никто. Поэтому лучше всего сфокусироваться на создании максимально интересного и полезного сайта. В особенности вам нужно уделить внимание таким моментам:
Google ежемесячно обновляет алгоритм Панда. После каждого обновления поисковые роботы пересматривают все сайты и проверяют их на соответствие установленным критериям. Если вы попали под фильтр Панда, после чего внесли изменения на сайте (изменили недостаточный, некачественный и неуникальный контент), позиции вашего сайта улучшатся после очередного обновления. Учтите, что, скорее всего, вам придется ждать восстановления позиций несколько месяцев.
Алгоритм Google Пингвин был запущен 24 апреля 2012 года. В отличие от Панды, этот алгоритм нацелен на борьбу с неестественными обратными ссылками .
Авторитет и значимость сайта в глазах поисковых систем во многом зависит от того, какие сайты на него ссылаются. При этом одна ссылка с авторитетного источника может иметь такой же вес, как десятки ссылок с малоизвестных сайтов. Поэтому раньше оптимизаторы стремились всеми возможными путями получить максимальное количество внешних ссылок.
Google научился распознавать разные манипуляции с ссылками. Как именно работает Пингвин, известно только его разработчикам. Все, что известно оптимизаторам, так это то, что этот алгоритм охотится за некачественными ссылками, созданными веб-мастерами вручную с целью повлиять на позиции сайта. Сюда относятся:
Пингвин – такой же фильтр, как и Панда. Это означает, что он регулярно обновляется и пересматривает сайты. Чтобы выйти из-под фильтра Пингвин, вам нужно избавиться от всех неестественных ссылок и ждать обновления.
Если вы добросовестно последуете рекомендациям Google и не будете пытаться получить ссылки нечестным путем, то сможете вернуть себе расположение поисковых систем. Однако чтобы вернуть первые позиции, вам не достаточно будет просто удалить некачественные ссылки. Вместо них вам нужно заработать естественные редакторские ссылки с трастовых сайтов.
Алгоритм Колибри – это совсем другой «зверь». Google объявил о запуске этого обновления 26 сентября 2013 года, но он также упомянул о том, что этот алгоритм действует уже на протяжении месяца. Вот почему владельцы сайтов, позиции которых упали в начале октября 2013 года, ошибочно полагают, что они попали под фильтр Колибри. Если бы это действительно было так, они ощутили бы действие этого алгоритма на месяц раньше. Вы спросите, а что же в таком случае послужило причиной снижения трафика? Скорее всего, это было очередное обновление Пингвина, которое вступило в силу 4 октября того же года.
Алгоритм Колибри был разработан для того, чтобы лучше понимать запросы пользователей. Теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Екатеринбурге», поисковая система понимает, что под словом «места» пользователь подразумевает рестораны и кафе.
Поскольку Google стремится как можно лучше понимать пользователей, вы должны делать то же самое. Создавайте контент, который будет давать максимально развернутые и полезные ответы на запросы пользователей, вместо того, чтобы зацикливаться на продвижении по ключевым словам.
Как видите, все поисковые алгоритмы преследуют одну цель – заставить веб-мастеров создавать качественный, интересный и полезный контент. Помните: Google постоянно работает над повышением качества результатов поиска. Создавайте контент, который поможет пользователям найти решение их проблем, и первые места в выдаче вам гарантированы.
Google Penguin - это алгоритм поисковый системы, направленный на устранение веб-спама. Запущен в апреле 2012 для борьбы с покупными ссылками, претерпел несколько изменений. Релиз от сентября 2016 года сделал фильтр «Пингвин» частью основного алгоритма Google.
Гугл «Пингвин» с 2014 года работает в режиме реального времени, но только с 2016 года база не обновляется вручную. Если раньше нужно было ждать апдейт, что могло растянуться по времени, то сейчас из-под фильтра можно выйти буквально сразу после исправления и переиндексации.
Санкции в виде понижения в ранжировании распространяются на отдельные страницы, а не весь сайт в целом.
Признаки:
Если ограничение наложено в результате ручной проверки, в Search Console в разделе «Меры, принятые вручную» можно увидеть сообщение о санкциях за веб-спам.
При автоматическом назначении уведомления нет. Чтобы выяснить, пострадал сайт от Гугл «Панды» или «Пингвина», нужно проверить тексты и входящие ссылки. Если проблема в контенте, это «Панда», если видны плохие бэклинки, «Пингвин».
Сайт понижается в выдаче из-за некачественной ссылочной массы, поэтому нужно провести аудит покупных ссылок и снять спамные, с сателлитов, нерелевантных ресурсов, линкопомоек и т. д. Одновременно стоит увеличить количество естественных ссылок.
Причиной попадания под фильтр Google Penguin может стать:
Все выявленные некачественные бэклинки нужно снять или отклонить с помощью специального инструмента в Search Console.
На снятие ограничений в ранжировании из-за Google «Пингвина» может уйти от недели до нескольких месяцев.
Лучший способ уберечься от риска попасть под Гугл «Пингвин» - повышать качество ссылок, а не на их количество.
В прошлом посте я уже затронул тему, волнующую многих вебмастеров последние несколько недель. Это введение в действие 24 апреля 2012 года нового алгоритма Google Penguin , направленного на борьбу с веб-спамом. Если по простому, то виновных ждет казнь за переоптимизацию.
Давайте попробуем разобраться, за что сайт может попасть под новый фильтр и как уберечься от Google Penguin.
Для начала надо определить, а Пингвин ли собственно виноват. Как я уже упоминал в предыдущей статье , в апреле Гугл произвел очень много изменений, повлиявших на работу поиска. 16 апреля в поисковике произошел сбой, связанный с припаркованными доменами. 19 числа вышло очередное обновление алгоритма Panda. И, наконец, 24 апреля приплыл Пингвин.
Поэтому, если резкое падение позиций в выдаче и посещаемости произошло сразу после 24 числа, то, с большой долей вероятности, это действие нового алгоритма. Если до, то это точно не Google Penguin.
Также проверьте, нет ли у Вас уведомлений от Гугла в разделе “Сообщения ” в Google Webmaster Tools о чрезмерной спамерской активности Вашего веб-сайта. Если есть, то надо будет принять меры, для исправления указанных там ошибок.
Далее приведу свое мнение, которое сложилось после изучения информации на блогах (в том числе зарубежных) и форумах (на одном только forum.searchengines.ru более 400 страниц обсуждений). Если я не прав, поправьте.
По большому счету ничего нового. Просто Google очередной раз пытается дать понять, что для того, чтобы быть в выдаче, надо создавать “сайты для людей” и использовать для только белое SEO. Но все же нас ставят в очень жесткие рамки. Шаг вправо, шаг влево и сайт вылетит из поисковой выдачи.
А если конкретнее, то алгоритм Google Penguin может наложить санкции по следующим причинам :
1. Прежде всего, под клюв Пингвина попадают сайты, активно покупающие и продающие неестественные ссылки для повышения PageRank и искусственного воздействия на результаты поисковой выдачи. Сайты, на которые ведут ссылки с некачественных веб-ресурсов.
По словам Мэтта Каттса, не все платные ссылки являются поисковым спамом, а только те, которые направлены на манипуляции с результатами поиска и искусственное повышение PR. Коммерческие рекламные ссылки, нацеленные на продажи товаров, не запрещены, но их надо закрывать от индексации с помощью rel=”nofollow” . В то же время, достаточно всего пары не релевантных исходящих ссылок, чтобы это было расценено, как поисковый спам новым алгоритмом Гугл.
2. Замечено, что санкции применены к сайтам, в анкор листе которых подавляющее большинство точных вхождений.
Советуют разбавлять анкоры в соотношении, как минимум 50/50, а то и больше. В качестве безанкорных ссылок лучше использовать: тут, здесь, http://сайт.ru, сайт.ru, название сайта. Обязательно окружать их релевантным околоссылочным текстом, который может попасть в анкор-лист. Само собой любая ссылка должна быть релевантна документу, в котором она стоит и на который ведет.
Поэтому непонятно, какую службу теперь сослужат ссылки с профилей нетематических трастовых сайтов, форумов и каталогов. Хорошо, если их просто не будут учитывать. А если будут? Уверен, подобных ссылок у всех хватает.
3. Наличие сквозных ссылок в футере и сайдбаре с точным вхождением ключа в анкоре.
4. Неравномерное распределение входящих ссылок по страницам. Особенно, когда почти все ведут на главную, да еще и с одинаковыми анкорами. За чрезмерную внутреннюю перелинковку с использованием точных вхождений тоже могут наказать.
5. Наличие переоптимизированного контента с большой плотностью ключевых фраз и чрезмерное их выделение тегами акцентирования.
6. Наличие дублированного контента, одинаковых мета тегов и Title. Страницы, оптимизированные под одинаковые ключевые слова.
7. Использование замаскированных ссылок, скрытого текста, дорвеев, скрытой переадресации и других методов черного SEO.
Нельзя показывать поисковикам и посетителям разную информацию по одному и тому же адресу.
10. Страницы, содержащие вирусы и различные вредоносные программы.
Вот такой у меня получился список. Возможно, кто-то дополнит или, наоборот, оспорит. Высказывайтесь в комментариях.
Прежде всего, советуют не паниковать и не делать резких движений. Например, прочитал на сайте www.seomoz.org , что худшее, что можно сделать, это резко начать удалять обратные ссылки. Даже обратные ссылки низкого качества могут быть полезны. И если активно начать сокращать все подряд бэк-ссылки, не найдя причину проблемы, рейтинг сайта может упасть еще ниже.
Надо проанализировать ситуацию и выяснить, какой именно трафик был потерян и какие действия могли привести к пессимизации сайта. Старайтесь исправить ошибки и ждите следующего обновления алгоритма.
Для тех, кто считает, что он пострадал от Пингвина незаслуженно, Гугл создал специальную форму обратной связи. Но так как новый фильтр накладывается на сайт автоматически, а не в ручном режиме, особого смысла от этих жалоб, скорее всего, не будет.
Но существует еще одна форма, где можно сообщить о сайтах, которые незаслуженно избежали наказания Пингвина. В общем, предлагается настучать на конкурентов.
Кстати, как сообщил все тот же seomoz, 11 мая было обновление Google Penguin. Так что все еще только начинается.
Подводя некоторые итоги, можно сделать вывод, что Гугл особенно серьезно настроен на борьбу с продажными ссылками. Причем продавать и покупать ссылки не запрещается, но они должны закрываться от индексации.
Наказывать же будут за попытки манипуляции результатами поисковой выдачи с помощью покупных ссылок. В этой связи, видимо, все большую ценность при ранжировании сайтов будут иметь социальные сигналы с Твиттер, Фейсбук и Гугл+.
Если читать между строк, то нам ясно дают понять, что получить целевой трафик на свои сайты будет гораздо проще, если отказаться от SEO в пользу Google AdWords. И Google Penguin, это очередное предупреждение. Как говорится, несите Ваши денежки… Похоже, для ссылочных бирж наступают трудные времена.
Для тех, кто продвигается под Яндекс, строго соблюдая его рекомендации к качеству сайтов, нововведения Гугла не должны вызвать серьезных проблем. Российский поисковик уже давно дал понять оптимизаторам, что он желает видеть в выдаче только СДЛ.
Вывод банален: делайте сайты для людей , а не для поисковиков, и будет Вам ТОП счастье.
А Вы как думаете, не перегибает ли палку поисковик №1 в мире? Долго ли еще протянет бизнес купли-продажи ссылок? Или покупные ссылки скоро будут бесполезны? Именем какого зверя назовут следующий алгоритм Гугла? Может это будет ? Высказывайтесь в комментариях.
До скорых встреч на страницах !
Penguin – алгоритм поисковой системы Google, первоначальной ролью которого являлась борьба с неестественными (покупными) ссылками. Дата первого релиза Penguin 1.0 – 24 апреля 2012 года.
Следующие обновления:
Запуск обновления Penguin 4.0 неоднократно откладывался. Релиз обновления планировался на конец 2015 года, однако, работа по усовершенствованию алгоритма продлилась до сентября 2016 года.
Представляем вам перевод статьи из официального блога Google: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html
Алгоритм Google использует более 200 уникальных сигналов или «подсказок», что позволяет быстро находить то, что ищет пользователь. Эти сигналы включают в себя определенные слова на страницах сайтов, частоту обновления контента, регион сайта и PageRank. Один из таких сигналов Google – это алгоритм Пингвин, который был запущен в 2012 году и 23 сентября 2016 года был обновлен.
После совершенствования и тестирования Google сейчас выкатывает обновление алгоритма Пингвин на всех языках. Представляем вам ключевые изменения, которые вы увидите, они были среди популярных просьб вемастеров:
Интернет (web-паутина) существенно изменился за эти годы, но как Google говорил в своем первоначальном посте, вебмастера должны быть свободны в своих действиях, чтобы сосредоточиться на создании убедительных и полезных сайтов. Также важно помнить, что обновления наподобие Пингвина – это только один из более 200 сигналов, который Google использует для ранжирования сайтов.
Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.
Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.
Итак, что же там нахимичил Google…
В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:
«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…
В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.
Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:
Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:
Но все вроде бы и раньше было известно всем, кто интересовался вопросом.
В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂
Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.
1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.
Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.
Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:
2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.
Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):
Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.
Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.
Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:
Тут же стоит посмотреть на график источников поискового трафика:
Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.
Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.
У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.
3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.
Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.
4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.
1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.
2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):
Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉
3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:
Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.
Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.
Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.
Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…
Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.
Всем удачных и качественных перемен!
В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...