В начале прошлого года большинство веб-ресурсов, ориентированных на поисковую систему Google постигла самая настоящая катастрофа. Был введен в действие алгоритм, известный под названием гугл Панда, и в результате этого пострадало огромное количество сайтов – одни вылетели со своих «тёплых мест» в топах выдачи этой поисковой системы, другие вылетели из выдачи вообще. Очень много споров возникло вокруг нового алгоритма, появились даже комментарии самих работников Гугла, но вся эта информация не только не прояснила информацию, но и крайне запутала её.

Творец о своём зверьке

Что нам рассказал об этом сам Гугл? В официальных источниках весьма пространно рассказывалось о том, что новый алгоритм направлен в первую очередь на повышение уникальности контента. То есть, якобы не пострадали те сайты, на страницах которых размещен полностью уникальный контент. При этом делался акцент на том обстоятельстве, что если, к примеру, на сайте, состоящем из 100 страниц, на 99 страницах будет иметься качественный контент, а одна страница будет не качественной, то считается, что некачественный весь сайт. Гугл призывал вебмастеров и хозяев веб-ресурсов к тому, чтобы они пересмотрели все свои страницы, и на «плохих» страницах обновили материалы, или каким-либо образом улучшили их.

Однако, невзирая на усилия вебмастеров, из топов выдачи Гугла сайты продолжали вылетать, не помогло даже то, что, вроде бы, была проведена самая активная работа по улучшению контента. Кто-то даже откопал на форуме pcforum информацию о том, что сайты тянут вниз страницы, на которые раньше никто не обращал внимания, например формы заказов, книги отзывов, на которых никто никогда никаких отзывов не оставлял, и прочие чисто технические страницы.

Ведь, как известно, сама форма заказа на странице не трубует много места, а её окружение часто дублирует «контент» многих других сайтов. В том случае, если масса такого неуникального «контента» превышает массу уникальных элементов, то страница считается дублированной, и, соответственно, хорошее отношение к ней со стороны поисковой системы значительно падает. Как правило, на коммерческих сайтах таких страниц часто скапливается большое множество, а хозяева этих сайтов никак не заботятся о том, чтобы закрывать их от индексации.

Наиболее озабоченные хозяева подобных сайтов провели значительную чистку, и некоторые из них и на самом деле увидели улучшение – их ресурсы снова начали продвигаться в топы выдачи. Однако «реабилитация» ждала далеко не все «исправленные» сайты. Многие так и остались на тех позициях, куда их задвинул злой зверь google panda. Казалось бы – снова тупик, что-то всё-таки сделано не так. Никакие исправления и улучшения не помогали, Гугл по этому поводу хранил многозначительное молчание. А ларчик открывался довольно просто.

Изгнание панд из древа собственного сайта

В суматохе переделки и улучшений сайтов почти все позабыли о роли ссылочной массы для Гугла. Ведь известно, что контент для этой поисковой системы значит многое, но отнюдь не главное. Главное – это ссылки, которые ведут на сайты с других сайтов.

Как правило, хозяева всех более-менее приличных сайтов при раскрутке использовали наращивание ссылочной массы. До введения алгоритма эта ссылочная масса была качественной. Так как вела с качественных сайтов. Когда в действие вступил алгоритм google panda, многие сайты из качественных сразу же превратились в некачественные. Естественно, и все ссылки с таких сайтов также потеряли былой вес. Так что тут получился двойной удар – некачественной стала не только внутренняя оптимизация, но и внешняя.
гугл панда
Как и следовало ожидать, многие владельцы таких сайтов-доноров провели работу по их исправлению, и потерявшие было вес ссылки снова стали его набирать. Однако далеко не все сайты начали улучшаться. Владельцы одних просто махнули на них рукой, другим было не до этого, третьи просто не смогли улучшить ситуацию. В итоге множество ранее «хороших» ссылок так и остались плохими.

Нет, сами по себе ссылки на репутацию ссылаемых сайтов не повлияли – в алгоритмах Гугла нет такой установки, в отличие от того же Яндекса. Просто на многие сайты исчезла ссылочная масса в той степени, в которой она было до введения фильтра google panda, то есть она значительно уменьшилась и так не восстановилась.

Естественно, исправленный сайт стал соответствовать всем требованиям Гугла в изменившихся условиях, но ссылочную массу пришлось наращивать почти что заново. Многие сайты, прежде прочно сидевшие в топах Гугла по самым разным «вкусным» запросам, так и не смогли восстановиться.

Какова мораль истории?

Она такова, что:

  • Теперь ссылки на свои сайты нужно выбирать уже не по одному критерию, а сразу по нескольким.
  • Сайты-доноры должны быть не только хорошими, но и перспективными. Потому что если в один прекрасный момент грядёт ещё какой-нибудь новый и страшный алгоритм наподобие алгоритма панда гугл, то вы рискуете снова слететь со своих позиций, оставшись без месяцами, и даже годами наращиваемой ссылочной массы, если ваши доноры не проявят расторопности и окажутся неспособными удерживать к себе интерес поисковых систем.
  • Если все же фильтр панда гугл скушал ваш сайт — это не причина опускать руки и отступать. Проведите анализ сайта, удалите «плохой» (читай «некачественный») контент, продолжайте наращивать КАЧЕСТВЕННУЮ ссылочную масу.

И очень скоро вы увидите как проныра гугл панда покинет ваше детище, чего всем искренне желаю. Всегда ваш советник в мире SEO mosmarketru.ru!