Недавно на сайте http://setalks.ru/ обнаружил интересную статью. Она мне сразу понравилась своим профессионализмом, но при более тщательном прочтении в этой гипотезе обнаружилось несколько больших дыр. Советую прочесть эту статью полностью, а потом обсудим, что в ней на самом деле так, а что не так.

Уже второй год в выдаче поисковой системы Google свирепствует получивший среди СЕО-оптимизаторов всего мира мрачную известность алгоритм под названием Панда (“Google Panda”). Да-да, прошло уже больше года, а многие оптимизаторы так и не удосужились привести свои сайты в соответствие с требованиями Гугла относительно этого алгоритма. Ну, понятно, научиться оптимизировать сайты несложно, а вот оптимизировать их правильно – может далеко не каждый. Мало того – почти никто не читает в официальных релизах Гугла, на что именно нацелен тот или иной алгоритм, и как правильно избегать его воздействия. Конечно, кто-то читает, но мало что понимает. Не в обиду будет сказано, но большинство современных сайтостроителей видят в сайтах только модные тенденции. А вот думать над серьёзными вещами они просто не в состоянии. Как раз для тех, кто не научился думать над серьёзными вещами по теме СЕО-оптимизации, но очень хочет этому научиться, мы и написали эту статью.

Итак, чтобы не тянуть, как говорится, «кота за хвост», перейдём сразу к делу. Напугавший так всех алгоритм Панда нацелен на наведение порядка сразу в трёх сферах: это неуникальный контент, «мусорные» страницы и «испортившиеся» ссылки.

Первое – не уникальный контент. Если речь идёт о Гугле, то это как раз тот момент, когда, как говорят американцы, «это совсем не то о чём вы подумали». Для профессионалов не составляет секрета тот факт, что Гуглу, в отличие от того же Яндекса, к примеру, на уникальность контента, как говорят русские, «наплевать с высокой колокольни». Вернее, ему наплевать на это в глобальном смысле, но когда речь идёт о внутреннем пространстве того или иного сайта, то алгоритмы Гугла начинают «бесчинствовать». Дело в том, что очень многие сайты имеют на разных страницах один и тот же контент. Причём речь идёт не о самих статьях, а о сопровождающих их текстовых элементах. В эти текстовые элементы входят всякие «приветствия», «пояснения» и «комментарии», повторяющиеся на каждой странице и порой имеющие относительно большой объём. Мало того, на многих сайтах на каждой странице установлены постоянные меню с одними и теми же анкорами (описаниями) в ссылках. Зачастую на статейку в 1000 знаков приходится 1000-2000 знаков всего этого «неуника», притом, что алгоритмы настроены на порог «неуника» всего 30%, максимум – 50%. Естественно, Гугл такие страницы отбраковывает, фильтрует, или вообще выбрасывает из выдачи как неуникальные. И если раньше этим «выбросом» дело и ограничивалось, без каких либо последствий для сайта, то с приходом «Панды» всё изменилось, причём самым коренным образом. Одной такой «плохой» страницы достаточно, чтобы задержать продвижение всего сайта самым существенным образом, а десяток может «убить» сайт вообще. А ведь Гугл предупреждал об этом! В его релизах чёрным по белому написано это, и горе тем, кто не удосужился эти предупреждения прочитать. И ещё большее горе тем, кто всё же прочитал, но никаких мер не принял.

Второе – «мусорные» страницы. Эта проблема более тонкая, чем первая, и потому на неё нарвалось большинство коммерческих сайтов, которые не уделяют должного внимания файлу robots. Дело в том, что на каждом сайте, предлагающем услуги и товары, в обязательном порядке имеются так называемые «технические» страницы – формы заказов, корзины покупателей и прочее подобное, всего просто не перечесть. Зачастую количество таких страниц превышает количество основных, полезных с точки зрения Гугла, страниц. И весь этот «мусор» часто описывается индексирующими роботами и заносится в базу поисковой системы. С базой тоже по большей части работают не люди, а автоматы, и естественно, они весь этот «мусор» сваливают в «мусорную корзину» без всякой сентиментальности, и согласно количеству «мусорных страниц» относительно объёма всего сайта присуждают ему отрицательные баллы и фильтруют, опуская сайт в выдаче по всем запросам. Спору нет, далеко не все сайты допускают такие вопиющие промахи, но достаточно большое количество для того, чтобы увидеть изменения в выдаче после введения «Панды». И опять-таки – ведь Гугл предупреждал, но на это предупреждение далеко не все обратили внимание. Кто-то сразу же бросился заполнять файлы robots, чтобы закрыть весть свой «мусорник» от бесстрастных очей индексирующих роботов, но выяснилось, что и это не помогло, так как не было соблюдено третье условие.

Третье – «испортившиеся ссылки». Понятно, что как таковых, «испортившихся» ссылок не бывает – они либо есть, либо их нет. То есть Гугл либо учитывает их, либо не учитывает. Очень часто ссылка на какой-либо сайт становится «плохой», и тогда Гугл исключает её из общей ссылочной массы сайта, не накладывая на этот сайт никаких наказаний. За что? За то, что кто-то поставил ссылку на какой-то сайт, и этот ссылающийся сайт вдруг впал в немилость к Гуглу? Ссылаемый сайт от такой ссылки нисколько не пострадает, но он пострадает от её внезапного исчезновения. Просто ссылочная масса на сайт станет чуточку «тоньше», только и всего. Но если вдруг испортятся все ссылки на сайт? Или хотя бы сколько-нибудь значительная их часть? Можно только представить, как сильно может «просесть» сайт в Гугле по всем запросам, лишившись ссылочной поддержки. Для Гугла ссылочная масса гораздо важнее, чем наличие уникального контента. Если на сайт не ведут ссылки, значит этот сайт никто не «цитирует», значит, он никому не интересен. И неважно, что до этого они вели, и вдруг исчезли. Перефразируя известную бандитскую поговорку, можно сказать так: «нет «цитатника» – нет и «цитирования».

Теперь спроецируем всё это дело на деятельность алгоритма «Панда». Основная часть «хороших» сайтов, которые до «Панды» занимали лучшие места в выдаче Гугла по множеству «вкусных» запросов, имеют обыкновение обмениваться ссылками друг с другом. Кроме этого очень многие такие сайты закупали ссылки на «биржах ссылок» типа Сапы и прочих подобных, таких бирж и просто сайтов, продающих ссылки всем желающим, в Интернете масса. Первым делом, конечно же, Панда накрыла большинство этих бирж, не успевших вовремя замаскироваться. Естественно, ссылочную массу потеряло множество «хороших» сайтов, они-то и потянули за собой остальных своих партнёров. Создаётся такой интересный на первый взгляд парадокс: вроде и сайты хорошие, вроде и ссылки на них тоже хороши, однако вот тебе на – пропали ссылки, и сайты в выдаче просели, часто – очень сильно. Нет, Гугл не стал к потерявшим ссылочную массу хуже относиться. Но ему, в отличие от Яндекса, совершенно не интересны сайты, которые никто не «цитирует». Таким образом всем хозяевам просевших единственно по причине потери ссылочной массы сайтов придётся озаботиться поиском новых «доноров», и теперь им уже придётся не хватать ссылки со всех сайтов подряд, а внимательно изучать каждого кандидата. В первую очередь надо постараться определить качество ссылочной массы сайта, с которого есть возможность получить ссылку. Иначе придёт какой-нибудь новый алгоритм, и придётся всё переделывать заново. Уж лучше сделать всё один раз и навсегда.

В заключение имеет смысл привести рецепт получения достаточно хороших ссылок на продвигаемый сайт. Речь идёт не о чужих сайтах, а о своих собственных. Если вы не хотите после введения каждого нового алгоритма Гугла наблюдать падение своего сайта в выдаче поисковой системы, вам придётся потрудиться. Вам надо будет создать сеть своих собственных «сайтов-доноров», чтобы не зависеть от своих зачастую нерадивых партнёров. Эти сайты обычно называются «сателлитами», и поисковые системы их не очень жалуют. Но тут ведь всё в ваших руках – не делайте свои сателлиты похожими на сателлиты. Делайте их попроще, но зато получше, и спокойно раскручивайте с их помощью свой основной сайт. А какими же ссылками, спросите вы, следует раскручивать все эти сателлиты? А тут всё очень просто. Раскручивать сателлиты лучше всего с помощью сайтов, которые сидят в рейтинге Гугла так низко, что ниже просто они уже не просядут. Однако из выдачи такие сайты вряд ли кого-то вылетят, а если и вылетят, то только лишь в отдельных случаях, а не в массовом порядке. Такие сайты называются «заброшенные не модерируемые форумы», и ссылки с них на сателлиты надо проставлять в массовом порядке, с помощью специальных программ, но это, как говаривали некогда братья Стругацкие, уже совершенно другая история.

НАШ ФОРУМ:

НОВАЯ ИНФОРМАЦИЯ ПО ДДГ/ДДЛ

ИНФОРМАЦИЯ НА ОТКРЫТОЙ ЧАСТИ ФОРУМА ОБЯЗАТЕЛЬНА К ПРОЧТЕНИЮ ВСЕМИ ЖЕЛАЮЩИМИ ЗАНИМАТЬСЯ МНОГОСТРАНИЧНЫМИ САЙТАМИ ТИПА ДДЛ/ДДГ

ЗАХОДИТЕ СРАЗУ В ОТКРЫТЫЙ РАЗДЕЛ