Некоторые СЕО-мифы, которые следует развенчать

Некоторые СЕО-мифы, которые следует развенчать

Сообщение Babuler » 21 фев 2016, 05:05

Хочу рассказать о некоторых мифах, до сих пор успешно циркулирующих в сфере СЕО. В частности это касается Гугла, на Гугл и будет сделан акцент в этой статье. Дело в том, что почти все новички в эти мифы очень сильно верят, а профессионалы, которые уже на Гугле собаку съели, эти мифы не развенчивают, чтобы не плодить конкурентов. Но нам-то всё по барабану, у нас конкурентов нет. Именно поэтому я и решил рассказать о том, что практически всё, что пишут о Гугле, включая и рассказы самого Гугла о себе – всё враньё, или, в лучшем случае - преувеличение.

Кстати, эта статья - НЕ КОПИПАСТ. Её написал лично я, Бабулер. Хотя мог бы взять любой копипаст, чтобы не париться, но вот беда - подходящего материала по рассматриваемой теме я так и не нашел, как ни старался.


Итак, приступим. Миф 1: Уникальный контент.

Хочу сообщить всем малоинформированным специалистам, что Гугл (да и Яндекс тоже) совсем никакого значения не придаёт уникальности контента. Для кого-то это удивительно, но это факт, основанный на моих многолетних (а точнее – 14 лет) изысканиях в этой сфере. В далеком 2002-м году я сделал свой первый сайт и надергал для него статей из Интернета, то есть наполнял его копипастом. За первый год я довел количество страниц до 2000, и что вы думаете? Он быстро раскрутился в Гугле и Яндексе и добрался до 3000 уников в сутки к 2004 году. И даже спустя 14 лет он даёт до 1000 уников, хотя я лет 7 как его забросил и не занимаюсь им ВООБЩЕ. Сайт на Народе Ру, бесплатном хостинге, но этот факт совершенно не объясняет популярность заброшенного сайта, наполненного копипастом, в поисковых системах.

Кто-то скажет: ну-у-у-у-у, это было давно, а сейчас правила изменились! И будет не прав – правила эти не изменились, и до сих пор действуют. Кто хочет проверить, может зайти по какой-либо фразе в тот же Гугл и посмотреть, сколько разных сайтов с одной и той же украденной откуда-то статьей Гугл продвигает в топ. Не важно, по какой именно фразе он продвигает, важно что он продвигает. Если провести более тщательный анализ, то можно прекрасно увидеть, что если сайт раскрученный, то он может запросто опережать сайт-источник по всем ключевым фразам, которые только имеются в украденной статье. Конечно, «украсть» - это не значит «своровать» в полном смысле этого слова. Ни один уважающий себя владелец уважаемого сайта не будет банально красть статьи – он берет их только оттуда, где разрешено копирование с условием обратной ссылки на источник. Но, конечно, встречаются и самые настоящие воришки… Впрочем, речь не о них.

Таким образом мы видим, что уникальность контента не позволяет сайту раскрутиться в поисковых системах без учета других факторов, о которых мы поговорим потом. Можно даже сказать, что даже с учетом других факторов уникальный контент не играет никакой роли. Главное, чтобы контент был интересен людям, а уникальный он, или нет – совершенно неважно. Гугл это понимает прекрасно, так как у него имеется огромный опыт работы с «генерёнкой» на дорвеях – что толку с уникальности «генерёнки», если это не контент, а фуфло. А так как отличить хороший текст от плохого Гугл не в состоянии, поэтому требования к уникальности контента он давно уже оставил за бортом. Если вы этого не знали, то знайте. И берите для своего сайта любой копипаст, лишь бы он был интересен людям, и за его заимствование вас не наказали владельцы.


Миф 2: Хорошая ссылочная масса решает всё.

Сначала надо определиться с тем, что такое «хорошая ссылочная масса». Многие почему-то полагают, что это ссылки с раскрученных, «жирных» сайтов. Обычно ссылки с «жирных» сайтов покупаются на специальных ссылочных биржах. Многим удается такими ссылками раскрутить свои сайты, но когда через некоторое время эти раскрученные сайты начинают проваливаться в выдаче, то есть выпадают из топов, начинается «караул!», «за што-о-о?!!», «как же так?». И на самом деле, а почему вдруг сайты, имеющие хорошую, «жирную» ссылочную массу, начинают терять траф и вылетать из топов? Причина проста, и полностью укладывается в сферу действия алгоритма Гугла «Пингвин», только мало кто представляет себе, что такое «Пингвин» и кому его следует бояться.

То, что пишется в паблике про этот «Пингвин», имеет под собой правильную основу, но только выводы делаются неправильные. А выводы таковы: от действия этого алгоритма в первую очередь страдают именно «жирные» сайты, которые продают ссылки через биржи контента. Как Гугл определяет, что сайт продает ссылки через биржи контента – другой вопрос, надо только поверить, что он очень быстро учится вычислять такие сайты. А вот вслед за этими сайтами начинает рушиться и вся сеть сайтов помельче, основанная на ссылках с «жирных» сайтов. Но это хорошо видно, если поглядеть со стороны «жирных» сайтов, а если поглядеть со стороны сайтов, закупивших такие ссылки, то эта связь не слишком очевидна, потому что сайт-донор не один, а все сразу проверять у владельца ссылаемого сайта просто или нет желания, или соображения. Достаточно рухнуть хотя бы одному «жирному» сайту, чтобы вслед за ним просел и ссылаемый сайт (то есть тот, который купил ссылки). А если рухнет сразу несколько, то положение будет близко к катастрофе. Ну а сама катастрофа наступает тогда, когда рушатся все сайты, на которых были закуплены ссылки. Кто-то считает, что такое одновременное падение невозможно, но лучше не надеяться на авось, а придумать какие-либо другие способы получения «жирных» ссылок на свой сайт, более надёжные.

Исходя из этого соображения, можно теперь понять, почему постоянно натыкаешься в выдаче Гугла на замаскированные под белые рукодельные сайты дорвеи, которые живут буквально годами и не то что не банятся, но даже и не проседают в выдаче. Если посмотреть, какие ссылки и сколько ведут на эти дорвеи, то можно увидеть, что их даже не сотни, а тысячи и десятки тысяч, и ведут они со всяких мелких, непопулярных, то есть заброшенных и имеющих очень малый авторитет в поисковых системах сайтов – форумов, блогов, дампов, гостевых книг и прочих подобных «мелких» ресурсов. А так как такие ресурсы имеют малый вес, то и внимание алгоритмов, направленных на «жирные» сайты, они по большей части избегают – даже у Гугла не хватит никаких мощностей, чтобы заниматься еще и мелочёвкой. Однако и мелочевка индексится, и хоть и имеет малый вес, но она все же его имеет, и прекрасно может его передавать другим сайтам. Если такой «мелочи» скопится достаточно большое количество – тысячи и десятки тысяч или больше – то и суммарный вес будет достаточно большой, сопоставимый с весом сотен «жирных» ресурсов. Можно вспомнить такую популярную задачку для чайников: что больше весит – килограмм ваты, или килограмм железа? И то и другое весит одинаково, только объем разный. Так и тут: если малый объем ссылок с «жирных» сайтов заменить большим объемом ссылок с сайтов «тощих», то можно получить одинаковый вес. Только преимущество тут за «тощими» сайтами – они не попадают под фильтры и санкции, потому такие ссылки можно считать вечными, тогда как ссылки с «жирных» сайтов – ненадёжны, и даже опасны.


И ЭТО ДАЛЕКО НЕ ВСЁ
ПРОСТО ПРОДОЛЖЕНИЕ СЛЕДУЕТ
Babuler
Администратор
 
Сообщения: 344
Зарегистрирован: 05 авг 2011, 12:19

Вернуться в АЗЫ Белого Дорвеестроительства

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1

Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Style by Webdesign www, książki księgarnia internetowa podręczniki