Книга: Раскрутка: секреты эффективного продвижения сайтов

АГС, горе от ума и парадоксы современного SEO

АГС, горе от ума и парадоксы современного SEO

«Мой сайт попал под АГС9!» – обронить такую фразу на форуме оптимизаторов – значит вызвать такой же всплеск сочувствия пополам со злорадством, какой возник бы, если бы некая дама написала в комьюнити о фитнесе: «Я сидела на диете полторы недели, но за два дня набрала все, что сбросила». Как в том, так и в другом случае жалобщиков избавило бы от проблем знание ряда фундаментальных законов: в первом – «сеошно — математических», во втором – физиологических и биохимических. О том, чем в большинстве случаев оказывается мнимое «попадание под АГС», какую пользу сметливый оптимизатор извлечет из теории игр, комбинаторики и иных страшных в своей полезности дисциплин, расскажет известный SEO — эксперт Андрей Шипилов.

Насколько актуален АГС сегодня?

Андрей Шипилов: АГС свою задачу выполнил. Потому что он был направлен против массы ГС, автоматически ваяемых школьниками. Их больше нет, поэтому сайты продолжают наказываться совсем по другим основаниям. Конечно, если вы сваяли кучу говносайтов, то у вас сайт попадает под АГС, пять страниц в индексе осталось – и вы рвете волосы. Но если у вас нормальный сайт, в развитие которого вложено 5 – 6 млн руб., да пусть даже 500 тыс., и у вас вдруг остается десять страниц в индексе, а вы бегаете кричите, что у вас АГС, то, простите, у вас не АГС – у вас глупость! В теории игр есть такое положение: не надо искать заговор там, где все можно объяснить простейшей глупостью.

Разве АГС сегодня не работает?

АГС – комплекс фильтров «Яндекса», определяющих, достойна ли страница (или сайт) индексации, исходя из ряда критериев ее качества. – Примеч. ред.

А. Ш.: Он продолжает работать. Вот пришел Коля Иванов: «Ах, я сейчас пойду зарабатывать на Sape!» Сделал 100 сайтов, и 100 сайтов у Коли Иванова ушли под АГС. Такое случается. Когда приходит человек, у которого сайт приносил на нормальной рекламе, на контексте или еще на чем — то 60 тыс. руб. в месяц, когда у него была посещаемость 20 тыс. в месяц, когда на сайте бурлила жизнь и вдруг у него либо трафик падает в 50 раз, либо вылетают все страницы из индекса, то это не АГС, а, повторюсь, глупость.

Действительно хороший сайт не может в принципе попасть под АГС?

А. Ш.: Как правило, человек, желая сделать свой сайт лучше и наслушавшись советов SEO-специалистов, загнал его в такие условия, что он, с точки зрения «Яндекса», стал очень плохим. Я придумал термин – «парадокс Марьи — искусницы». Знаете, когда в старом фильме выходит мальчик и колдун предъявляет ему 20 абсолютно равнозначных копий его мамы – выбирай, какая настоящая. Сейчас любой в нашей отрасли находится в положении такого мальчика, выбирающего между десятками «Марий — искусниц», потому что на рынке SEO сейчас информации нет. Есть информационный белый шум, и среди него гуляет одинединственный нужный вам ответ, но вы его не увидите, поскольку у вас нет методики, как его вытащить. Простейший эксперимент. Я иду в «Помощь» «Яндекса», читаю о синтаксисе robots.txt, захожу на форум под видом новичка и спрашиваю: «Ребята, каков правильный синтаксис строки Crawl — delay? Как мне ее правильно написать в robots.txt?» Получаю восемь, десять, пятнадцать ответов. Взаимоисключающих. Логика подсказывает, что среди ответов в лучшем случае только один верный.

Другой парадокс – «парадокс монетки»: принимая решение по принципу «орел или решка», я получу более точный ответ, чем задав вопрос на форуме. Говорят, что на форумы не надо ходить, но форумы – это отражение сообщества. Человек, который владеет информацией, будет на ней зарабатывать, он ею делиться не станет. И даже если некто владеет информацией, маленьким кристалликом истины, тот все равно будет поглощен информационным шумом. Темы быстро «сгорают». Положим, вы нашли способ заработать на SEO. Вы сумеете на нем зарабатывать два — три года, не больше, а скорее меньше. Возникает куча сервисов, разного рода программ SEO, которые что — то делают. В основе их функционирования лежит тот же информационный шум, который гуляет по SEO — рынку. Но человек, получая информационный шум опосредованно, через программу, зачастую не видит того, что творится на форумах, он хочет быть выше их суеты: «Пускай школьники болтают, а вот программа дала мне результаты, я на них и буду ориентироваться». Посмотрите по терминологии, зайдите на форумы Sape, на SearchEngines. Приходит человек: «У меня трастовые показатели сайта 15, показатели вхождения – 18, все круто, а сайт падает. Почему?» А что такое «трастовые показатели – 15»? Ему программа это сказала. Еще конкретный пример: «У моего сайта выпала первая страница из индекса. Все остались, а первая выпала. Почему?» Да потому, что ему какой-то сервис сказал, что выпала первая страница. Когда человек хочет улучшить свой сайт, он волей — неволей оказывается жертвой информационного шума.

В заблуждение впадают те, кто слишком доверяет как истинным, так и самозваным SEO-специалистам, это болезнь неофитов?

А. Ш.: Классический пример. Сидит народ на серьезной конференции и рассуждает о влиянии поведенческих факторов на ранжирование сайтов, на их позиции в «Яндексе». Дескать, надобно увеличить время просмотра страницы на столько — то, а глубину просмотра на столько — то, а показатель отказов – на столько — то. Обратите внимание: употребляя эти термины, каждый под ними понимает свое. А в соседнем зале рассказывают, как «Яндекс» наказал MegaIndex или еще кого — то за накрутку поведенческих факторов. Что такое поведенческие факторы? Никто не знает. Раз никто не знает, будем принимать за поведенческие факторы статистику. Почему? Потому что статистика показывает, как пользователь ведет себя на нашем сайте. Коль скоро она показывает, как пользователь ведет себя на нашем сайте, значит, статистика и есть поведенческий фактор. Следовательно, надо улучшить статистику сайта. А как я буду улучшать? Уменьшая процент отказов, увеличивая глубину просмотра, увеличивая время нахождения на сайте.

Очень серьезная контора, очень грамотные специалисты. Компания занимается онлайн — обучением. Хороший инвестор, действительно умелые технические специалисты и преподаватели, бизнес — команда прекрасная. Они принимают совершенно верные тактические решения, проводят маркетинговые исследования. Однажды делают вывод: «Если мы разместим на сайте видеоролики, то тем самым повысим усвояемость материала, сделаем его более интересным». Приходит грамотный технический специалист и говорит: «Вы что, сдурели – видеоролики класть на своем сервере! Есть же видеохостинг. Заведите аккаунт, положите все видеоролики там, а здесь сделайте iframe или еще что — нибудь и показывайте на здоровье». Посетитель заходит, смотрит видеоролик «Как собрать детектор для пыли в домашних условиях». Как принято на видеохостингах, ему сразу же подсовываются значки более интересных записей на ту же тему, он щелкает, смотрит их 15 минут, не уходя со страницы. Все радуются: проведенное на сайте время – 15 минут, глубина просмотра – неимоверная, и уж, наверное, чудесные поведенческие характеристики. В какой-то момент у сайта оказывается ноль страниц в индексе. Причина проста: поисковая машина лишена эмоций и ей понятен тот факт, что на сайте с 5 тыс. страниц каждая ссылается на один и тот же хостинговый аккаунт и народ ходит туда, только чтобы через эти страницы смотреть видеоролики на стороннем хостинге. Что увидел «Яндекс»? Дорвей. Сайт забанен.

А как понять причину «возмездия»?

А. Ш.: Причина наказания качественного сайта может быть до такой степени неочевидной, что даже три — четыре аудитора, садясь вместе, очень долго будут копаться. Сам я сейчас, когда занимаюсь аудитом сайтов, действую очень просто: я прежде всего стараюсь понять, что именно было вытащено из информационного шума. Я вижу, по какой ниточке из информационного шума они пошли, и всегда отыщется уязвимая точка, где сделано не то. Только так. Если тупо сидеть и искать, вы ничего не найдете.

Другой аспект. Везде, на сайтах разработчиков CMS, на сайтах специалистов по безопасности, в очень многих серьезных источниках по SEO, выложены чек — листы по 20 – 30 пунктов, описано, чего не надо делать, какие технические погрешности на вашем сайте могут привести к наказанию со стороны поисковых машин. В 90 % случаев именно нарушение чисто технических требований и приводит к наказанию сайта, несмотря на то что разработчики сайта все это читали и вроде бы понимают: не нужно плодить дубли, надо закрывать от поисковых роботов все технические страницы, результаты сортировки, профили – все то, что не несет информации, релевантной содержанию сайта.

Беда в том, что если вы все перечисленное без задней мысли проделаете, то потеряете четыре пятых трафика, который у вас идет на эти паразитные страницы. Снова бросаемся с головой в информационный шум, выныриваем оттуда вот с такими глазами, с полной уверенностью в том, что чем больше у нас проиндексированных страниц на сайте, тем лучше он проиндексирован, чем больше трафик на сайт льется, тем круче. Да, если ваш сайт – СМИ и вы с трафика продаете рекламу, без вопросов. А если вы торгуете шинами или бриллиантами и добились того, что на ваш сайт в поисках бриллиантов заходит 50 тыс. человек в день? Чтобы радоваться этому – извините, господа, – надо быть полным глупцом! Потому что бриллиант и даже автомобильные шины – это не тот товар, который можно продать 50 тыс. покупателям. Значит, у вас столпится такая куча народа, что вы его не продадите.

Еще раз: не плодим дубли, категорически закрываем от индексации все технические страницы, в строгом соответствии с рекомендациями в «Яндексе» и Google составляем robots.txt. На 95 % сайтов, аудит которых я проводил, robots.tx был написан с синтаксическими (что не страшно, в общем — то) или фактическими ошибками. За последние два года мне три раза приходилось сталкиваться с тем, что сайт вылетал из индекса, поскольку веб — мастер нечаянно запретил индексацию сайта в файле robots.txt, просто написав строку Allow без параметров, подумав, что она разрешает индексировать на сайте.

Смотрим, чтобы было с robots.txt. В обязательном порядке проверяем, что выдает наш сервер в ответ на запрос браузера. Если ваш сервер отвечает – типичная ситуация, – что срок валидности опубликованного материала истек 1 января 1980 года, то ни о каком регулярном и системном посещении вашего сайта поисковыми роботами и речи нет. Вы можете прописать в sitemap все параметры как положено, однако, если робот увидит эту запись в коде ответа сервера, он ваш sitemap проигнорирует. Пустячок, но я сам был свидетелем того, как новостной сайт нормально не индексировался. После того как в полях, касающихся модификации публикаций, появились валидные даты, возникла валидная дата истечения cookie, сайт взлетел просто за счет того, что робот стал заходить практически секунда в секунду с публикуемым материалом. Грубо говоря, вы делаете технически правильный сайт и потом не платите мне 30 тыс. за то, чтобы я вам сказал: «Исправьте эту строчку в robots.tx или закройте с помощью noindex технические страницы».

К слову о noindex. Он позволяет закрыть часть страницы от индексации. Проглядываю сайт, и каждое второе предложение – в noindex. Спрашиваю у владельца сайта:

– Что это такое у тебя?

– А это я придумал такой очень хороший способ уникализации текста!

– Как так?

– Вот «Яндекс» это предложение читает, это предложение читает, это предложение, и вроде как текст уникальный.

– Да «Яндекс» у тебя все прочитает, понимаешь?

Noindex – это «не помещать в индекс», это не значит «нельзя читать, нельзя анализировать». Это значит «прочти, проанализируй, но не помещай в индекс». На сайте «Яндекса» четко все написано в «Помощи», двоякие толкования исключены.

Очень серьезная контора, имеющая десятки сайтов по всему бывшему СССР Специфика компании вынуждает одни и те же позиции товара по 50, по 100 раз на одной странице приводить. В какой-то момент сайт перестает нормально индексироваться, все рушится, из индекса тоже много вылетает. Когда я проверяю сайт, в первую очередь смотрю robots.txt, потом код страницы. Открываю совсем небольшую страничку – там 150 раз noindex.

– А что это, господа?

– Понимаете, у нас слово «насос» встречается 150 раз, и мы подумали, что «Яндекс» это сочтет спамом. Только один «насос» оставили, а все остальные забрали в noindex, чтобы поисковик их не прочитал.

Во — первых, «Яндекс» никогда прайс — лист, табличку не сочтет спамом. Он не дурак и распознает, где у вас прайс — лист, а где текст, насыщенный спамом. Он это начал понимать лет десять назад. Во — вторых, если на сайте 50 тыс. страниц и на каждой надо обработать тег по 150 раз, это же какие вычислительные мощности потребуются. В конце концов, либо роботу самому «надоело», либо человек зашел, увидел 150 noindex, у него глаза из орбит вылезли, он – чпок! – нажал кнопку.

Повторюсь, когда я слышу: «Помогите, мой сайт попал под АГС!» – то, если это достаточно серьезная площадка, почти наверняка она попала не под АГС, а под информационный белый шум в Интернете, помноженный на глупость владельца.

Если не АГС, то что может грозить хорошему сайту и за что именно?

А. Ш.: Да простит меня поисковая система «Яндекс», но у нее очень часто случаются разного рода ошибки и глюки. В большинстве случаев они некритические и остались бы незамеченными, кабы владельцы сайтов, «вооруженные» информационным шумом, не следили за позициями. Здравый смысл подсказывает, что важно следить за трафиком сайта. А информационный шум говорит: «Мониторь позиции». Вдруг владелец сайта видит, что у него позиции начинают скакать. Когда подобное происходит, у меня первая мысль: «А не глюк ли это “Яндекса”?» Ведь мне известно, что с моим сайтом все нормально и ни с того ни с сего он прыгать в выдаче не начнет. А у человека, который живет в белом шуме, иная реакция: «А какой фильтр на меня наложили?» Он делает лихорадочные шаги в поисках мнимого фильтра и надеется устранить проблему, мечась от одного предположения к другому: «Ах, может быть, у меня переспам? А давай на 1 % меньше ключевых слов на всех страницах сделаем? Ах, может быть, я слишком много ссылок закупил? Дай — ка я от части откажусь, закуплю вместо них другие…» Сайт, в общем — то, стабильный и нормальный, но с ним в одночасье затевается чехарда: синхронно меняются тексты на всех страницах, ссылки скачут. Все, и никаких фильтров не надо. Просто потому, что тексты синхронно поменялись, позиции у вас упадут.

Технологии совершенствуются. Раньше – да: накупил ссылок – фильтр «Ты последний» (уж не знаю, существовал он на самом деле или нет), переспамил – фильтр «Ты спамный». Сейчас такого нет. Действуют очень сложные механизмы, которые стараются понапрасну не наказывать. На сегодняшний день «Яндекс» наказывает, только если его изрядно достать. Четкой статистики у меня нет, но частенько ко мне приходят люди с просьбой: «Ах, определите, какой у меня фильтр!» Нередко дело в региональной принадлежности оказывается. «Яндекс» все время что — то у регионов подкручивает. Господа, ваш сайт привязан к Перми. Поменяйте регион, и вы увидите, что эта чехарда только в конкретном регионе происходит, в других ее нет. У «Яндекса» написано чуть ли не аршинными буквами черным по белому на панели «Веб — мастер», что для каждого региона используются свои правила ранжирования. Следовательно, что — то с факторами ранжирования в вашем регионе происходит. Можно задать «Москву», зайти с зарубежного IP и убедиться, что на самом деле с сайтом все нормально. Я не знаю, как он внутри устроен, в моих глазах «Яндекс» – это «черный ящик» что на входе, что на выходе. Но очень часто по какой-то причине «Яндекс» перестает видеть часть страницы. Может, действительно какие — то проблемы с базой, а может, проблемы со считыванием. Тем не менее он индексирует страницу до половины, а оставшуюся часть не видит. Такие эксцессы, впрочем, кратковременны. Если вас «Яндекс» видит по одному заголовку, по тупому вхождению предложения целиком, а абзацем ниже – нет, то подождите немножко. При условии, что вы страницу в noindex не забирали, не бывает так, чтобы страница индексировалась кусочками, она всегда индексируется полностью.

Когда позиции скачут или нечто подобное происходит, как правило, это не фильтр?

А. Ш.: Я бы не сказал «как правило». Всегда можно проверить. Все боятся: «А ну как у меня на сайте какой-то криминал, и если я напишу в техподдержку “Яндекса”, то меня накажут еще сильнее». На самом деле написал и получил ответ: «Извините, с вашим сайтом все в порядке, у нас была ошибка. Подождите немного, ваш сайт начнет ранжироваться нормально». Уверяю вас, когда я обращаюсь по поводу нормального сайта, я в 90 % случаев получаю именно такой ответ. Так и пишут: «Проблемы с нашей стороны. Подождите, ваш сайт начнет нормально ранжироваться». Спросите! Нет, я буду уменьшать количество вхождений на сайте. Нет, я буду менять структуру: кто — то мне подсказал, что у меня неправильный sitemap. Я нагенерю sitemap, куда для надежности включу все технические страницы, которые «Яндекс» никогда бы не нашел самостоятельно. Итог печален.

Говносайты, MFA — сайты11 (между прочим, хорошие MFA — сайты очень тяжело отличить от обычных качественных сайтов, это практически одно и то же), сайты под Sape, под продажу ссылок, для арбитража всегда видно сразу. Если сайт нормальный, приличный, на нем несымитированная людская активность, но он оказывается наказанным, это не АГС. У АГС нет конкретной причины. АГС – это сложный механизм, который берет совокупность огромного количества параметров. Когда сайт наказывают за что — то конкретное, это не АГС, а в 90 % случаев глупость владельца.

Если что — то случается с позициями, до ответа от «Яндекса» лучше не делать «резких движений»?

А. Ш.: Да. Конечно, если ваш сайт плохой и наказан за то, что он плохой, вам так и скажут честно: «Развивайте ваш сайт. Наши алгоритмы приняли решение». Если ваш сайт до сих пор был нормальным, то глупо опасаться, что на основании письма его отнесут к плохим. Может быть, такая вероятность есть, но она намного ниже, чем шансы на то, что вы сами испортите свой сайт необдуманными действиями. Для того и существует диалог. Можно даже написать: «Был такой — то запрос, по нему у меня сайт был на пятой позиции, а сейчас на пятнадцатой. Что случилось?»

Клиент стесняется написать. А я всегда пишу, даже если клиент меня просит не писать уж открою секрет. Потом отвечаю клиенту, что его сайт вернется в индекс через два — три апдейта, и с чистой совестью беру с него деньги за письмо, написанное в «Яндекс». Если он не хочет платить, ради бога, пусть напишет сам, но если он хочет мне заплатить за то, чтобы я написал, я сделаю это.

За что все — таки могут наказать качественный, сделанный для людей сайт? Ведь, кроме АГС, существуют и другие фильтры.

А. Ш.: Могут наказать за технические проблемы, особенно если ваши конкуренты подсуетятся. Если ваш сайт тяжело индексировать, то есть на нем 200 страниц, а на его индексацию надо потратить ресурсов как на сайт с 200 тыс. страниц, его могут наказать, пусть даже с точки зрения наполнения контентом он совершенно нормальный. Положим, робот ждет, пока сайт ответит, по пять секунд на страницу, или у вас на каждую страницу с полезной информацией приходится десять с бесполезной. Или архитектура сайта до такой степени запутана, что робот, проходя по графам, по 50 раз зайдет на одну и ту же страницу, считая, что он попадает на новую.

Могут ошибочно наказывать за поведенческие факторы или за неверную раскрутку сайта. Например, если в какой-то момент вы решили всерьез продвинуться по SEO и получилось так, что у вас 95 % входящего трафика составляет SEO — трафик, причем большой, то есть если на ваш сайт только с поисковиков заходит 20 тыс. человек в день, составляющие абсолютное большинство его посетителей, то определенные механизмы позволят «Яндексу» заподозрить, что у вас MFA — сайт, созданный исключительно для того, чтобы сливать куда — то трафик по более высокой цене, чем та, по которой вы его привлекаете. И если, не ровен час, на вашем сайте найдутся тому подтверждения – необоснованно большое количество тизерок и прочего, – то вас однозначно накажут, и довольно жестоко, притом что наказание будет снять очень тяжело. Или у вас нормальный сайт, но вы решили продвинуться сомнительным способом. К вам пришел новый веб — мастер и обмолвился, что знает, где взять трафик по 10– 20 коп. за человека. Такие источники действительно есть, и вы гоните себе 50 тыс. человек в день. Между тем у вас никакого другого входящего трафика нет. Так не только у «Яндекса». Все роботы сразу делают стойку: «А, мы имеем дело с арбитражем!» Не дай бог, у вас на сайте где — нибудь мелькнут слова «пошли SMS»: он будет наказан. Хотя, казалось бы, это совершенно невинные вещи.

Сайт рискует попасть под фильтр только потому, что у него слишком большой процент трафика поступает из поисковиков, хотя на самой площадке все идеально?

А. Ш.: Да. Что такое идеальный сайт с точки зрения поисковой машины? Никто не знает. Приведу еще один пример. Сайт компании в сфере недвижимости, и на нем огромные базы – десятки тысяч страниц. На нем реализован механизм – то ли AJAX, то ли что — то другое, – благодаря которому человек заходит на сайт, просматривает один объект недвижимости, щелкает на другом, тот подгружается, притом висит один и тот же URL. С точки зрения робота, человек находился на одной странице с неизменным URL. Сайт работает, посетители выполняют нужные им действия, все сделано для людей. Что видит поисковая машина? То, что изо дня в день сотни человек ходят на одну и ту же страницу сайта, а на остальные страницы не заглядывают. Закономерный вопрос: а зачем эти страницы в индексе?

Но ведь «Яндекс» декларирует, что с некоторых пор прекрасно понимает AJAX?

А. Ш.: Не берусь судить, AJAX там или не AJAX. Да, мне говорили, что и JavaScrip понимает, и Flash подгружает. Но факт: как только была дана рекомендация использовать тупой GET — запрос, чтобы каждая страничка имела свой адрес, сайт начал очень хорошо индексироваться, вошел в индекс заново. Правда, по — моему, после письма Платону Щукину12, где ситуация была объяснена.

А как быть в таком случае, когда действительно, казалось бы, невинная, с точки зрения владельца сайта, мелочь приводит к попаданию под фильтр? Например, то же самое использование тизерок, избыток рекламы.

А. Ш.: По — моему, у «Яндекса» это даже где-то написано. Даже если нет, у «Бегуна»13 четко продекларировано. Если вы прочтете пользовательское соглашение «Бегуна» и будете его неукоснительно выполнять, шансы попасть под фильтр за арбитраж трафика, за слив трафика в сети контекстной рекламы у вас будут минимальными. Например, тот же самый «Бегун» никогда не примет ваш сайт в свою систему, если у вас «моновходящий» трафик. Допустим, на 90 % – с тизерок. Ваш сайт даже не рассматривают, одного упомянутого факта хватит, чтобы сайт не был принят в «Бегун». Так почему же политика поисковиков должна быть иной?

Один из хороших способов уйти от информационного шума – черпать знания не из SEO — источников, а из других, близких: документации поисковиков, документации систем контекстной рекламы. Profit — Partner14 дает, например, очень хорошую инструкцию. У меня был случай, когда я сам не мог понять, в чем дело, но, поскольку сайт участвовал в «Яндекс» — «вертушке», я просто позвонил знакомому специалисту из Profit — Partner, и тот мне

объяснил на пальцах, как именно структура трафика повлияла на ситуацию.

Мы вновь возвращаемся к поведенческим факторам. Почему я говорю, что поведенческие факторы не равны статистике? Еще и потому, что значительная часть поведенческих факторов вообще лежит за пределами вашего сайта. До того как человек к вам пришел, он отслеживается. Человек в поиске кликнул на одном сайте – ушел, на другом сайте – ушел, заглянул на ваш – остался. Вам плюс. Где, на чем он кликает до вашего сайта, вы не в силах проконтролировать. Мало того, вы это естественно и сымитировать не сумеете. Человек провел на вашем сайте три минуты – вроде как много. Дальше он ушел на другой сайт той же тематики, провел там 15 минут, заполнил форму, сделал заказ. Это все отслеживается. Хотя у вас, казалось бы, нормальная глубина просмотра, но у вас будет плохая поведенческая характеристика, а у владельца конкурирующего проекта – хорошая.

Способ избежать наказания – делать сайт интересным для людей. Попробую сформулировать правила.

Во — первых, попробуйте вылезти из информационного белого шума. Когда вы видите, что перед вами двадцать «Марий — искусниц», не выбирайте между ними, идите и ищите другой источник знаний. В сказке мальчик вышел за дверь, и ему девочка шепнула, что от настоящей мамы теплом повеет. Лучше выйдите за дверь, и найдете место, где вам шепнут правильно.

Во — вторых, возьмите на вооружение то, о чем «Яндекс» говорит, хотя никто никогда его не слушает: делайте ваш сайт интересным людям, развивайте его. Маленький секрет. Если у вас хороший трафик с поисковых машин, есть трафик из контекста, на вас ссылаются форумы, к вам переходит тьма народа с ссылок, значит, у вас нормальный входной «мультитрафик», ваш сайт очень хорошо отслеживается поисковыми машинами. Но если ваш сайт притом не заносится в «Закладки», вы заметите, что трафик начинает потихонечку падать просто потому, что раз сайт действительно нравится людям, то хоть один из ста человек его к себе в «Закладки» да внесет. Не заносят? Стало быть, сайт не нравится людям, плохой он. Это тоже поведенческий фактор, и все именно так и происходит. Одно время было поветрие: существовали всякие хитрые механизмы, которые заносили сайт в «Закладки», либо побуждали занести сайт в «Закладку», либо заносили его без ведома пользователя. Потом эти методики завяли. Механизмы имитации очень быстро раскалываются.

Не надо забывать, что математика – это наука, а поисковики делаются математиками. Я несколько лет назад потратил деньги и хорошенько изучил теорию игр, и я осознал, каким был идиотом до той поры, не понимая простейших вещей, очевидных в рамках математических моделей. Они противоречат интуиции, но верны. Многие решения на SEO — рынке принимаются на интуитивном уровне, на уровне догадок, а с той стороны – точная наука, которую не обманешь.

Оглавление книги

Оглавление статьи/книги

Генерация: 1.533. Запросов К БД/Cache: 3 / 1
поделиться
Вверх Вниз