Книга: Раскрутка: секреты эффективного продвижения сайтов

Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации

Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации

В беседе с авторами книги Сергей Цыплаков, создатель и руководитель биржи MainLink (h p://www.mainlink.ru), и Алексей Жуков, известный как burunduk, руководитель аналитического отдела UnMedia (h p://www.unmedia.ru), накопившие большой опыт в SEO с первых лет его существования в российском Интернете, углубились в историю «пограничных» методов поискового продвижения – историю безответственных авантюр и тонкой аналитики единовременно. Вместе с ними мы постарались понять, что заставляло и заставляет веб — мастеров либо нарушать гласные и негласные требования поисковых систем, либо искать не до конца регламентированные способы SEO, прежде всего с точки зрения ссылочного продвижения.

Что, условно говоря, легитимно, с точки зрения поисковиков, где пролегает эта граница сегодня и как она менялась?

Сергей Цыплаков: До того как возникло ссылочное ранжирование, в продвижении преобладали ключи. Как только владельцы сайтов принялись поголовно употреблять ключи, и к тому же помногу, «Яндекс» принял меры. Позднее, в 2002 – 2003 годах, актуальными оказались SEO — методы, связанные с текстами.

В 2004 году «Яндекс» заявил, что для того, чтобы нормально ранжировать сайты, он станет учитывать ссылки. Вначале были обменные сети, которые плодились как грибы после дождя. Один веб — мастер обменивался с другим ссылками, и выигрывали оба. Чуть позже расцвели автоматические системы обмена с разными схемами: использовались перекрестные ссылки, задействовалось огромное количество страниц на тьме — тьмущей сайтов. Тогда «Яндекс» за это не банил, метод был действенным. В BDBD (h p://www.bdbd.ru/) даже создали систему автопродвижения: в нее вводился сайт и на него мигом автоматически ставилось множество ссылок, и эта механика какое — то время оправдывала себя.

Постепенно обмен перестал быть обменом в классическом понимании. Возобладала коммерческая составляющая: люди стали платить за ссылку. Это было выгодно как вебмастеру, так и оптимизатору. Веб — мастер зарабатывал деньги, оптимизатор добивался желаемого эффекта. Как раз в ту пору создавалась биржа MainLink, поначалу не имевшая никакого интерфейса: одна страничка, где фиксировалось, кто кому и сколько должен заплатить.

В 2005 – 2006 годах работало ссылочное продвижение через главные страницы. Ссылки размещались на титульной странице, обычно внизу. «Яндекс» на это никакого внимания не обращал год — два. Клиенты были счастливы. Но и гигантского трафика с «Яндекса» на площадки не шло.

Так, сайт VIP — eatr.ru продвигался 30 ссылками с главных страниц по запросам «билеты в театр», «билеты в ленком», «билеты в большой театр». Он по всем ключевым словам был первым в топе около полутора лет. Затем открылся Sape, приобрели значение внутренние страницы. Хватало $80 — 200 на раскрутку. Тогда внутренние страницы стали работать еще лучше, они были дешевле. Первая ссылка на внутренней странице у Sape стоила 3 руб. Действовал такой неписаный закон: ссылка должна стоить 3 руб. И тысяча таких ссылок в 2006 – 2007 годах вытягивала вверх любой запрос. В конце концов завелись ушлые веб — мастера, которые облапошивали рекламодателей, зарабатывая деньги, но не показывая ссылки. Обычно такое проворачивали на чужих ресурсах: сидит админ сайта, и ему надо подзаработать. Чтобы клиент не увидел, он изгалялся, придумывая, как закамуфлировать ссылку под цвет фона, сдвинуть вправо — влево, задействовать невидимый слой. Таких способов насчитывалось множество. Создавались даже мини — агентства – фирмы — посредники, которые выкупали сайт или доступ к нему, ставили на него свой скрипт и размещали на нем ссылки.

Поисковики не реагировали на эти ухищрения?

С. Ц.: Поисковая система, особенно «Яндекс», крайне инертна и неповоротлива в своих решениях. Если Google на заре своего становления продекларировал: «За ссылки я вас буду банить, вы нарушаете наши законы» (Google американский, с российским иначе), то у нас, вместо того чтобы соблюдать рекомендации «Яндекса», пытались обжулить его с удвоенными усилиями. «Яндекс» упустил время. Ему нужно было ссылки разбомбить в 2006 году, когда Sape открылся. Возможно, в ту пору его действия увенчались бы успехом.

Алексей Жуков: Впоследствии, когда поисковики начали наказывать за массовую продажу ссылок, веб — мастера пытались прятать эти ссылки. Доходы никто терять не хотел. Было придумано много вариантов клоакинга. Сначала пробовали не показывать эти ссылки только «Яндексу». Были, да и сегодня встречаются индивидуумы, которые обманывают клоакингом саму биржу: ей показывается, будто ссылка есть, а остальным – что ее нет. Очень жесткая форма обмана, но, к счастью, она хотя бы выявляется, пусть даже с наибольшей надежностью лишь ручными методами. Только с наступлением эпохи агрегаторов – SeoPult, Rookee и пр. – ссылки начали автоматизированно проверять на всевозможные виды клоакинга.

Маленькое отступление: в 2006 – 2007 годах я нашел забавный способ объегорить биржу – ставить ссылку в стандартном HMTL — комментарии. Робот биржи понимал, что ссылка стоит, но она же закомментирована. На странице не отображалась, и поисковая система ее не видела. Достаточно долго биржа на это никак не реагировала.

(! –(a href="h p://www/site.ru")анкор ссылки(/a)–)

С. Ц.: В 2006 – 2007 годы, когда ссылки стали «клоачить», по Интернету даже гуляли базы IP «Яндекса» и Google, которые подставлялись, притом обновляясь, чтобы все (рекламодатель, веб — мастер, оптимизатор) видели ссылки, а «Яндекс» в упор не замечал.

А. Ж.: «Яндекс» потом сам открыл, как проверять его IP, – обратным запросом. Не так давно, когда проблемы с клоакингом приобрели нешуточный масштаб, в «Яндексе» была найдена уязвимость. Можно было посмотреть, зайдя с IP «Яндекса», как отображается ресурс. На данный момент она доступна только из браузера. Но хитрые веб — мастера нашли выход. В общем, если стоит запрет на отображение донора в данном сервисе, то, скорее всего, что — то нечисто.

Много ли сейчас таких сайтов? Как менялась обстановка после 2007 года?

С. Ц.: Около 5 % всех ссылок имеют так или иначе выраженные нарушения, либо осознанные, либо неосознанные. На сегодняшний день все способы сокрытия известны. Раньше что — то еще было в диковинку: noindex, nofollow, robots.txt. Очень много ошибок в robots.tx веб — мастера делают из — за неправильного составления написания, не придерживаются формата. Зачастую не учитывают, что robots. xt нужно создавать отдельно под «Яндекс» и под Google. А они делают один: мол, под «Яндекс» – значит «под все».

На 5 % впору рукой махнуть – отклонения в пределах допустимого. Но это сдерживающая сила: если хоть биржа, хоть оптимизатор, хоть агрегатор, хоть конечный клиент опустит руки и не будет выявлять нарушения, все будет куда хуже.

А. Ж.: Что до 2007 года, как раз тогда, по — моему, был популярен запрет индексации ссылок через sitemap. Указывалось, что страница важная, но переиндексировать ее не надо. Тогда много площадок с Sape улетело.

С. Ц.: Следуем дальше. 2008 год. АГС. Что это означает? Был сайт с хорошим, да пусть даже с не очень хорошим контентом, включавший множество страниц. И «Яндекс» издал указ, по которому все такие сайты автоматически понижались в рейтинге. Не очень правильное решение. Если раньше у сайта было в индексе около 1000 страниц, то осталось 10 – 15. Но ссылки, которые ранее были куплены на тех тысячах страниц, остались. Ведь оптимизаторы не имеют возможности проверять каждую ссылку ежедневно. Ссылка остается висеть, страницы в индексе «Яндекса» нет, но работает ссылка или нет, большой вопрос.

А. Ж.: У меня сайт одним из первых попал под АГС, причем не под тот, что до десяти страниц индекс сайта сворачивал, а под другой, который был намного раньше включен. Страницы на том ресурсе были следующими: одна большая фотография, несколько маленьких да одна подпись. Плюс ссылки на другие страницы с фотографиями. Никакого контента. Картинки в индексе были, картиночный трафик был, а сами страницы – удалены из индекса. Причем у сайта оставалось на тот момент около 300 – 400 страниц в индексе. Потом, когда АГС включили, их количество еще подсократилось, хотя реально на сайте было около 2000 страниц. И с них внутренние ссылки работали, перелинковка работала. С НПС и внешними тоже порядок был.

Слегка отойду от заданной темы: сейчас у «Яндекса» с индексом тоже проблемы, когда под новую дату кэша выставляется старая страница, причем может быть выведена несуществующая, которой нет добрых полгода. Несмотря на обилие дата — центров в «Яндексе», все равно база грязная и не так часто обновляется, как хотелось бы. Хотя, насколько я понимаю, они хранят вообще всю информацию по сайту, которая когда — либо появлялась.

С. Ц.: Вернемся в 2008 год. Тогда Константин Каширин сделал сервис проверки на непот. Это была золотая жила – якобы проверка работоспособности ссылок с донора посредством языка запросов. Чтобы понять, участвует ли в поиске данная страница по тому или иному анкору с некоего донора, может ли она попасть в поиск.

Потом отключили операторы #link и ancor. Это был болезненный удар по оптимизаторам. Да что там – одна из ядерных бомб на SEO. Дальше операторы начали отключать один за другим. Были какие — то недокументированные. Порой до сих пор оператор существует, но показывает белиберду. Одно время в BDBD хотели запустить биржу Indexoid. Они фиксировали дату индексации ссылки с помощью языка запросов «Яндекса». Завязались на один запрос. Но это их не спасло.

Ссылочные базы бирж все приохотились парсить, стали свои белые списки формировать. Но эта волна быстро спала.

Поисковики начали закручивать гайки. То, что работало для одного, могло не работать для другого. Одно время ходила хохма: мол, если ссылка с точкой на конце, значит, она работает. А без точки – нет. Был еще экзотический способ: в конце ссылки ставили /n, перевод на следующую строку. Мне один клиент прислал ссылку со словами: «А если взять простую ссылку, без этой каретки, то донор находится под непотом. А когда ее добавляешь, донор работает». Ссылки стали разнообразиться. Их начали делать с разными ухищрениями (абракадабра, текстовые простановки и пр.), чтобы узнать, работают ли они. Это вошло в моду. Перед тем как закупаться, большой оптимизатор ставил несколько ссылок на сайт, смотрел, работают они или нет, анализировал обстановку.

2008 год был переломным для оптимизации?

С. Ц.: Он точно был переломным для «Яндекса». Именно тогда он объявил войну SEOссылкам. Биржам, между прочим, войну не объявляли. Если бы объявили, то, наверное, сразу бы их забанили.

Положа руку на сердце, Россия – уникальная страна с точки зрения ссылочного ранжирования. В Рунете на 2009 – 2010 годы «живых», активных сайтов был миллион, из них биржи заняли 60 %. Сравним с Google. Это несколько триллионов сайтов, и из них участвующих в линкоторговле, наверное, 0,5 %. Упомянутые наши 60 % надо было, возможно, сразу срубить под корень, но тогда осталась бы абсолютная помойка – всякие дорвеи и иже с ними. «Яндекс» упустил момент. Не знаю, жалеет он или нет. Процент ГС сохраняется, и ситуация необратима. Даже «публичные порки» ее не изменят. Если отменить ссылочное ранжирование, в топе останется шлак.

А. Ж.: Кроме ссылочных, нет других факторов, которые позволяли бы достаточно хорошо отранжировать сайты. «Яндекс» постепенно снижает влияние ссылочного ранжирования, но полностью от него никогда не откажется. Это невозможно.

Какие способы обмана со ссылочным продвижением использовались позднее, вплоть до настоящего времени?

А. Ж.: Последнее веяние – это когда ссылка… есть. Заходишь на страницу – ссылка вроде стоит. По ней переходишь – все чисто. Ведь как проверяется ссылка? Проиндексирована – не проиндексирована. Что ищется? Анкор ссылки на конкретной странице. Итак, анкор наличествует. Но это не ссылка. Это может быть кусок текста. А биржа «клоачится». Отследить такой финт сложно. Выполняется клоакинг робота биржи, чтобы тот видел ссылку, либо она в комментарии вставляется.

С. Ц.: Проверки, естественно, проводятся у всех, но вот если, например, есть каскад (комментарии) или вложенность, то структура документа нарушается и ничего нельзя отследить. Когда имеется вложенный документ – один в другой, другой в третий, – а тег берется из другого и эти области накладываются друг на друга, робот не понимает, что это за страница и что с ней происходит. Удастся ли его провести – фифти — фифти.

(noindex)

(table)

(tr)

(td)какой-то текст(/td)

(/noindex)

(td)какой-то текст(/td)

(/tr)

(tr)

(td)(a href="h p://www/site.ru">анкор ссылки(/a>(/td>

(td>какой-то текст(/td>

(/tr>

(/table>

А. Ж.: Было дело, «Яндекс» не вполне корректно обрабатывал тег noindex. Можно было закрыть с помощью noindex одну часть таблицы, а после (/noindex> в тот же блок ставилась ссылка, и она попадала в noindex. Разрыв тега нарушал структуру. Например, начинается таблица, тег noindex стоит перед ней, а закрывающий тег – внутри нее, после какой-то строки. А на следующей строке – ссылка. Вроде как она не закрыта noindex, а поисковик всю таблицу забирал. Формально нарушений нет, с точки зрения веб — мастера.

Предъявить ему нечего, но ссылка не индексировалась.

Одно время веб — мастера очень любили использовать для ссылок «бегущие строки». Они индексируются, но очень долго. «Бегущая строка» шла по сайту обычным тегом, и в него вставлялись ссылки. «Яндекс» почему — то не хотел индексировать его содержимое – индексировал с изрядной задержкой. Проиндексировал он страницу – и ты тотчас добавил ссылочку в «бегущую строку». А появлялась она в индексе только через три месяца. Вебмастер три месяца получает деньги, избегая кары. Потом ему надоедало, он снимал эту ссылку. А в кэше ничего криминального не оказывалось, санкций не было.

Когда начали предъявляться более строгие требования к площадкам: «Статья должна быть уникальной» и т. д., возникла мода генерировать кучу бредотекста. В индекс он влетал на ура. Но если оптимизатор заходил на такую площадку и начинал ее изучать, то, естественно, он плевался. Значит, посетителю сайта нужно было показать что — то более или менее нормальное. Что делали? Брали какой-то сайт из «Яндекс. Каталога» и подсовывали его пользователю. (До сих пор работает.) А поисковику показывался бред полнейший. Причем если оптимизатор был неопытный, пытался скопировать часть текста со страницы вроде бы хорошего сайта, вставлял в какую — то программу, чтобы с помощью поиска проверить фрагмент на уникальность, то получал подтверждение, что текст абсолютно уникальный, в индексе нигде ни фразы, кроме как на рассматриваемом сайте.

С. Ц.: Отдельная тема – создание ГС. До сих пор эта индустрия процветает. Конечно, есть мнение, что хороший сателлит стоит от $500. Но именно хороший. У многих умельцев процесс автоматизирован. Они пишут свои программы, скачивают сайты, что — то видоизменяют, выкладывают в Сеть, ждут, когда это загонится в индекс хоть как — то, и сразу на биржу бегут.

А. Ж.: Есть более продвинутые, которые ничего не пишут. Просто в онлайн — режиме парсят контент с другого сайта и бирже это показывают. Единственное, добавляются ссылки. На хостинге находится только данный скрипт и фрагмент кода, скрипт с Sape например. Сайт выглядит прилично, его принимают в биржу. Ну почему не принять — то? Иные площадки такого сорта существуют очень долго. Мне известен сайт с бредом в коде (посетителям и роботам подсовывается сравнительно приемлемый контент), существующий больше года. Там 3000 страниц, и через Sape на него продано приблизительно 1700 ссылок. Даже если одна ссылка стоит рубль – средняя цена составляет 3 руб., но там показатели никакие, – выходит 1700 руб. в месяц. Ни с чего. Веб — мастеру в карман. Ну и биржа получает свой процент. Такие ссылки, конечно, все менее действенны. Раньше эффект приносила любая.

С. Ц.: Все больше и больше фильтров вводится, все меньше и меньше ссылок работает. Но не работать совсем они, наверное, не могут. У «Яндекса» есть вероятность срабатывания, вот что хорошо. Не «0 или 1», а какое — то промежуточное значение.

А может ли ссылка работать в минус?

С. Ц.: Да. Кстати, это один из большущих недостатков любого поисковика. Неоднократно в порядке эксперимента брали сайт, прогоняли по форумам, как — то еще гадили – и он валился. Даже в 2012 году целая индустрия существует – заплюй конкурента и вылези в топ. Или скопируй сайт конкурента и насоли ему. Новомодное направление – исправление репутации в Интернете. Создаешь сайт «Вася Пупкин – дегенерат», он попадает в топ, а потом Васе Пупкину сам же и предлагаешь услугу «ассенизатора» за хорошие деньги.

А. Ж.: В свою очередь, купив некачественные ссылки на бирже самостоятельно, веб — мастер сегодня рискует ухудшить свои показатели. Часто ругают SeoPult, Rookee, WebEffector, но самостоятельно многие вещи человек малознающий не сумеет сделать с той же эффективностью, что и любой из агрегаторов.

Чаще встречается обратное мнение, что агрегаторы покупают такие ссылки, которые заводятся под фильтры. Насколько это обоснованно?

А. Ж.: Я вправе говорить только с точки зрения SeoPult. Да, мусор встречается, любой автомат дает какой-то процент брака. У SeoPul сложная проверка доноров, вплоть до того, что все будто бы хорошо, но на сайте 30 – 40 % ссылок не индексируется. Донор в таком случае будет просто — напросто выкинут из системы. Ссылки переиндексируются, но примерно через полгода. Даже если я сам буду закупать, многие вещи в ручном режиме не замечу.

Человек не может проверить качество донора, закупаясь в SeoPult?

А. Ж.: Что — то он проверяет. При ручном отборе можно что — то просмотреть, но любой агрегатор, любая биржа обладает большей информацией. У них статистики больше. Я сам оптимизатор, у меня два проекта. Сколько я на них могу ссылок купить? На скольких донорах? Нужно перебрать достаточно большое их количество. У агрегатора эти данные есть. Он знает, что с такого — то донора ссылки не работают, хотя все индексируется. Закупка ведется, а роста позиций нет. У фрилансеров таких данных нет – им неоткуда взяться. Но чтобы оценивать площадки по другим параметрам самостоятельно, нужно быть опытным оптимизатором, каких единицы.

С. Ц.: С другой стороны, здесь можно применить концепцию «Яндекса» – «сайт для людей». Если ты будешь каждого донора проверять вручную, визуально, и хотя бы ставить себя на место поисковой машины, и открывать страницы «в режиме робота», это будет объемная работа. Для одного проекта ее можно выполнить за неделю.

А. Ж.: Одного — двух. А если у тебя пять — шесть проектов? А если у офлайнового бизнеса делается сайт, кто будет анализом заниматься? Генеральный директор сам примется выбирать ссылки? Оно ему надо? Да и надо в предмете разбираться все — таки.

Агрегаторы дают погрешность. Кто — то считает, что большую, кто — то – что маленькую. Вместе с тем у агрегаторов уйма режимов.

Пришел один: «Ба, агрегатор! Замечательно!» Запрос «реклама», или «ксерокс», или «Sony». Агрегатор ему показал бюджет. Он залил в систему деньги, неделю ждет. Топа не достиг. Уходит. Но, извините, такие вещи сейчас не проходят. Это раньше, еще в старые времена выстреливало. Система не может предугадать все выкрутасы владельцев сайтов. Вот имярек начитался умных форумов, стал твердить, что нужно продвигаться по куче слов. Спарсил эту кучу слов, составил семантическое ядро. Реальный пример: «готовые фирмы»,

«Готовые фирмы», «фирмы готовые» – тьма вариантов. SeoPul реально показал ему по каждому слову бюджет. Он закупился по каждому запросу. Превысив бюджет фактически в семь — восемь раз. Был ссылочный взрыв. В интерфейсе ведь тоже надо разобраться. Там написано: «Закупать плавно». А все хотят сразу, быстро. Мораль: агрегатором тоже нужно уметь пользоваться.

А если посмотреть на текущие способы заработка на сайте глазами веб — мастера?

С. Ц.: Для веб — мастера биржи скорее благо. Но если он единовременно начинает сразу много зарабатывать на площадке, это сказывается на ее качестве. Его банят, или он под всевозможные ссылочные санкции попадает, одна из них – «ссылочный взрыв». Это зло как для веб — мастера, так и для оптимизатора. Вроде владелец сайта хочет заработать, рекламодатель купить ссылки. Но когда рекламодателей много, возникает угроза. Взять хотя бы агрегатор, где 10 тыс. проектов. Он берет новый сайт – и на том сразу 1 – 2 тыс. ссылок появляется. Это опасность для сайта. Учитывая, что сайт может участвовать не в одной бирже, а сразу в нескольких, да еще и размещать вечные ссылки, статьи, есть о чем задуматься.

Последние несколько лет все актуальнее проблема: нормальных сайтов не хватает. Если один раз веб — мастер узнал, что можно заработать на сайте с помощью ссылок, пиши пропало. Веб — мастеру никогда не объяснишь, что зарабатывать на сайте нужно постепенно.

А. Ж.: Подходы разнятся. Есть те, кто создает ГС с целью по — быстрому отбить вложения, и они что угодно вешают. Например, в домен, хостинг, сайт вложили 400 руб. Им нужно эти 400 руб. максимально быстро окупить. Отбили за полмесяца, а дальше работаем в плюс? Чудесно. Убили его – и пусть. Они на автомате это делают.

Кстати, к разговору о фильтрах. Были фильтры, которые отключали исходящее ссылочное с сайта. Ссылка была в индексе, но она никак не работала. Раньше это проверялось, теперь сложнее. Причем сайт мог находиться в топе по своим запросам. Сайт хороший, трастовый, но на нем решили заработать. Поисковик решил его не выкидывать, а просто отключить ему исходящее ссылочное. Под фильтром томились и КП17, и «Аргументы и факты».

Там были люди, которые пользовались своим положением?

С. Ц.: Да. Даже редакция добро давала. Одна ссылка на Regions.ru – тИЦ 15 000 или около того – стоила $800. А у МК18 и КП всю жизнь выкупали по $270. Мы даже ссылки закупали у МК на MainLink, у нас переходы были оттуда. Но не работали эти ссылки. Они если и работают, то на новые факторы больше, поведенческие.

А. Ж.: Сайтов перестало хватать, а желание заработать все усиливалось и усиливалось. Стоимость ссылки как прежде всего оценивается? По PR, тИЦ, DMOZ, ЯК. Научились «клеить» домены – в биржу фейк добавлять. Берется любой домен, «подклеивается» к какомуто хосту – тИЦ 300, помнится, какое — то время часто встречался, – туда кладется какой-то контент. Сайт добавляется в биржу. Параметры есть, все нормально. Поставили – и в путь. Да и сейчас таких сайтов предостаточно. Когда неопытный человек закупается напрямую на бирже, он на эту удочку рискует попасться.

С. Ц.: Но мы давно такой тИЦ научились «отклеивать». Как проверить? Открывается тИЦ сайта, и смотришь, чей сайт. Пользователь, который никогда не покупал ссылок, на глазок не заметит разницы. Откроет сайт, увидит, что тот в «Яндекс. Каталоге» находится – вот его кнопочка с большим тИЦ, – и обрадуется. Купит ссылку в десять раз дороже. А там нет ничего. «Подклейка» что тИЦ, что PageRank действует и сейчас.

Есть даже сайты, на которых выкладываются «зеркальные» базы. Тот же Peterhos «подклеивается» по нескольку тысяч раз за месяц. Появляются новые сайты с «подклеенным» тИЦ, которые успевают добавляться в биржу.

Проверяется тИЦ тремя способами: по «Яндекс. Бару», по «Яндекс. Каталогу» и по самой кнопке. «Яндекс. Каталог» может три разных значения выдавать под каждый из них. У нас даже есть свой алгоритм, как отделить «клей» от «неклея». Если два из них хотя бы не имеют URL, на который ссылаешься, то вероятность «склейки» высока. И полно сайтов – они входят в 5 % погрешностей и нарушений, – которые даже из этих алгоритмов выпадают. Например, «Яндекс. Каталог» и тулбар говорят, что сайт есть в «Яндекс. Каталоге», только кнопка выдает тИЦ 0. Баг это или фича? Думаю, «багофича». С нарушениями веб — мастеров «Яндекс» борется. Все борются. Но веб — мастера изобретают новые хитрости, пытаются использовать все средства для заработка. Поэтому у «Яндекса» даже на уровне обновления базы тИЦ имеет место погрешность, рассинхронизация. Бывает, десять раз нажал кнопку – тИЦ 40. Потом еще раз – тИЦ 50. А после – снова 40. Для нас это головная боль. Вроде обновляешь, но жалобы постоянно: «У меня такой тИЦ, а вы рассчитали другой». Открываем скриншот страницы, откуда взята информация, и тИЦ действительно такой.

А. Ж.: Раньше был еще какой обман? У вас URL страницы написан в нижнем регистре. Настроить сервер так, чтобы отдавать эту страницу в верхнем регистре, не составляет труда. А многие серверы настроили как раз наоборот. Для сервера это разные страницы. Для CMS очень часто это одна и та же страница, на чем нередко играли. Есть страница в индексе, например, в нижнем регистре. А на биржу добавлялась в верхнем. И при проверке индексации страницы биржей показывалось, что страница есть в поиске. Если даже сейчас ввести запрос, он регистронезависимый получается с точки зрения «Яндекса». И при автоматической проверке плагинами (плагином Винка и т. д.) видно, что страница в индекса, а ссылка никак в индекс не попадает. И ссылка размещена. Кэш свежий. А в кэше ее нет. Начинаешь смотреть внимательно, а разница – в регистре URL. Кэш от разных страниц.

С. Ц.: Да, о проверке русскоязычных доменов рф. Они же в базе хранятся как энкодированные. Берешь URL с русскими буквами либо в домене, либо после слэша. И страница вроде есть в «Яндексе», но ссылка все равно в индекс никак не идет. Обычно из — за обмана.

А. Ж.: Иногда такое бывает из — за неправильных настроек сервера. Но бывает и впрямь внаглую совершается обман биржи. Запрос регистронезависимый, и «Яндекс» не может показать две страницы с разным регистром в таком случае, он покажет только одну.

Биржи могут с подобным бороться?

А. Ж.: Давайте откровенно: а зачем бирже с подобным бороться? Агрегатор – другое дело. Бирже все равно, что продавать. А агрегатор за что — то свои 10 % берет: подбор и прочее. Агрегаторы пытаются бороться с этим, но немножко на другом уровне. Они видят, что ссылка на площадке не индексируется, и просто — напросто эту площадку выкидывают.

Способы обмана оптимизаторов, бирж, агрегаторов развиваются, но сила действия все равно будет равна силе противодействия?

С. Ц.: Будем на это надеяться, по крайней мере. Стараться, чтобы у нас процент погрешностей и отклонений вдруг не подскочил. Потому что, если все вольются в атмосферу обмана, нам будет совсем несладко. Пока как таковой проблемы не существует. Она есть, но маленькая.

А. Ж.: С другой стороны, у клиента месячный ссылочный бюджет – порядка 250 тыс. руб. Здесь 5 % – это сколько? Неплохие деньги. Там 5 %, там 10 % нерабочих ссылок. Я утрирую.

С. Ц.: Мы в MainLink постоянно пополняем глобальный черный список. Вебмастера регулярно растягивают целые «портянки» с просьбами, чтобы их снова включили. Когда находится нарушение, мы отправляем сообщение о нем вебмастеру. Обычно первая реакция:

«Я ничего не нарушал, включите меня». После разъяснения редко кто — то признается: «Да, это действительно так, спасите меня, верните мои доходы». В основном либо не понимают, либо «включают дурака». Но процент непонимания очень высок. Говоришь им о вышеописанном случае с верхним и нижним регистром, а люди не знают, что, где и как исправить, потому что у них даже знаний и опыта в настройке CMS и сервера не хватает.

Исправляются ли веб — мастера?

С. Ц.: Отдельные. Процент исправления невысок. Обычно веб — мастер, который совершает нарушения, регистрирует новый аккаунт специально и смотрит: получится – не получится.

А. Ж.: Или по той же технологии новый сайт добавляет.

А если веб — мастер в другую биржу просто уйдет?

С. Ц.: А сколько у нас бирж? Раз, два, три. Из одной выгонят, из второй – и он лишится дохода. Агрегатор у него больше не купит эту ссылку. Выбор узкий. Либо ты решаешь проблему, либо перестаешь зарабатывать на сайте. Если один раз веб — мастер «склоачит», это будет его первый и последний раз.

Оглавление книги


Генерация: 1.229. Запросов К БД/Cache: 3 / 1
поделиться
Вверх Вниз