Дружба с поисковыми системами

Автор статьи: Нет ©
Сайт Автора: Нет
E-mail Автора: Нет
Дата публикации: 08.01.2005

Начинающие веб-мастера часто недооценивают влияние поисковых систем на раскрутку проектов. А ведь именно "поисковики" призваны обеспечивать стабильный приток посетителей и весьма неплохой. Хотя количество хостов из поисковых систем зависит от общего количества размещенного материала, тем не менее, начинающий сайт может рассчитывать на диапазон от 3 до 50 хостов в сутки. Заметьте, это без каких-либо денежных затрат на рекламу.

Но для привлечения посетителей из "поисковиков" необходима продуманная и качественная работа, большей частью незаметная для читателей. Я имею в виду работу по оптимизации страниц для поисковых роботов. Несмотря на то, что основные требования к сайтам со стороны "поисковиков" хорошо известны, количество успешно проиндексированных ресурсов невелико (в мировом масштабе до 16% от общей величины поданных заявок).

До начала оптимизации давайте разберемся, как работают поисковые роботы и как происходит оценка релевантности. Исходными данными, несомненно, является сам документ в формате HTML. Частота повторения слов в тексте, пожалуй, основной фактор для оценки страницы. Для роботов также важны: содержание тэгов <TITLE>, <МЕТА> (в первую очередь параметры "descriptions", "keywords", "Content-Type" и "Content-Language"), текст самого документа (особое внимание тэгам <H1>-<H6>,<B>,<STRONG>), альтернативный текст для изображений (параметр ALT тэга <IMG>). Не все части документа воспринимаются равнозначно. Текст в начале страницы находится в более выгодном положении. Интересный факт: одна и та же страница, изготовленная "вручную" и, например, средствами Word будет проиндексирована по - разному. Автоматические генераторы HTML весьма далеки от совершенства и лишний "мусор" сгенерированный текстовым процессором Word будет причиной такой разницы.

Стремление поместить основной текст в начале страницы и, таким образом, повысить релевантность ключевых слов, иногда находит отражение в изменении стандартной навигации. Web-мастера помещают ее справа. С точки зрения юзабилити это не самый лучший шаг, но в нем есть свое рациональное зерно. Отдельный разговор о фреймах и страницах с динамическими данными. Если фреймы в последнее время стали индексироваться более - менее корректно (все же их использование на первой странице нежелательно), то динамические блоки роботами, к сожалению, игнорируются (это относится и к Flash). Вывод: "поисковики" не любят "навороченных" сайтов. Делая ставку на поисковые системы, помните об этом.

Итак, с теорией разобрались, - приступим к оптимизации. Страницы, ориентированные на индексацию, должны быть по возможности простыми, без ошибок, с прописанными <TITLE> и <META>. Частое повторение в тексте ключевых слов также нежелательно (оптимально 3 - 7 раз), иначе робот подумает что его "спамят" и покинет страницу. Если сайт использует динамические ссылки, проверьте, продублированы ли они обычными статическими. Для гарантии индексирования всего ресурса избегайте вложенности ссылок больше 5 - 6 уровня.

Скорее всего, сайту сразу не удастся попасть в первые 30 позиций ссылок, выбранных по Вашим ключевым словам (по первым 30 ссылкам переходят 95% посетителей). Но, проанализировав структуру и HTML - код лидеров, вы сделаете выводы, которые в будущем принесут успех.