Сегодня, с появлением множества различных систем, все кому не лень, начали заниматься продвижением сайтов. Раньше, буквально четыре года назад, эта работа была прерогативой только специалистов-оптимизаторов. Большое количество сайтов имеет очевидные недоработки. Занимаясь разработкой сайта, многие пользователи стараются продвинуть его на более высокие позиции в поисковых системах. И это вполне бы удалось даже по запросам со средней конкуренцией – но обычно помехой являются несколько легкоустранимых недостатков. Их можно ликвидировать буквально за десять минут, зная, в чем проблема и как с ней справиться. Специалисты-СЕОшники без труда решат этот вопрос, тогда как новичкам задачка кажется нерешаемой. Хотя достаточно просто направить усилия в нужном направлении, и повышение трафика и рейтинга гарантировано.
Начиная разговор правильном продвижении, расставим акценты. В том случае, если нет желания заниматься выявлением непонятной ошибки самостоятельно, следует доверить это дело знатокам. Они точно обнаружат все препятствия на пути к лидерству в выдаче поисковика. Но некоторые владельцы сайтов все же стремятся сами во всем разобраться, пытаясь получить любую информацию в сфере СЕО. Эта статья предоставит основные сведения о наиболее значимых промахах в работе с внутренним ранжированием сайта.
Отсутствие в названии домена www
Поисковый робот всегда определит страницы www.site.ru/page.html, site.ru/page.html и site/page.html как не имеющие друг к другу никакого отношения. Но при разработке сайта этот момент частенько выпадает из виду. Представьте, поисковый паук заходит на сайт и видит несколько совершенно не отличающихся друг от друга страниц, вся разница заключается только в адресе (URL). Что он предпримет в такой ситуации? Очень просто – займется их объединением (склеиванием) и, в конце концов, выберет страницу, которая станет основной и будет индексироваться. Хаотичная ненаправленная склейка станет причиной тому, что в индексе начнут отображаться страницы как со слэшами, так и без них, как с www, так и с отсутствием оного. Последствия не катастрофические, но неприятные – поисковик слегка разочаруется в продвижении сайта, да и купленные ссылки будут работать не в полной мере: ссылка, к примеру, приобретена на www.site.ru/page.html, а в индексе отобразится не совсем она – без www. Действуем:
главное зеркало надо указать как директиву Host в robots.txt.
показать «Яндекс.Вебмастеру» главное зеркало (путь через настройку индексирования)
настроить принудительное направление с 301 кодом со всех клонов на те страницы, которые должны индексироваться. Оно производится при помощи системы управления контентом или используются веб-серверные служебные файлы. При задействовании Apache HTTP применяется файл .htacess.
Лишнюю информацию в индексе – под запрет!
Поисковые пауки не должны индексировать все подряд. Лишний хлам представляют собой страницы с поисковыми результатами по сайту, корзина, гостевая книга и все то, что лишено полезного контента и не должно отображаться в выдаче Google и Яндекса. Запрет на попадание в индекс можно устроить, применив директиву Disallow в robots.txt. При этом обязательно следует убедиться, что все важные веб-документы открыты для индексирования. При неправильном продвижении никакая сногсшибательная разработка дизайна не поможет.
Title должны быть разными
Заглавия страниц, с подачи системы управления контентом, частенько бывают неуникальными и совершенно неприемлемыми. Это может стать причиной неоптимальной склейки или игнорированию в индексе. Многие создатели сайтов собственноручно вносят неверные тайтлы, считая создание оригинальных заголовков скучным времяпрепровождением. Снипетты достаточно часто составляются поисковыми системами с применением Title, естественно, что число посетителей и количество кликов напрямую зависят от их добротности. Итак:
все без исключения титлы страниц просто обязаны отличаться друг от друга
ключи должны присутствовать во всех заглавиях, причем важно правильно подобранное построение фразы, простым перечислением тут не отделаешься
даже Яндекс сначала описывает страницу в тайтлах, а потом уже выдает название сайта (и то не всегда, обычно на давних страницах). Имя сайта вообще лучше не употреблять в Title, или обозначать, отделяя знаком тире, в конце записи.
Еще один шаг: ликвидировать спам и ненужные ссылки
Достаточно большое количество сайтов до сих пор поражает огромными статьями с «супероптимизацией», микроскопическими или вовсе скрытыми текстами, большим количеством заголовков Н1 на каждой странице, множеством несвязанных друг с другом ключевиков – через запятую – это уже не входит ни в какие рамки и совершенно устарело. Ключи в текстах должны быть в оптимальном количестве и не выбиваться из контекста. Нужно, чтобы содержание статей было интересным в первую очередь для людей, а не для роботов, так как поисковики тоже стали больше ориентироваться на человека. Продажа ссылок и одновременное продвижение сайта в топовые – еще один неправильный ход. Значит:
ликвидируем переспамленный контент вместе с ошибками верстки
избавляемся от исходящих ссылок и закрываем ненужное тэгами nofollow и noindex
освобождаемся от линкфармов, обширных «линкопомоек» и ненужных ссылочных обменников
отправляем «в топку» все «продажные» статьи
Плагиат в контенте – лучше не надо
Чтобы вывести сайт в лидеры выдачи поисковой системы, его необходимо наполнить уникальным контентом и разработать дизайн в неповторимом стиле. Исключений из этого правила нет, это крайне важный шаг в продвижении сайта по «лестнице» выдачи вверх. Также важно:
убрать все чужие тексты-дубликаты, разместить статьи собственного сочинения
если контент написан собственноручно, следует проверить его на предмет заимствования другими сайтами – на сервисе http://www.copyscape.com.
добавлять свежие статьи только после знакомства с ними «Яндекс.Вебмастера», чтобы сохранить за собой первенство (путь от «Содержимого сайта» к «Оригинальным текстам»)
Сайт попал под фильтр
Если не повезло, и поисковик отправил сайт под фильтр (Яндекс «ругается» обычно при помощи аффилиат-фильтра, «Ты последний», «АГС» и т.д.) — надо сделать все возможное, чтобы привести ресурс в должный вид, чтобы разработка сайта не оказалась напрасной тратой времени.
Чтобы избавиться от всех недочетов потребуется днями и ночами сидеть за компьютером, выискивая «тараканов», или передать эту прерогативу кому-то, кто сможет это сделать за вознаграждение.