Правильно настроенный сайт с технической стороны, является фундаментов его продвижения в поисковых системах.
Перед вами список из нескольких пунктов, на которые необходимо обратить особое внимание при технической оптимизации сайта.
Содержание:
Файл robots.txt должен находиться в корне сайта. В данном файле прописываются правила индексирования для поисковых систем. Например, если требуется закрыть от индексации определенные страницы или разделы, то достаточно прописать несколько команд в файле, и поисковики не будут индексировать данные страницы.
Обязательными правилами в файле являются: Host, Sitemap.
Host – команда которая прописывает главное зеркало сайта. Поисковики считают, что www.site.ru и site.ru это совершенно разные сайты, но с одинаковыми контентом (технические дубли), и чтобы предотвратить конфликта, прописывается правило host.
Например:
Host: site.ru
Sitemap – команда, которая указывает ссылку на карту сайта. О карте сайта мы поговорим чуть позже в этой статье. А в файле robots.txt прописывается ссылка на карту, которая показывает поисковикам, где находится та самая карта сайта.
Например:
Sitemap: site.ru/sitemap.xml
Sitemap: site.ru/sitemap.xml.tag
Сама по себе, карта сайта, это список всех ссылок сайта, которые имеются на сайте, а так же открыты к индексации поисковых систем. Наличие карты сайта, облегчает поисковикам обходить страницы сайта, что улучшает скорость индексирования сайта со стороны яндекса и гугла. Обычно используется формат xml.
Существует большое количество бесплатных сервисов, позволяющих сгенерировать карту вашего сайта.
Как говорилось выше, site.ru и www.site.ru это технические дубли. Так же могут быть техническими дублями: site.ru и site.ru/index.php. Поисковик видит все эти страницы, и считает их разными (так как адреса разные), и поэтому возникают конфликты.
По правилам продвижения сайта, у вас не может быть на сайте копий страниц. А это значит, что каждая страница должна быть уникальной не только по отношению к другим сайтам рунета, но и по отношению к другим страницам этого же сайта. Технические дубли, это как раз тот момент, когда появляются копии тех или иных страниц.
Лучше всего настраивать 301 редиректы, например в файле .htaccess, который находится в корне сайта.
Пользователи – люди нетерпеливые, и им нужно как можно быстрее получить информацию о ваших услугах, продуктах и тд. Но когда ваш сайт долго грузится, пользователи, не дожидаясь загрузки страницы, просто закрывают сайт, и вот вы потеряли посетителя. На скорость сайта влияет несколько факторов: мощность сервера, размер изображений, размер кода (html, css, js и др), наличие кэширования, наличие сжатия. Скорость сайта можно проверить с помощью сервиса: Google page speed
Микроразметка, размечает вашу страницу на несколько составляющих. Данная разметка страницы, позволяет легче определять содержимое страницы со стороны поисковых систем и социальных сетей. Подробная инструкция внедрения описана тут: Yandex Support Schema.org и тут Yandex Support Opengraph
Наличие битых ссылок, очень плохо влияет на позиции сайта в поисковых системах. Битая ссылка, это такая ссылка, при переходе на которую, открывается страница 404, или вовсе пустой экран. У вас на сайте не должно быть битых ссылок. Проверить их можно с помощью программы Xenu.
И все же, по чистой случайности, на вашем сайте оказалась битая ссылка, и пользователь перешел по ней, ему должна отобразиться страница с ошибкой, мол материал не найден. Это называется страница 404. А называется она так, потому что, ответ этой страницы должен возвращаться 404. Если ответ возвращается другой, то это плохо. Для продвижения сайта, страница с ошибкой, должна возвращать ответ 404. Проверить свой сайт можно тут: Yandex Tools Server Response , введите адрес несуществующей страницы вашего сайта, и если ответ 404, то у вас все хорошо.
Плохо когда на вашем сайте, есть ссылки на другой сайт. Мы сейчас говорим о тех ссылках, которые находятся на каждой странице. Например если вы опубликовали статью, и в ней есть ссылка на другой сайт, то это ничего страшного. Но когда на вашем сайта, например внизу в футере, указана ссылка на разработчика, и она не закрыта от индексации, это очень плохо. Дело в том, что каждая ссылка на сайте, передает определенный вес (рейтинг) другой странице или сайту в ущерб себе. А чем ниже такой рейтинг, тем ниже находится сайт в поисковых системах.
Всего несколько лет назад, поисковики стали обращать внимание на наличие SSL Сертификата на сайте. Сам сертификат SSL позволяет пользователям безопасно пользоваться вашим сайтом, шифруя данные перед отправкой и получением. Поисковики борятся за безопасность использования, а это значит, что SSL Сертификат необходим, чтобы сайт, в глазах поисковых систем, был достоин того, чтобы находиться выше других сайтов конкурентов.
Недорого SSL Сертификат можно купить тут: REG.RU
Подробнее о работе SSL сертификата мы писали в этой статье: http://kaspor.ru/blog/ssl-certificate
linkПонравилась статья? Поделись с друзьями: