facebook pixel
Закрыть

03.06.2018

SEO

Пошаговая инструкция бесплатной SEO-оптимизации сайта

Пошаговая инструкция бесплатной SEO-оптимизации
Техническая сторона — это основа любого интернет ресурса. Безусловно, важен не только расширенный и удобный функционал, красивый дизайн и полезность. Ключевым фактором для продвижения все-таки является оптимизация SEO. Именно она позволяет поисковикам правильно определять содержимое любого ресурса. Давайте, прежде всего, установим ключевые моменты, необходимые для грамотного оптимизирования SEO.

 

  1. Настройка кабинета вебмастера и счетчиков

Приступая к продвижению любого ресурса, нужно, прежде всего, пройти регистрацию в специальных кабинетах вебмастеров. Это сигнализирует поисковым системам о новом ресурсе, поэтому его роботы приступят к посещению сайта. Следует учитывать, что недостаточно лишь вписать домен, для эффективной отдачи функции кабинета следует грамотно настроить. Например, при регистрации в Яндекс.Вебмастере проделайте следующее:

  • добавьте карту по сайту (sitemap.xml) в нужный раздел;
  • укажите свой регион;
  • проведите оценку robots.txt для проверки проделанной работы.

Старайтесь использовать по максимуму множество полезных возможностей, предоставляемых подобными вебмастерами:

  • валидатор — для контроля правильности составления различных документов (например, карты сайта, семантики и прочего);
  • контроль показателей запросов (количество показов, переходов и прочее);
  • визуализация данных по индексации страниц (учитываемых поисковиком или пропущенных).

Получать все данные о визитах и действиях посетителей ресурса, помогают счетчики посещений. Их также нужно установить, пройдя регистрацию. Счетчик – эффективный помощник, позволяющий понять, в каком сегменте следует проводить усовершенствования сайта.

  1. Текстовый файл robots.txt<.h2>

В идеале файл robots.txt рекомендован для каждого ресурса с дополнительным прописыванием адреса доступа site.ru/robots.txt. Данный файл, используется поисковиками для первичного обращения при каждом переходе к вашему ресурсу, в нем содержатся главные правила. Проще говоря, robots.txt – список рекомендованных к индексации файлов. Однако не следует ожидать строгого следования этому списку. Всё зависит от того, какая система администрирования функционирует на вашем ресурсе, именно она формирует этот список рекомендаций. Вот краткий список того, что нужно поместить в robots.txt:

  1. Правила, учитывающие директивы конкретных моделей роботов, таких как, например, GoogleBot или Yandex и прочие аналоги.
  2. Блокировки от индексации всех ресурсов системы.
  3. Закрыты все файлы, исключенные из поиска (страницы входа и регистрации, результаты работы фильтров поиска и прочее).
  4. Руководящие указания Host для YandexBot.
  5. Карта сайта sitemap.xml.
  6. Для GoogleBot следует открыть файлы, касающиеся визуализации ресурса (рисунки, шрифты, фото, js и css).

С настройкой инструмента, относящегося к данному разделу, можно ознакомиться в других наших статьях.

Sitemap – это не только инструмент для оптимизации поисковых направлений по интернет-ресурсу, но и дополнительный функционал, упрощающий посещение пользователям. Для индексации поисковыми системами, Sitemap должна генерироваться в формате xml и включать в себя все необходимые ссылки, рекомендованные к поиску и выдаче.

Для большинства востребованных CMS разработаны особые плагины. Они позволяют организовывать и регулировать карту. Если использовать дополнения для создания Sitemap невозможно, то на помощь приходят разноплановые онлайн-генераторы. Это может быть MySitemapGenerator, или даже настольные приложения, такие как ComparseR или Sitemap Generator. Для дополнительного облегчения навигации посетителям, а также роботам, добавьте карту сайта в формате html — она представляет собой обычную страницу со списком ссылок на разделы. Избегайте излишней объемности, если у вас интернет-магазин, то вполне достаточно стандартной иерархии, состоящей из основных категорий и подразделов.

Это адреса, ведущие на удаленный товар (страницу, изображение и так далее). Нерабочие ссылки, а тем более их значительное число, вызывают негативную реакцию у пользователей ресурса. Всегда неприятно не получить желаемое, в ответ на поисковый запрос. В то же время не только пользователи, но и поисковики также негативно реагируют на сайты с чрезмерным количеством таких ссылок с не актуальным контентом, отсутствием обновлений и прочими отрицательными моментами. Чтобы этого избежать, нужно регулярно проводить мониторинг сайта и удалять нерабочие адреса. Рекомендуем использовать бесплатные онлайн-ресурсы, предназначенные для такого поиска.

Страницы, имеющие дубликат – выдают доступ к идентичным данным по разным ссылкам. Наличие такого наполнения ресурса приводит к следующим техническим проблемам:

  1. Существует большая вероятность неправильного определения основной (релевантной) страницы поисковыми системами, а это может в значительной мере повлиять на расположение сайта в ТОПе. Найдя такой дубль, роботы склеивают адреса и в таком случае могут выбрать главным из них неподходящую.
  2. Дубли влияют на продолжительность индексации поисковой системой, увеличивая не только пропускную нагрузку, но и время на процесс.
  3. Возрастает общая нагрузка сервера.

Этот процесс, вызывает наибольшие трудности при оптимизации технической стороны сайта. При невозможности блокировать дубликаты технически, то рекомендуем использовать канонический адрес rel=canonical с тегом link.

Разберем на примере доступа к одинаковому материалу по разным ссылкам:

  • www.ооо.ru/abc
  • www.ооо.ru/abc1

Основным выбираем первый, следовательно, это будет выглядеть так:

‹link rel=»canonical» href=»www.ооо.ru/abc» /›

Либо, как вариант, поместите адреса дублирующихся страниц в коды, окружив тегами, по примеру: ‹head›www.ооо.ru/abc1‹/head›. Также можно использовать настройки 301 редиректа, закрыв их через robots.txt.

Пошаговая инструкция бесплатной SEO-оптимизации

Существует несколько обозначений для понятия URL-путь: SEO-Friendly URL, семантический или человеко-понятный урл(ЧПУ). Он должен состоять из доходчивых и максимально подходящих определений не только для пользователя, но и для поисковика. Адекватный URL-путь имеет следующие преимущества: быстро идентифицирует содержание страницы по названию и повышает общую индексацию, благодаря наличию слов-ключей. 

Перед началом формирования ссылки на сайт, нужно определиться с преимущественной для вас поисковой системой, для которой будет производиться подстройка. Яндекс предпочитает транслитерацию, тогда как Google – перевод. Пример URL-пути страницы «О компании/О нас»:

  • Яндекс: abc.ru/o-nas
  • Google: abc.ru/about-company или abc.ru/about

Что учесть при наладке URL-пути (адреса страницы):

  • преимущество за простотой и краткостью;
  • близкое соответствие содержанию страницы (оптимальным будет использование основного названия);
  • удалите расширения (php, html, htm и прочих);
  • для разделения слов выбирайте (-), а не (_);
  • по возможности исключите подробные идентификаторы (такие, как idXXX и прочие).

Практически любой домен имеет синонимы доступа к нему. Самые распространенные варианты отличаются добавлением в начало www, также можно прикрепить к главной ссылке домен или использующий кириллицу. При установке SSL-сертификата, число зеркальных ссылок увеличивается до четырех вариантов:

  • http://abc.ru
  • http://www.abc.ru
  • https://abc.ru
  • https://www.abc.ru

При доступности всех версий со временем поисковые системы их склеят в один и признают его основным, поэтому следует заранее выполнить следующее:

  • подключить SSL: выбрать главный и самый оптимальный адрес: https://site.ru;
  • вписать директиву Host в файл robots.txt для YandexBot;
  • произвести настройку 301 редиректа со всех вспомогательных ссылок на главную;
  • в вебмастере должно быть только основное зеркало и все работы производите только с ним.

Преимуществом даже простого и бесплатного SSL-сертификата может являться гарантированная уникальность домена и обеспечение защищенности циркулирующей информации. Подробнее об этом сертификате в отдельной статье, которая расскажет, как оформить переход на httpS.

Подробная разметка информации с помощью Schema.org происходит с применением html принадлежностей, их качеств, относящихся к выделенным составляющим наполнения сайта. Она оптимизирует наружную подачу сниппетов в показах по запросу. Грамотная корректура на основе Schema.org позволяет улучшить и оптимизировать поисковую раздачу. Наглядные примеры по основным категориям:

Предложения товаров

Информационные тексты различного характера и последующие направляющие ключи

Различные пошаговые инструкции, рецепты

Особенность разметки позволяет также показывать любую другую важную информацию. Более подробно мы разобрали микроразметку и способы ее установки в отдельной статье.

При переходе по ссылке в браузере или при сканировании поисковиком, сервер, служащий месторасположением ресурса, посылает отклик на запрос, а именно — код статуса HTTP, автоматически направляя данные о ресурсе и конкретной странице:

  • 200 – сайт(страница) работает;
  • 404 – сайт(страница) не существует;
  • 503 – сервер временно недоступен.

Иногда случается, что код состояния на выдаче неверный. Этот сбой следует вычислить и подкорректировать настройку этих статус-кодов в специальном файле htaccess. Важной настройкой, считается ошибка 404, при том, что страница существует, но по какой-то причине сервер ее не видит. Такой сбой мешает индексации. Коды статусов проверяют, используя Яндекс.Вебмастер или приложения в браузерах.

Одним из ключевых критериев оптимизации является общая быстрота отклика ресурса на запросы. Пользователи не любят долгого ожидания и загрузки элементов сайта или реакций на переходы — ответом на такую заторможенность, как правило, бывает уход. Этот момент также учитывается поисковиками, которые разработаны подражать реакциям пользователей и реагировать на них.

Выявить и оценить, тормозящие работу факторы можно с помощью Google PageSpeed Insights. В результате вы получите список рекомендуемых работ для увеличения отклика загрузки:

  • Для смартфонов и планшетов:
  • Для ПК и ноутбуков:

К тому же следование предложенным улучшениям добавляет оценку в рейтинг, учитывающийся при создании ТОП списка, однако это всё равно не гарантирует идеально высокие показатели скорости, но всё-таки поможет найти ошибки, исправить их и ускорится.

Пошаговая инструкция бесплатной SEO-оптимизации

Подведение итогов

Мы рассмотрели ключевые факторы, влияющие на техническую оптимизацию ресурса. Следует знать, что правильная SEO-оптимизация, в том числе и техническая – это достаточно внушительный список действий, но в итоге дающий положительный эффект. Однако не стоит пренебрегать ни одним из рекомендованных факторов, так как они работают именно в комплексе. Для проверки технической оптимизации своего ресурса, рекомендуем вам воспользоваться услугой профессионального SEO-аудита, а если вы нуждаетесь не только в проверке, но и настройке, закажите комплексное продвижение.

Comments

  • Леонид

    Мне кажется что проблему нужно решать глубже и удалять не только дублирующие страницы, но и текстовки

    12.02.2019
    reply
  • Алекс

    Согласен, чем больше полезной и уникальной информации будет на сайте, тем проще будет оптимизировать сайт.

    13.03.2019
    reply

Оставить комментарий