Технический аудит сайта

Технический аудит – стандартная процедура при продвижении сайта в поисковых системах, которая осуществляется для обнаружения и исправления основных ошибок интернет-ресурса.

В этой статье рассмотрим как сделать технический аудит веб-сайта самостоятельно по чек-листу, который можно будет скачать в конце статьи.

В поисковиках гораздо лучше ранжируются «хорошие» страницы, не имеющие ошибок.  А остальные страницы с некоторыми техническими недочетами, недоработками пользователь может не увидеть в поиске вовсе.

Кроме того, «плохие» страницы, имеющие ошибки, могут затруднять ранжирование «хороших».

Проведение технического аудита само по себе не приводит к увеличению трафика, но исправление ошибок, связанных с продвижением, улучшает ранжирование сайта в целом.

Основными инструментами для проведения технического аудита являются:

  • NetPeak Spider (платная);
  • Screamingfrog (платная);
  • Xenu (бесплатная);
  • RDS бар (бесплатно);
  • LinkPad (частично бесплатно).

Этапы аудита сайта

Проверка индексации сайта в поисковых системах

У поисковой системы Google существует 2 вида индекса: основной и полный.  Google подхватывает в свой полный индекс все страницы сайта, а в основной индекс помещает только «хорошие» по его мнению страницы.

Что касается Яндекса, то у него есть некий аналог полного индекса Google – это число загруженных страниц в Яндекс.Вебмастере. Публично Яндекс показывает только те страницы, которые участвуют в поиске. Сравнивать нужно основной индекс Google с индексом Яндекса. Сайт считается «здоровым», когда основной индекс Google примерно совпадает с индексом Яндекса.

Проверка количества проиндексированных страниц в поисковых системах Яндекс и Google при помощи расширения для браузера RDS bar
Проверка количества проиндексированных страниц в поисковых системах Яндекс и Google при помощи расширения для браузера RDS bar

Если индексы значительно отличаются, т.е. различия значений более 20%, то проблемы в той поисковой системе, где значения меньше.

Проверка страниц сайта на дубли и синонимы домена

Главная страница сайта может быть доступна по нескольким адресам: с www и без www, со слэшем и без слэша на конце, с окончанием index.html/.php и без него. Это все одна и та же страница, но для поисковой системы это все разные страницы, которые она считает дублями. Такие дубли очень плохо сказываются на ранжировании и их необходимо убирать различными способами.

Также любые другие дубли аналогичным образом мешают занимать высокие позиции в поисковой выдаче.

Проверка на битые страницы

Битые страницы – это те страницы, при запросе которых сервер выдает ошибку 404 (такая страница удалена либо ее не существует), страницы без контента (пустые), итоги поиска по сайту, который завершился безрезультатно и т.д. Такие страницы нужно исключать из индекса поисковых систем, если они там находятся, т.к. это:

  • негативно сказывается на поведенческих факторах вашего сайта;
  • неэффективно расходуется краулинговый бюджет.

Для проверки на наличие битых ссылок советую использовать удобную программу Xenu. Она выдает перечень битых ссылок, его можно экспортировать в отдельный файл. Затем оптимальным решением будет внести их в исключение файла robots.txt.

Страницы без контента можно выявить либо обыкновенны пересмотром, либо проверять те, которые не сдержат тега H1.

Проверка на наличие афилиатов

Афилиат – определенная связь в поисковой базе Яндекса нескольких интернет-ресурсов, запрещающая отображать более одного сайта по запросу, которому они все релевантны. Допустим, одна организация создала несколько дочерних интернет-ресурсов, поиск может подумать, что они связаны с основным сайтом.

Проверка файла robots.txt

Пример работы файла robots.txt
Пример работы файла robots.txt

Это документ, находящийся в корне сайта, помогает закрыть все то, что не нужно индексировать поисковикам. Это касается панели управления сайтом, личных профилей пользователей и иных блоков интернет-ресурса, которые не должны быть в публичном доступе. В нем следует указать главное зеркало для Яндекса и дать ссылку на sitemap.xml.

Команды, которые используются в данном документе:

Host: указываете главное зеркало.

Disallow: этой командой можно закрыть страницы и разделы, которые мы не хотим, чтобы индексировались.

Sitemap: информирует поискового робота о местонахождении ссылки на sitemap.xml, проходя по которой он помещает страницы на индексацию.

User-agent: поисковый робот Яндекс/Googlebot.

* – обозначает любого юзерагента;

/ – в команде Disallow означает запрещение индексации всего содержимого.

Нужно указывать абсолютно все страницы, разделы, которые запрещены для индексации.

Страницы, которые обычно закрывают, потому что они не нужны в индексе:

  • страницы для печати;
  • страницы перечисления (пагинации) с одинаковым описанием;
  • дубли страниц;
  • профили пользователей;
  • страница результатов поиска;
  • страницы, оставшиеся от старой CMS и прочее.

Прочитать инструкции как сформировать файл robots.txt, вы можете на страницах «Помощь в Яндекс.Вембастер» или http://robotstxt.org.ru/.

После создания robots.txt стоит проверить, как его видит Яндекс. Для этого используйте инструмент Яндекс.Вебмастер.

Проверка файла sitemap.xml

Это определенный файл, который содержит информацию о ссылках на все основные страницы сайта. Sitemap.xml создается для роботов поисковых систем. Благодаря карте сайта они быстрее индексируют указанные там страницы, меньше расходуя краулинговый бюджет. В данном файле можно указать до 50000 ссылок на страницы сайта, задать относительный приоритет и частоту обновления страниц.

Анализ скорости загрузки сайта

Скорость загрузки интернет-ресурса – важнейший на сегодняшний день критерий ранжирования поисковыми системами. В дополнение к этому этот параметр существенно влияет на изменение поведенческих факторов, поскольку пользователи не будут долго ожидать загрузки страниц сайта и уйдут на другой.

Наиболее популярные онлайн-сервисы, с помощью которых можно проверить скорость загрузки вашего сайта:

  • https://developers.google.com/speed/pagespeed/insights/ (популярный сервис от Google отображает скорость загрузки в баллах от 0 до 100, причем как для десктопов, так и для мобильных версий интернет-ресурса);
  • https://tools.pingdom.com/ (осуществляет проверку скорости, отображает число запросов к хостингу и некоторые другие параметры. В итоговой таблице достаточно детально отображаются результаты по каждому запросу к серверу. Удобно смотреть, что конкретно мешает ускорить загрузку).
Проверка оптимизации страниц сайта для мобильных устройств и стационарных компьютеров
Проверка оптимизации страниц сайта для мобильных устройств и стационарных компьютеров

Проверка уникальности текстов

Тексты, размещаемые на страницах вашего интернет-ресурса должны быть уникальны.

Проверка текста на уникальность
Проверка текста на уникальность

Онлайн-сервис проверки уникальности контента https://text.ru/. Нужно стремиться к уникальности содержимого страницы от 90%.

Проверка alt и title у изображений

Данные метатеги нужно указывать для лучшего ранжирования сайта в поиске по картинкам. Содержание alt и title также должны быть уникальны и не совпадать между собой

Анализ ссылочного профиля

Для анализа ссылочного профиля сайта можно использовать сервис LinkPad. Перейдя по ссылке https://linkpad.ru/ вы попадете на главную страницу, где необходимо ввести в строку поиска ссылок адрес исследуемого интернет-ресурса и нажать «Найти ссылки».

На получившемся графике сразу будет видна тенденция продвижения ссылками.

Анализ ссылочного профиля
Анализ ссылочного профиля

Для анализа ссылочного профиля сайта можно использовать и платные сервисы, которые показывают значительно более детальную информацию:

  • Ahrefs – сервис, который проводит анализ внешней оптимизации сайта, представляя полученные данные в виде различных диаграмм и графиков.
  • CheckTrust – оценивает качество внешних ссылок;
  • MajesticSEO – сервис проверки обратных ссылок на ваш сайт. C его помощью можно подробно проанализировать URL и узнать ссылочную историю интернет-ресурса.

Есть и другие онлайн-сервисы для этих целей, но вышеперечисленные наиболее известные и популярные.

Проверка на фильтры поисковых систем

Фильтры Яндекса:

  • переспам или переоптимизация – резкое снижение позиций по одному или нескольким запросам, сильная разница в позициях при смене порядка слов в запросе;
  • фильтр за накрутку поведенческих факторов – выпад позиций за топ-50 подтверждение в письме от поддержки Яндекса;
  • АГС – за низкое качество сайта, можно просто улучшить различные разделы и страницы сайта и его снимут.

Фильтры Google:

  • пингвин – наличие замечаний в Search Console в разделе «Меры, принятые вручную», встречается автопингвин, характеризующийся снижением позиций по части запросов;
  • панда – резкое падение трафика и позиций по большинству запросов при слабом контенте;
  • низкое качество – нет трафика и не было никогда, слабый и дублированный контент.

Анализ сниппета

Сниппет – это краткое описание страницы сайта в поисковой выдаче, который позволяет получить представление о документе и даже искомую информацию.  Частота кликабельности сниппета является на сегодняшний день очень важным условием высокого ранжирования поисковыми системами. Поэтому нужно делать его максимально информативным и цепляющим.

Сниппет поисковой системы Яндекс
Сниппет поисковой системы Яндекс

Увеличить содержание сниппета можно заполнив максимально полно информацию в справочнике Яндекса, панели вебмастера Яндекса, на картах Google.

Кроме того, можно внедрить микроразметку http://schema.org/, но для этого возможно потребуется программист.

Также тег title имеет очень важное значение при кликабельности сниппета. Title не должен быть коротким, он должен быть цепляющим, на него должно хотеться кликнуть!

Заголовок H1

Тег h1 должен быть на странице в любом случае, т.к. это указатель поисковому роботу какой заголовок из всего текста здесь самый главный. Заголовок с тегом h1 следует размещать выше всех остальных. Если этого тега нет, то это недоработка и ее желательно устранить. Если же этих тегов несколько, то это уже ошибка, поскольку поисковый робот сам может неправильно определить, что нужно индексировать в первую очередь.

Проверка наличия h1
Проверка наличия h1

Проверка наличия и содержания тега title и метатегов (description и keywords)

Эти теги и метатеги также должны быть уникальны и не повторяться на других страницах вашего интернет-ресурса.

Тег title – самый главный тег, который учитывается при ранжировании. Общая рекомендация по его длине – среднее значение по топ-10 из поисковой выдачи из вашей тематики.

Метатег description – описание страницы сайта, прямо не учитывается поисковыми системами при ранжировании, но может частично выводиться в сниппете в Яндексе и почти всегда в Google.

Метатег keywords давно утратил свою актуальность для Яндекса и Google, поэтому сейчас его уже лучше не заполнять вовсе, чтобы не получить фильтр от поисковиков за переспам или переоптимизацию.

Здесь перечислены только основные параметры, анализируя которые можно провести технический аудит сайта и выработать рекомендации по его продвижению. В качестве примера чек-листа для проведения технического аудита можете скачать вот этот. Полные технические аудиты состоят из нескольких десятков пунктов, производят более детальный анализ интернет-ресурса. Кроме того, успешное продвижение сайта невозможно без проведения полноценного технического аудита.

1 ответ к “Технический аудит сайта”

К анализатором ссылочного профиля я бы еще добавил хороший инструмент Serpstat. Сравните его показатели с Маджестиком, он тянет ссылок либо также, либо больше. Ахрефс пока не переплюнет, но как альтернатива подешевле — самое то. и он показывает трастовость/авторитетность доноров акцепторов — причем адекватную, что приятно

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *