t. +7 (495) 620-58-99
+7 (495) 620-58-99
Начнем знакомство?
Начнем знакомство?
/
/
Чеклист для технической оптимизации сайта: советы для реализации в 2017 году
Блог
5087
01.02.2017

Чеклист для технической оптимизации сайта: советы для реализации в 2017 году

В 2016 году было много рассуждений по поводу важности технического аспекта в продвижении сайтов. Кто-то сравнивал это понятие с «макияжем», с помощью которого можно сделать сайт более «привлекательным» для поисковых систем. Некоторые назвали эту составляющую уже мертвой, но, в конечном счете, ее значение было возвращено к жизни изящно и убедительно с выдающимися примерами различных технических решений, приводящих к значительному увеличению трафика.

Так почему же мнения по поводу этой, казалось бы, бесспорной темы разделились? Проблема может заключаться в самом определении технической составляющей SEO, которая характеризуетcя как определенные действия, проводимые на сайте и сервере с целью улучшить юзабилити сайта, обход и индексацию сайта поисковыми роботами. На основе представленного понятия все могут согласиться, что техническая оптимизация является необходимым условием для успешного ранжирования сайта.

В этой статье мы остановимся на семи основных этапах технической оптимизации, с учетом тенденций 2017 года. Некоторые из них уже были актуальны в течение определенного времени, другие – довольно новые и должны быть приняты во внимание с учетом последних изменений.

Итак, поехали!

1. Проверка индексации

Давайте начнем с проверки количества страниц сайта, которое находится в индексе поисковых систем. Для этого вы можете использовать синтаксис «site:домен.com» в поисковой строке или воспользоваться SEO-краулером, таким как WebSite Auditor.

 chek

В идеале, это число должно в бОльшей степени совпадать с количеством страниц вашего сайта, за исключением тех, которые закрыты от индексации. Если значение в корне отличается от того, что вы ожидали, вам необходимо пересмотреть заблокированные страницы. Это подводит нас к следующем пункту.

2. Убедитесь, что важные ресурсы открыты для сканирования

Вы можете подумать, что для проверки индексации вашего сайта достаточно просмотреть robots.txt. Однако, не все так просто. Robots.txt является лишь одним из способов ограничить индексацию страниц, поэтому вам стоит использовать SEO краулер, чтобы получить список всех заблокированных страниц, независимо от того, какие директивы были найдены в robots.txt, прописаны ли метатеги noindex или HTTP-заголовок X Robots Tag.

Помните, что теперь Google может отображать страницы так, как это делают современные браузеры. Вот почему в 2017 году критически важно, чтобы для сканирования были открыты не только страницы сайта, но и все системные файлы (такие как CSS и JavaScript). Если ваши CSS файлы будут закрыты от индексации, Google не увидит страницы такими, какими они должны быть в отображении (и, вероятнее всего, версия страницы без стилей будет настоящей катастрофой с точки зрения UX-дизайна). Точно так же, если ваш JS не будет доступен для робота, Google не проиндексирует ни одного динамически сгенерированного элемента вашего сайта.

Если ваш сайт создан на AJAX или использует JavaScript в большей степени, вам понадобится специальный краулер для сканирования и визуализации данных файлов. В настоящее время их два: WebSite Auditor и Screaming Frog.

3. Оптимизируйте краулинговый бюджет

Краулинговый бюджет – это количество страниц, которое поисковой робот может обойти за определенный период времени. Получить представление о краулинговом бюджете вашего сайта, вы можете с помощью Google Search Console:

chek1

К сожалению, Google Search Console не покажет вам всю статистику сканирования с разбивкой постранично. Для более подробного анализа данных, вы можете проанализировать логи сервера (максимально удобным будет использование специализированного инструмента WebLogExpert).

Как только вы узнали ваш краулинговый бюджет, вам необходимо задаться вопросом, а есть ли способ его увеличить. И отчасти он существует. SEO специалисты точно не знают, как именно Google присваивает тому или иному сайту определённый бюджет, но существуют две основные теории, которые гласят, что ключевыми факторами являются:

  • количество ссылок на внутренние страницы
  • количество внешних ссылок с других сайтов.


    Команда Link-Assistant проверила обе теории на 11 сайтах. Для этого с помощью сервиса SEO SpyGlass были проверены внешние и внутренние ссылки на страницы сайта, а также статистику их сканирования:

    chek2

    Данные показали сильную корреляцию (0,978) между количеством посещений страницы пауком и бэклинками (входящими ссылками). Корреляция между визитами робота и внутренними ссылками, оказывалось гораздо слабее (0,154).

    Очевидно, что вы не сможете нарастить свой ссылочный профиль за одну ночь (хотя размещение внешних ссылок до сих пор является хорошим способом для того, чтобы страницы индексировались чаще). Но, есть способы, которые позволят оптимизировать ваш краулинговый бюджет гораздо быстрее:

      • Избавьтесь от дублей страниц. В данной ситуации, канонические URL особо вам не помогут: поисковые системы будут продолжать заходить на дублированные страницы, тем самым, тратя в пустую ваш краулинговый бюджет.
      • Закройте от индексации страницы, бесполезные для SEO. Конфиденциальная информация, различные термины или акции с истекшим сроком действия являются прекрасными кандидатами для внесения их в файл robots.txt с директивой Disallow. Кроме того, вы можете задать определенные параметры URL в панели вебмастеров, так, чтобы Google не сканировал одни и те же страницы с разными параметрами по отдельности.
    chek3
      • Избавляйтесь от битых ссылок. Каждый раз, когда робот посещает страницы, отдающие 4XX/5XX ошибки, ваш краулинговый бюджет пропадает зря.
      • Следите, чтобы карта сайта (sitemap.xml) была актуальной, а также добавлена в панель вебмастера.

    Четкая и логичная структура сайта не только оптимальна с точки зрения UX-дизайна, она также упрощает процесс сканирования. Кроме того, внутренняя перелинковка помогает более эффективно распределить вес (или PageRank) между страницами.

    4. Проверяйте внутренние ссылки

    Вот то, что вам необходимо учитывать при аудите внутренних ссылок:

      • Уровень вложенности. Сохраняйте структуру своего сайта максимально простой, так, чтобы между важными страницами и главной было не более 3 переходов.

      • Битые ссылки. Они смущают посетителей и понижают страницы в выдаче. Большинство SEO краулеров покажет их вам, но найти все, может быть довольно сложно. Кроме элементов HTML, не забудьте проверять теги, HTTP-заголовки и карту сайта. 

    • Редиректы. Даже если пользователь, в конечном счете, попадет на нужную страницу, длительный процесс перехода по редиректам будет негативно влиять как на время загрузки страницы, так и на краулинговый бюджет. Ищите цепочки из трех и более редиректов и обновляйте перенаправление к нужной странице сразу, как только вы их находите.
    chek4
      • «Страницы-сироты» – это страницы, которые не залинкованы с другими страницами вашего сайта. Таким образом, их будет трудно найти как пользователям, так и поисковым системам.

      5. Пересматривайте карту сайта

      Вы уже знаете, насколько важна карта сайта. Она показывает поисковым системам структуру вашего, тем самым, позволяет быстрее обнаружить новый контент. Есть несколько критериев, по которым необходимо проверять вашу Sitemap:

        • Актуальность. Ваша XML-карта должна обновляться каждый раз, когда на вашем сайте был добавлен новый контент.
        • Чистота. Избавьтесь от лишнего мусора (страницы, отдающие 4XX ошибки, неканонические страницы, страницы с редиректами или закрытые от индексации) — иначе, вы можете рискнуть заставить поисковую систему игнорировать Sitemap вовсе. Не забудьте регулярно проверять карту сайта на ошибки, используя Google Search Console.
        • Размер. У Google установлен лимит на проверку карты в 50 000 URL. В идеале, вы должны постараться сделать ее гораздо меньше, чтобы важные страницы сканировались чаще. Большинство оптимизаторов отмечают, что уменьшение количества URL в карте сайта приводит к увеличению числа обхода страниц.

      6. Проверяйте и сокращайте скорость загрузки страниц

      Кроме того, что показатель скорости загрузки страниц стал одним из главных приоритетов для Google в 2017 году, он также является важным фактором ранжирования. Вы можете протестировать время загрузки страниц с помощью инструмента PageSpeed Insights Google. Ввести вручную URL всех страниц сайта, может занять много времени. Для этих задач вы можете использовать WebSite Auditor, т.к. инструмент PageSpeed Google был интегрирован прямо в него.

      Если какая-либо из страниц вашего сайта не проходит проверку, Google даст вам рекомендации по их исправлению. Вы даже сможете получить ссылку для скачивания сжатой версией изображения, если она будут слишком тяжелой. Не говорит ли это о том, какое значение для Google имеет скорость загрузки сайта?

      7. Оптимизируйте мобильную версию

      Google уже анонсировал, что отдает приоритет сканированию мобильных версий страниц место ПК-версии. И от того как будет оптимизирована мобильная версия страниц вашего сайта, зависит и какое место она будет занимать в результатах и мобильной, и десктопной выдачи.

      Вот самые важные аспекты, о которых вы должны позаботиться, что подготовить ваш сайт к эти мизменениям:

        • Проверьте, оптимизирована ли мобильная версия вашего сайта, с помощью сервиса Google –  Mobile Friendly Test.
      •  
        • Проведите расширенный аудит мобильной версии сайта точно так же, как для ПК-версии. Вы, вероятно, должны будете, использовать соответствующий User Agent и определенные настройки robots.txt для SEO краулера, который будете используете.
        • Отслеживайте позиции мобильных страниц. Наконец, не забывайте отслеживать позиции по запросам в мобильной выдаче, т.к. эти изменения, вероятно, скоро будут влиять и на позиции сайта в обычной выдаче.

      Новый 2017 год может стать началом глобальных изменений. Пользователи становятся все более и более требовательными не только к качеству контента, но и к удобству сайтов. Аналогичные требования возникают и у поисковых систем. Поэтому для SEO-оптимизаторов очень важно учитывать предстоящие тенденции, чтобы быть готовым к возможным проблемам.

      Источник:  SearchEngineLand