t. +7 (495) 620-58-99
+7 (495) 620-58-99
Начнем знакомство?
/
/
Продвижение сайта в Google
Блог
29335
24.10.2021

Продвижение сайта в Google

Google — самый популярный поисковик в мире. По данным StatCounter, с его помощью ищут информацию 91,65% пользователей. На территории России — второй по популярности, отстающий от Яндекса меньше, чем на 10%. Поэтому оптимизация и продвижение сайта в Google актуальны и востребованы для компаний. Особенно, если стоит задача получить 100% в охвате целевой аудитории в интернете.

Статистика использования Google в России и мире
Рисунок 1. Статистика использования Google в России и мире

Google в России считается титаном среди поисковых машин, на долю которого приходится около 40% трафика по данным Яндекс Радар. Большинство из них идет с мобильных устройств, поскольку система по умолчанию установлена на аппаратах с ОС Android. Поэтому следует учитывать особенности продвижения в Google, чтобы вывести сайт в ТОП выдачи и увеличить трафик.


Одно из главных преимуществ SEO продвижения ресурса в Гугле — длительная сохранность результата. Даже после того, как все работы закончены, сайт не будет терять позиций и останется в ТОПе выдачи пока конкурирующие ресурсы не смогут его вытеснить. А также:


Быстрый результат
Из-за ежедневного обновления поисковой выдачи, результаты заметны быстрее, чем в Яндексе, где апдейт происходит 1-2 раза в неделю.
Стабильность
Глобальные изменения в алгоритмах поисковой системы происходят редко, раз в 1-2 года. Поэтому продвижение сайтов в топ Google актуально для комплексных рекламных кампаний брендов.

Если регулярно проводить проверку оптимизации площадки, устранять технические ошибки и осуществлять внешнее продвижение, можно сохранять полученные позиции без дополнительных вложений. Чем выше сайт будет располагаться в ТОПе, тем больше трафика у него будет. Соответственно, тем больше целевых действий от посетителей сможет получить владелец бизнеса.

Особенности продвижения в Гугл

Продвижение сайта в Гугл во многом перекликается с аналогичным действием в поисковой системе Яндекс. Однако некоторые различия в алгоритмах все-таки существуют. Для получения хороших позиций в поисковой выдаче необходима:

  • адаптация под мобильные устройства, поскольку со смартфонов и планшетов Google пользуются 52% пользователей;
  • качественная ссылочная масса.

Главный принцип продвижения сайта в Google — сделать полезный и удобный для пользователя ресурс. Но за вполне логичным правилом скрывается сложный механизм поисковой системы, выполнение условий которой обеспечит первые позиции в выдаче.

Нужна помощь в продвижения проекта в Google?
Мы знаем все нюансы оптимизации

Алгоритмы Google

Знание алгоритмов и фильтров поисковой системы позволяет достичь отличного результата и качественного продвижения сайта. Google регулярно занимается обновлением работы поиска, что позволяет улучшить качество выдачи, а также бороться с некачественными ресурсами.

Алгоритмы поисковой системы Google
Рисунок 2. Алгоритмы Google
Краткая сводка об алгоритмах
Алгоритм
Цель создания
Дата выхода
Sandbox
Песочница — один из первых фильтров поисковой системы. Обращает внимание на молодые или сменившие тематику сайты, которые активно наращивают ссылочную массу. Ресурс, попавшим под алгоритм, отображается в кэше Google, однако страницы не появляются в результатах выдачи. Фильтр снимается через 6-12 месяцев.
2004
Panda
Появился в ответ Google на массовые жалобы на сайты в ТОПе с неуникальным и вторичным информационным контентом. Фильтр борется с неуникальным и переспамленным ключевыми запросами контентом. Убирает из первых строчек поисковой выдачи сайты со штампами и копиями, а также веб-ресурсы с недостаточным количеством контента. Такие страницы понижаются в выдаче Google, оставляя в ТОПе ресурсы с постоянно обновляемым и уникальным содержимым.
2011
Penguin
Направлен на борьбу с поисковым спамом. Является одним из основных алгоритмов Google наряду с «Пандой». Снижает позиции, вытесняя из ТОПа сайты с неестественной ссылочной массой. Фильтр «Пингвин» стал частью основного поискового алгоритма Google и работает автономно и без обновлений. Наказывает и убирает с лидирующих позиций страницы за покупные ссылки с низкокачественных спамных сайтов или ведущие с нерелевантных по содержанию страниц. Учитывает содержимое анкоров.
2012
Colibri
Основывается на понимании намерений пользователя. Google улучшил понимание синонимов и разделил контент по тематикам. Алгоритм пристально следит за переспамом конкретного ключевого слова.
2013
Mobile Friendly
Специализируется на выдаче для пользователей с мобильных устройств. Фильтр позволяет страницам с мобильной версией ранжироваться выше в результатах мобильного поиска. Штрафных санкций нет, но делать свой интернет-ресурс удобным для мобильных пользователей крайне желательно. Это увеличивает конверсию.
2015
Rankbrain
Предназначен для расшифровки смысла запросов пользователей и предоставляет релевантные результаты в зависимости от контекста. Штрафует сайты за низкую релевантность пользовательскому запросу и за плохие поведенческие показатели.
2015
Fred
Запущен как способ борьбы с нарушителями рекомендаций для вебмастеров, злоупотреблением баннерной, pop-up и другими видами рекламы. «Фред» также наказывает сайты с большим количеством исходящих ссылок и контентом, написанным специально для генерации трафика.
2017
Bert
Фильтр, работающий над улучшением релевантности результатов поисковой выдачи за счет анализа предложений.
2019
Florida 2
Алгоритм, анализирующий контент по фактору E-A-T — экспертности, авторитетности и надежности. Анализирует качество ссылочного профиля и учитывает авторитетность проектов. Обновление алгоритма зафиксировано в августе 2019 года.
2019
Алгоритм
Sandbox
Цель создания
Песочница — один из первых фильтров поисковой системы. Обращает внимание на молодые или сменившие тематику сайты, которые активно наращивают ссылочную массу. Ресурс, попавшим под алгоритм, отображается в кэше Google, однако страницы не появляются в результатах выдачи. Фильтр снимается через 6-12 месяцев.
Дата выхода
2004
Алгоритм
Panda
Цель создания
Появился в ответ Google на массовые жалобы на сайты в ТОПе с неуникальным и вторичным информационным контентом. Фильтр борется с неуникальным и переспамленным ключевыми запросами контентом. Убирает из первых строчек поисковой выдачи сайты со штампами и копиями, а также веб-ресурсы с недостаточным количеством контента. Такие страницы понижаются в выдаче Google, оставляя в ТОПе ресурсы с постоянно обновляемым и уникальным содержимым.
Дата выхода
2011
Алгоритм
Penguin
Цель создания
Направлен на борьбу с поисковым спамом. Является одним из основных алгоритмов Google наряду с «Пандой». Снижает позиции, вытесняя из ТОПа сайты с неестественной ссылочной массой. Фильтр «Пингвин» стал частью основного поискового алгоритма Google и работает автономно и без обновлений. Наказывает и убирает с лидирующих позиций страницы за покупные ссылки с низкокачественных спамных сайтов или ведущие с нерелевантных по содержанию страниц. Учитывает содержимое анкоров.
Дата выхода
2012
Алгоритм
Colibri
Цель создания
Основывается на понимании намерений пользователя. Google улучшил понимание синонимов и разделил контент по тематикам. Алгоритм пристально следит за переспамом конкретного ключевого слова.
Дата выхода
2013
Алгоритм
Mobile Friendly
Цель создания
Специализируется на выдаче для пользователей с мобильных устройств. Фильтр позволяет страницам с мобильной версией ранжироваться выше в результатах мобильного поиска. Штрафных санкций нет, но делать свой интернет-ресурс удобным для мобильных пользователей крайне желательно. Это увеличивает конверсию.
Дата выхода
2015
Алгоритм
Rankbrain
Цель создания
Предназначен для расшифровки смысла запросов пользователей и предоставляет релевантные результаты в зависимости от контекста. Штрафует сайты за низкую релевантность пользовательскому запросу и за плохие поведенческие показатели.
Дата выхода
2015
Алгоритм
Fred
Цель создания
Запущен как способ борьбы с нарушителями рекомендаций для вебмастеров, злоупотреблением баннерной, pop-up и другими видами рекламы. «Фред» также наказывает сайты с большим количеством исходящих ссылок и контентом, написанным специально для генерации трафика.
Дата выхода
2017
Алгоритм
Bert
Цель создания
Фильтр, работающий над улучшением релевантности результатов поисковой выдачи за счет анализа предложений.
Дата выхода
2019
Алгоритм
Florida 2
Цель создания
Алгоритм, анализирующий контент по фактору E-A-T — экспертности, авторитетности и надежности. Анализирует качество ссылочного профиля и учитывает авторитетность проектов. Обновление алгоритма зафиксировано в августе 2019 года.
Дата выхода
2019

Обновления 2021 года

В 2021 году Гугл представил новый алгоритм, который расставил новые приоритеты. Page Experience основан на опыте поведения пользователей на страницах ресурса. Он учитывает не только UX-сигналы, но и значения от Core Web Vitals (набор показателей, который измеряет загрузку и стабильность сайта). Алгоритм отдает предпочтение только тем виртуальным площадкам, которые заботятся о посетителях — делают свои страницы удобными.

Компоненты Page Experience
Рисунок 3. Сигналы ранжирования Page Experience

Уникальные инструменты Google

Google
Поисковик с авторскими технологиями, позволяющими поднять продажи, привлечь новых пользователей на сайт.
Google Analytics
Функциональная система веб-аналитики, с помощью которой можно отслеживать ассоциированные конверсии, источники посещений сайта, а также составлять аватар целевой аудитории. Google Analytics учитывает намного больше посетителей, чем другие системы, поэтому является одной из самых надежных и популярных, опережая конкурентов. Анализ накопленной статистики поможет выявить проблемы, влияющие на продвижение сайта в Google.
Google Search Console
Инструмент веб-мастера дает информацию об индексации сайта, входящих и внутренних ссылках, поисковых запросах, позволяет присвоить регион, а также предлагает рекомендации по адаптации для мобильных устройств. Незаменимый инструмент в seo продвижении сайта в Google.
Google Мой Бизнес
Создание бесплатного профиля компании в сервисах поисковика для привлечения клиентов на поиске в Картах.

Выбор доменной зоны

При ранжировании поисковые системы учитывают домен. Считывая информацию, робот сможет узнать:

  1. Возраст и историю домена.
    Если сайт раньше использовался для продажи ссылок, то занять позиции в ТОПе Гугл будет крайне тяжело.
  2. Название.
    Отдайте предпочтение кратким лаконичным доменным именам без разночтений.
  3. Доменная зона.
    Для продвижения в Рунете не следует выбирать домены других стран, а также не рекомендуется использовать бесплатные домены третьего уровня вложенности.

Проверка индексации

Индексация — ключевой аспект продвижения сайта в Гугле. Важно устранить все препятствия, которые могут помешать корректному внесению страниц в индекс поисковой системы. 


Под термином «индексация» понимается загрузка контента страницы и добавление ее в индекс. Последний представляет собой хранилище информации обо всех ресурсах.


Как проверить, есть ли сайт в Гугл

Чтобы убедиться, что сайт прошел индексацию, необходимо проверить его наличие в поисковой машине Гугл. Нужно внести «site: адрес ресурса» в строку поиска.

Проверка индексации сайта в Google
Рисунок 4. Проверка индексации в Google

Если поисковая машина в результате выдаст список сайтов-результатов, это означает, что ресурс присутствует в индексе Гугла.


В противном случае сайт может отсутствовать по следующим причинам:

  • возникновение ошибки во время сканирования роботом;
  • сайт новый, поисковый робот не успел провести его индексацию;
  • в настройках ресурса запрет индексации для робота Google;
  • неудачная внешняя оптимизация — мало ссылок со сторонних ресурсов;
  • структура сайта не подходит для индексации, робот не понимает куда можно перейти с главной.

Индексация может затянуться, поскольку робот сканирует несколько миллиардов страничек. Соответственно, владельцу нового сайта придется запастись терпением.

Как добавить сайт в Гугл

Продвижение сайта Google начинается с попадания в хранилище поисковой машины. Платить и или отправлять разработчикам информацию о сайте не придется. Поисковая система работает на полностью автоматизированной основе. Роботы Гугла регулярно сканируют сайты на предмет обновлений и в случае обнаружения новых ресурсов добавляют их в свой индекс. 


Если при создании сайта были выполнены все условия качественной оптимизации, это гарантирует ему попадание в базу поисковой машины. Важными моментами являются следующие:


  • Отвечает ли контент принятым стандартам?
  • Быстро ли загружается содержимое?
  • Безопасен ли портал для посетителей?

Если вашего сайта еще нет индексе, необходимо создать аккаунт веб-мастера в Google Search Console и направить робота на обход вручную. В дальнейшем инстурмент поможет следить за сканированием ресурса и будет присылает уведомления о найденных ошибках.

Инструкция как добавить сайт в Search Console
Рисунок 5. Инструкция как добавить сайт в Search Console

Как помочь Гуглу индексировать важный контент

Чтобы ускорить индексацию, можно помочь поисковой машине быстрее обнаружить новый сайт или страницы. Для это нужен специальный файл Sitemap, который размещается в корне сайта. Он представляет собой xml карту сайта с информацией обо всех изменениях и новых страницах ресурса.

Для создания карты можно использовать специальные сервисы или генерацию через систему управления. Проверить валидность sitemap.xml можно в Google Search Console. Адрес карты необходимо указать в robots.txt.

Поможет индексации может активное размещение ссылок на внешних авторитетных ресурсах. Если поисковая машина относится к ним с доверием, то сайт, на который они ссылаются, обязательно попадет в ее индекс.

Как заблокировать сканирование страниц

Если нужно проиндексировать не все страницы ресурса, можно запретить роботу Гугла их сканирование. Закрывать от индексации следует страницы с неуникальным контентом, пустые разделы, url с параметрами — они могут только навредить SEO-продвижению в Google. Из соображений безопасности всегда закрытыми должны быть служебные разделы и страницы с конфиденциальными данными.

Нельзя закрывать от индексации скрипты, страницы пагинации, изображения, стили.

Файл robots.txt содержит правила для обхода роботом разделов сайта. Здесь как раз можно указать, какие страницы индексировать не следует.

Правило
Расшифровка
User-agent: *
Указание имени робота (* — для всех поисковиков).
Disallow: /
Закрыть сайт.
Disallow: /catalog/
Закрыть папку.
Disallow: /catalog/page.html
Закрыть страницу.
Правило
User-agent: *
Расшифровка
Указание имени робота (* — для всех поисковиков).
Правило
Disallow: /
Расшифровка
Закрыть сайт.
Правило
Disallow: /catalog/
Расшифровка
Закрыть папку.
Правило
Disallow: /catalog/page.html
Расшифровка
Закрыть страницу.

Иногда робот гугла может сканировать, несмотря на запреты.

Если разделы содержат какую-либо конфиденциальную информацию, лучше использовать более надежные методы блокировки:

  • защита паролем;
  • использование директивы noindex (Чтобы тег действовал, поисковому роботу не должен быть заблокирован доступ к странице в файле robots.txt);
  • метатег — удаление сниппета из выдачи.

Самым простым и надежным методом запрета сканирования информации сайта является ее предварительное удаление. Не рекомендуется позволять проверку страниц, которые были созданы во время работы прокси-серверов.

Отображение в поиске

При продвижение сайта в поисковой системе Google важно чтобы он выделялся в результатах выдачи. Для этого нужно чтобы ресурс отражался с дополнительными элементами или функционалом. Например, это может быть:

  • количество звезд по оценкам клиентов;
  • структурированный сниппет;
  • присутствие дополнительной информации, полезной для целевой аудитории и т. д.

Если на поисковый запрос можно дать однозначный ответ — шанс попасть в “быстрые ответы”. Данный блок предназначен для мгновенного ответа на вопрос пользователя. Оптимизация под быстрые ответы — повышение вероятности попасть в топ выдачи.

Пример быстрого ответа в поиске
Рисунок 6. Быстрые ответы в поиске

Навигация

Грамотная организация навигации на сайте залог удобства перемещения пользователей и  увеличения глубины просмотра, а значит улучшения поведенческих факторов. На структуру сайта ориентируется и поисковая машина, определяя, какой контент владелец ресурса определяет как наиболее важный.


Навигация всегда начинается с главной страницы, ее посещают чаще, чем остальные. При наличии широко разветвленной структуры необходимо продумать, как посетители будут попадать с «корневого» раздела на нужную страницу. К примеру, можно добавить отдельную страницу с перечнем и описанием разделов, посвященной одной теме.


Пример структуры сайта
Рисунок 7. Пример простой структуры сайта

Обязательный инструмент навигации — наличие хлебных крошек. Они представляют собой последовательность ссылок от главной до текущей страницы, по которым можно перейти на предыдущий раздел или вернуться на главную страницу. Дополнительно следует создать HTML карту сайта, где будет показана структура ресурса. Эта информация — в основном для посетителей, но может быть полезной и для поисковых машин.

При четко сформированной структуре есть шанс что на выдаче в сниппете появится навигационная цепочка.

Пример навигационной цепочки
Рисунок 8. Пример навигационной цепочки

ЧПУ

Под ЧПУ в SEO-продвижении понимают «человекопонятные урлы», то есть по URL страницы можно однозначно ответить чему посвящена текущая страница и в каком разделе она находится. Желательно, чтобы адрес страницы был:

  • простым;
  • коротким (до 5 слов);
  • легко запоминался;
  • состоял из слов.

Слишком длинные URL с большим набором букв и цифр озадачивают пользователя, особенно если в них присутствуют неочевидные части.

Микроразметка страниц

Поисковые страницы интерпретируют содержимое страницы ресурса с помощью кода, в частности, посредством структурирования данных. Микроразметка учитывается при формировании сниппета и делает его привлекательным для потенциальных клиентов.


К примеру, при микроразметке страниц с представленным товаром покупатель сможет увидеть его наличие, стоимость и характеристики уже в выдаче. Полезным будет также указание часов работы магазина — в результате поисковая машина отобразит, открыта ли торговая площадка на данный момент.

Пример сниппета фильма с микроразметкой
Рисунок 9. Пример сниппета с микроразметкой

В разметке можно указать:

  • логотип;
  • характеристику отдельных товаров;
  • часы работы;
  • адрес;
  • списки мероприятий и т. д.

Не стоит создавать микроразметку страниц самостоятельно, для этой цели лучше использовать Мастер разметки структурированных данных и Google Маркер. Первый инструмент создаст специальный код и добавит его на страницу. Google Маркер поддерживает любые типы контента, его использование не требует менять исходные данные сайта.


Отследить эффективность микроразметки можно в Search Console. Там присутствуют данные, сколько раз за последние 90 дней пользователи переходили по появившимся результатам. 


Внедрив микроразметку в код сайта, можно получить расширенный сниппет в поисковой выдаче Google. Существует два стандарта разметки: Shema.org и OpenGraph для социальных сетей.

Увеличение скорости загрузки страниц

Для поисковой системы Гугл скорость загрузки страниц — один из основных факторов ранжирования.

Факторы, влияющие на скорость загрузки страницы
Рисунок 10. Факторы, влияющие на скорость загрузки страницы

Повысить этот показатель можно следующими способами:

  1. Отложенная загрузка — lazy load.
    Подойдет, если в контенте есть изображения с высоким разрешением. Установив «ленивую» загрузку, пользователь не будет ждать появления всего содержания сразу, перед ним будет часть контента, которая умещается на экране. Особенно необходим такой способ для страниц с «бесконечной прокруткой».
  2. Избавиться от ненужных плагинов.
    Зачастую утилиты, используемые для расширеной функциональности, снижают скорость отклика сайта. Многие из них запрашивают информацию у сторонних сайтов, что еще сильнее замедляет загрузку.
  3. Использовать новейшие версии CMS.
    Как правило новые версии систем управления разработаны для оптимизации скорости работы сайта.

Если скорость загрузки первого байта больше 2 секунд, рекомендуется переехать на хостинг региона, в котором проживает целевая аудитория.


Часто страницы долго загружаются из-за больших и тяжелых изображений, которые следует оптимизировать. Есть несколько способов:

  • Сжать на специальных сервисах.
  • Создать изображения в размере, которое будет использоваться на сайте.
  • Заменить маленькие изображения (например, указатели) на символы.
  • Использовать разные форматы изображений: jpeg для фото, png для графики, svg для векторных изображений.
  • Использовать новых графических форматов. Они сжимают и конвертируют фото до удобного размера, не замедляющего их загрузку. Среди таких форматов — WebP, JPEG2000 и т. д.

Увеличить скорость загрузки страницы можно также оптимизацией размера кода CSS и JavaScript. Необходимо удалить лишние пробелы, комментарии и неиспользуемые строки файлов. Для этого можно использовать минификаторы кода.


Больше советов в статье «Рекомедации по увеличению скорости загрузки сайта».

Оптимизация под мобильные устройства

Доля трафика с мобильных устройств постоянно растет, поскольку все большее количество пользователей используют мобильные гаджеты для серфинга в интернете. Соответственно, сайт должен быть оптимизирован под небольшие экраны смартфонов и планшетов. Отсутствие адаптации ресурса под мобильные устройства приводит к увеличению отказов и ухудшению поведенческих, даже несмотря на содержательность контента. 


При поиске с мобильного устройства в ТОПе Google будут размещены исключительно адаптивные сайты. Важно учитывать удобство на небольшом экране смартфона: крупный шрифт, сжатые изображения, практичное расстояние между интерактивными элементами и высокая скорость загрузки страницы.


Существует несколько способов адаптации сайта:

  1. Адаптивный дизайн
    Сайт адаптируется под размер экрана.
  2. Разные адреса для мобильной и десктопной версии
    Система определяет тип устройства и перенаправляет на соответствующий адрес сайта.
  3. Динамический показ
    Система получает информацию и о браузере и отдает соответствующий вариант HTML-кода.

При использовании отдельной мобильной версии или динамического показа важно «предупредить» об этом Гугл. Для различных версий на странице для мобильных нужно с помощью тега <link> с атрибутом rel=”canonical” указать адрес десктопной версии страницы, и наоборот с помощью того же тега, но с атрибутом rel=”alternate”. 


При динамическом показе нужно использовать HTTP-заголовок Vary для оповещении о изменениях в зависимости от агента пользователя. В таком случае робот будет верно направлять поток пользователей, осуществляющих поиск со смартфонов и планшетов. Адаптивный дизайн использует тег meta name=”viewport” для корректного отображения страницы.

В справке Google указывает, что при выборе способа адаптации предпочтение лучше отдать адаптивному дизайну.

Пример адаптации сайта под разные устройства
Рисунок 11. Пример адаптивного сайта

Независимо от выбранного способа адаптации изображения, стили и скрипты должны быть полностью доступным для сканирования. Блокировка не даст поисковику корректно получить информацию о сайте. А также важно полностью сохранять функционал на всех видов устройств. Мобильная версия должна иметь аналогичную структуру, как и десктопная. Убедиться нужно и в доступности изображений.


Если на сайте присутствует большое количество страниц, содержащих статический контент, можно использовать технологию Accelerated Mobile Pages (AMP). Это фреймворк, который повышает скорость  загрузки страниц и обеспечивает удобство использования сайта для пользователей с мобильных устройств. Страницы, созданные по технологии AMP ранжируются выше в поисковой выдаче.


Подробнее о технологии AMP.


Наличие SSL сертификата

SSL-сертификат — технология, позволяющая защитить передаваемые данные от мошенников при помощи шифрования. Браузер запрашивает сертификат подлинности у сервера и сверяет его с выданным в центре сертификации. В случае успеха браузер и сервер устанавливают безопасное соединение.


Защищенное соединение необходимо для роста доверия клиентов, а также оно влияет на ранжирование в поисковой системе Google.


Подробнее про переезд на HTTPS.


Читайте продолжение статьи об нюансах продвижения в Google. Далее рассмотрим особенности оптимизации текстового контента и изображений.