Google Webmasters

Я рад всех приветствовать, мы сегодня рассмотрим Webmasters Google.

Основные рекомендации по Google Webmasters

  1. Вид в поиске — Оптимизация HTML — Не должно быть никаких ошибок.
  2. Сканирование — Просмотреть, как GoogleBot.
  3. Сканирование — Файлы Sitemap — Добавить XML карту сайта.
  4. Поисковый трафик — Удобство просмотра на мобильных устройствах — Не должно быть ошибок.
  5. Поисковый трафик — Меры, принятые вручную — Редко бывает, но все же.
  6. Проблемы с безопасностью — Показывает все вирусы.

Для того, чтобы это все было более наглядно, перейдем в сам Google Webmasters и посмотрим, что и как там устроено.

Значит смотрите, здесь у нас есть некие данные, основная статистика — текущий статус. Ошибки индексирования, какой у нас трафик, и файлы Sitemap — это, собственно, сколько было отправлено URL и сколько было проиндексировано.

Мы видим небольшую разницу, нужно будет выявить, почему она есть.

Здесь также мы видим какие-то важные сообщения, на которые я рекомендую всегда обращать внимание. И, соответственно, вовремя их обрабатывать. Как правило, там часто встречаются какие-то ошибки, нововведения, изменения и тд.

Если вы не используете микроразметку и структурирование данных, то первые 3 пункта вам, в принципе, не нужны.

Поэтому переходим в оптимизацию HTML.

Что мы здесь видим? Здесь, в принципе, рекомендации от Google по основным каким-то ошибкам на сайте. На что он ссылается? Например, очень длинные теги Title или слишком короткие, неинформативные и тд.

Все эти подсказки мы можем взять на вооружение. И повторяющиеся заголовки тега Title. Мы можем увидеть, что, оказывается, на двух страницах есть одинаковый Title.

И нужно зайти на эти страницы и переписать, исходя из ключевых слов, какой Title где должен быть.

Если мы хотим улучшить наше ранжирование, на мобильных устройствах и улучшить поведенческие факторы, то, как в Яндексе есть турбо-страницы, здесь есть AMP-страницы.

И, в принципе, их можно рассмотреть.

Это все сделано для того, чтобы пользователи на более медленном интернете не ждали загрузки страницы по несколько секунд, а получали загрузку в 10 раз быстрее.

Теперь мы переходим в поисковый трафик.

Анализ поисковых запросов

Здесь бы я рекомендовал вам именно рассматривать клики, показы, CTR и позицию. Вот именно в таком разрезе. За достаточный период времени.

Мы можем выбрать диапазон, например, последние 90 дней. Этого более, чем достаточно.

Значит, что дальше мы с вами делаем. Нам нужно отсортировать по показам.

И мы видим самые частотные, самые имеющие большее количество просмотров запросы. И следующее, на что нам нужно обратить внимание — мы видим при иногда хорошей позиции маленький CTR.

Вы можете посмотреть график по распределению ТОП Google кликов.

Мы видим, что на первых позициях, как правило, кликабельность в районе 20-30%. И, зная эти цифры, мы можем свериться, насколько мы им соответствуем.

Если мы им не соответствуем, то, скорее всего, наш сниппет, а именно то, как мы отображаемся в поиске, крайне нехороший. И поэтому, это нужно будет исправлять.

Мы видим, что есть страница «ямы в гараже» — 0,72 CTR.

При этом мы видим, что есть запросы на 5 позиции и при этом около 3% CTR.

Поэтому нам надо проработать уже не очень хороший, но результат получше, по сравнению с 0,1-0,3 CTR. Мы видим, что есть страница, что занимает практически первую позицию. И при этом 5% CTR.

Но, при этом, мы можем отсортировать по CTR, найти те страницы, где не 0 показов. Например, «что нужно знать о покупке гаража» — почти первая позиция, и CTR 60%.

Нужно посмотреть, соответствуют ли страницы по Title и тд. И, естественно, доработать свой Title и Description.

Следующее, что мы с вами анализируем, это ссылки, которые идут на наш сайт.

Здесь мы можем посмотреть основные страницы, на которые ссылаются, домены, которые ссылаются, и можем также посмотреть слова, по которым они ссылаются. Это нужно для того, чтобы выявлять какой-то откровенный спам или каких-то некачественных доноров.

Внутренние ссылки нам нужны, в первую очередь, для того, чтобы посмотреть распределение веса по сайту — на какие страницы большее количество ссылок у нас стоит. И, исходя из этого, сделать выводы, как этот вес распределять, ну и прочие задачи решить.

Значит, меры, принятые вручную, это элемент, который я отношу к критическим. Если у вас тут возникает какая-то проблема, то ее нужно, в первую очередь, решать, потому что иначе вы, скорее всего, потеряете сильно трафик.

У нас есть еще таргетинг по странам и языкам, но мы его не используем.

Удобство просмотра на мабильных устройствах

А вот удобство просмотра на мобильных устройствах — это тоже то, над чем стоит работать, если у нас сайт, все-таки, получает трафик с мобильных. А сейчас, практически, это каждый сайт. Мы должны исправить эти ошибки.

Для того, чтобы понять, где ошибка, мы можем на нее кликнуть и посмотреть на те страницы, на которых ошибки были найдены, и поработать с этими страницами.

Дальше — индекс Google. Здесь мы рассмотрим с вами статус индексирования.

И здесь мы с вами можем наблюдать в расширенных данных — если какие-то из страниц, например, начинают выпадать, мы видим изменение резкое по проиндексированным страницам, либо резкий взлет, значит есть какие-то проблемы и их нужно решать.

Также подсказками для нас могут быть:

  • количество удаленных страниц;
  • что заблокировано в файле robots.txt.

Значит, теперь разберемся, что же за заблокированные ресурсы.

Мы видим, что есть определенные скрипты, которые не индексируются поисковиком. И нужно понять, нормально ли это? Если же там есть какие-то нужные страницы, они должны быть все проиндексированы.

Для этого нам нужно будет зайти и посмотреть, на каких страницах эти ресурсы у нас отображаются, и исправить эти проблемы.

Удаление URL адреса

Это нужно для того,чтобы убрать быстрее из индекса те страницы, которые вы бы не хотели, чтобы там находились.

Ну, например: вас взломали, залили вам 1000 страниц, вы сделали на этих страницах ошибку 404. И после этого еще накидываете их сюда, чтобы они быстрее, соответственно, скрылись из поиска.

Далее идем по сканированию.

Ошибки сканирования

Здесь мы с вами отслеживаем 404 код ответа и прочие. И решаем, что с этим документом произошло.

Может быть такая же ситуация, что на него поставили ссылку, но такой страницы не существует или неправильный URL, либо это устаревшая страница, которую вы удалили.

В этом случае я рекомендую перенаправлять вес на подобную страницу либо на главную страницу.

То же самое со смартфонами — мы можем проанализировать и увидеть ошибки по URL.

Далее — статистика сканирования нам нужна для того, чтобы понять вообще, как часто поисковый робот приходит на наш сайт, как часто он его индексирует. И, собственно, график должен быть живой. Особенно это важно, если ваш сайт развивается и наполняется. Если же нет объема, то нужно искать технические проблемы.

Следующий момент — это посмотреть, как GoogleBot

Здесь мы можем с вами сделать такой ход, например, вбить такую страницу — 123.

И нажимаем «Сканировать».

Основная идея в чем? Если мы с вами отправляем страницу, которая была добавлена нами на сайт, то получили бы возможность отправить эту страницу в индекс, если она там еще не находится. Это важно с точки зрения ускорения индексации нового сайта, поэтому новые страницы не забывайте сюда добавлять и отправлять на индексацию. Это то же самое, что переобход в Яндексе.

Здесь мы с вами можем еще посмотреть, как отображается на ПК и на мобильном устройстве наш сайт, нажимая «Получить и отобразить».

В robots.txt традиционно смотрим на ошибки и предупреждения. Если у нас есть какие-то проблемы, то их нужно исправить.

Следующая страница у нас — файл Sitemap.

И здесь я бы рекомендовал обратить внимание именно на расхождение количества страниц отправленных и проиндексированных. Для того, чтобы поработать с этими цифрами и выявить, что это за страницы, которые не проиндексированные, я рекомендую сделать следующее: скопировать все ссылки из sitemap.xml и отправить в любой сервис по проверке индексации страниц. После этого вы поймете, что это за страницы, которые не проиндексированы и примите решение, должны ли они быть проиндексированы. Если да, то добейтесь этого — исправьте проблемы, которые на них есть либо просто отправьте в переобход. А если это, все-таки, те страницы, которые не желательно, чтобы были в индексе, допустим, вы их закрываете от индексации, то их лучше убрать из sitemap.xml, чтобы туда каждый раз не ломился поисковик.

Дальше — параметры URL мы никак не настраиваем.

Проблемы безопасности

Если бы у нас были какие-то вирусы, или еще что-то, то сюда имело бы смысл обратить внимание.

Кстати, у нас уже обработан запрос в «Посмотреть, как GoogleBot». Видите, мы можем запросить индексирование, то есть тем самым будет выполнен переобход.

И дополнительно при клике, мы видим, как отображается страница и как ее видит посетитель сайта.

У нас должно быть это максимально сопоставимо, и все должно отображаться корректно.

Следующее — мы перейдем в новую версию.

И посмотрим, что у нас там сейчас, на данный момент, добавилось.

Мы видим, что кабинет, скорее всего, скоро расширится, туда добавятся многие нюансы. Сейчас он пока что находится в бета-тестировании.

Но мы можем также здесь отслеживать какие-то основные рекомендации, ошибки и тд.

Здесь также могут быть улучшения, на данный момент они не отображаются. Поэтому пока что кабинет представляет из себя очень ограниченный функционал.

Не нужно бежать обязательно за чем-то новым, пока что поработайте в старой версии, потому что там достаточно много функционала, который работает и дает пользу. Но со временем, когда доделают нову версию, мы на нее перейдем.

На этом сегодня все, применяйте рекомендации из Google.

1 Star2 Stars3 Stars4 Stars5 Stars (1 голосов, в среднем: 5,00 из 5)
Загрузка...

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *