Сразу отметим, что большинство действий, о которых пойдет речь, лучше заказать у профессионалов. Ведь если сделать
У поисковых систем есть специализированные панели, предназначенные для вебмастеров и seo-специалистов. Основные – Яндекс.Вебмастер и Google Search Console, но свои инструменты есть также у mail.ru, Bing и других поисковиков.
С помощью панелей вебмастеров можно получить много полезной информации о сайте с точки зрения конкретного поисковика: индекс качества, данные об ошибках, которые мешают ранжированию, статистику, предупреждения, рекомендации и т.д. Есть там и профессиональные инструменты, например, добавление в поиск товаров с сайта.
Если вы не планируете заказывать услуги SEO, то добавить сайт в Яндекс.Вебмастер и Google Search Console все равно нужно:
1. Вы будете получать статистику и предупреждения о критических ошибках.
2. Нужно связать панели вебмастеров со счетчиками аналитики Яндекс.Метрика и Google Analytics. Так поисковики будут узнавать об изменениях на вашем сайте быстрее и, например, новые страницы и товары будут индексироваться оперативнее.
3. Вы получите возможность задать региональность сайта в Яндекс, что поможет продвижению в конкретном городе или регионе.
4. Можно дать инструкции поисковым роботом, как эффективнее и быстрее сканировать ваш сайт: с помощью файлов robots и sitemap.
sitemap — это файл с картой сайта. Он необходим, чтобы поисковый робот распознал структуру сайта и быстрее провел его сканирование.
robots.txt — это файл с правилами индексации сайта для поисковых роботов. Чаще всего, он используется, чтобы закрыть от поисковиков часть страниц сайта, например, страницу 404, корзину, админ-панель, личный кабинет и т.п.
Поисковые системы очень негативно воспринимают сайты, на которых есть дублированные страниц. Вы скажете: «Так у нас их нет». А может и есть, просто вы об этом не знаете:)
Например, у вас на сайте есть фильтр по товарам. Отсортировал пользователь товар бренда «Ромашка» и получил страницу с адресом site.ru/catalog/tovar?romashka. А затем решил, что надо еще посмотреть товары бренда «Цветочек», и адрес уже site.ru/catalog/tovar?zvetochek. То есть страница каталога товаров одна, а на каждую сортировку ее адрес меняется, что может считываться поисковиками как дубли страниц.
Эта проблема решается и предвосхищается также с помощью robots.
Существую специальные программы для генерации robots и sitemap, иногда они встроены в систему управления сайтом. Однако, корректировки в данные файлы, особенно в robots, часто вносят вручную специалистом.
По каким запросам пользователи должны находить ваш сайт в поисковых системах? Этот список не нужно брать из головы:) Ваши представления о том, что именно люди вбивают в поисковой строке могут очень сильно отличаться от реальности.
Есть специальные сервисы для подбора ключей. Пожалуй, самые популярные — Яндекс.Wordstat и Key Collector. Там же можно оценить частотность. Например, фразу «керамогранит для пола» в Яндекс ищут около 130 пользователей из Иркутска в месяц, а фразу «керамогранит на стену» — всего 40.
Составление списка ключей тоже требует знания определенных нюансов. Например, не стоит выбирать слишком общие фразы с высокой частотностью или информационные запросы, если ваша цель — продажи. Самая верная стратегия в подборе ключевых слов — ориентироваться на конкурентов, которым уже удалось попасть в топ.
После подбора фраз нужно обратиться к копирайтеру и заказать для сайта качественные тексты. Бездумно насыщать текст ключевыми словами нельзя. Принцип, чем больше, тем лучше, не работает:) Текст должен быть уникальным, структурированным, полезным для пользователя, а нужные фразы должны быть в него аккуратно «вшиты».
Если максимально упростить, мета-теги — это сопроводительные данные о каждой странице сайта. Правильно написанные мета-теги помогают поисковой системе понять, о чем страница и в ответ на какие запросы ее можно показать пользователю.
Важнейшие мета-теги — title и description, заголовок и описание страницы. При этом, они должны быть составлены красиво и понятно для пользователя, т.к. поисковые системы не всегда, но очень часто используют эти тексты в поисковой выдаче.
У каждой страницы сайта должны быть уникальные title и description, они не должны повторяться. Если у вас интернет-магазин с тысячей товаров, и каждый товар имеет свою страницу, SEO-специалист настроит автоматическое динамическое формирование мета-тегов.
Технические факторы очень важны для ранжирования в поисковых системах. Аудит поможет выявить следующие частые проблемы:
битые ссылки (ссылки на страницы, которых уже нет на сайте),
ошибки в HTML-коде,
нет оптимизации под мобильные устройства и т.д.
Если по результатам проверки выявлены проблемы, которые мешают поисковым системам правильно воспринимать ваш сайт, то нужно заказать у специалиста их устранение. Ряд проблем, например, низкая скорость загрузки страниц или отсутствие оптимизации под смартфоны могут мешать и другим методам продвижения.
Итак, резюмируем, что должно войти в базовую SEO-оптимизацию сайта:
1. Настройка панелей вебмастера, чтобы получать актуальную информацию о сайте с точки зрения поисковиков.
2. Составление файлов robots и sitemap, чтобы поисковые роботы получили инструкции, как сканировать ваш сайт.
3. Подготовка контента для сайта с учетом ключевых слов.
4. Составление мета-тегов.
5. Технический аудит и устранение основных внутренних проблем.
Если ваш сайт находится