Sape не работает. Правильная покупка ссылок на бирже Sape

  • Tutorial

Недавно мы закончили курс по SEO в Нетологии и составили для себя чек-лист того, что обязательно нужно сделать на сайте «Я люблю ИП » для поисковой оптимизации. Но эти советы универсальны для любого проекта. В статье вы найдёте список практических рекомендаций со всего курса из 13 лекций от 8 разных специалистов, а также полезные ссылки и сервисы, которые помогут вам улучшить SEO вашего сайта.


Для кого эта статья:

  • для веб-дизайнеров и разработчиков, которые хотят создавать сайты, изначально оптимизированные под SEO,
  • для владельцев интернет-ресурсов, которые хотят самостоятельно разобраться в SEO, чтобы увеличить поисковый траффик.

Дисклеймер: эти советы вряд ли помогут вам выйти в топ по высокочастотным запросам, но вы сможете исправить все технические и текстовые ошибки на сайте, чтобы повысить свои позиции.


Работы по SEO в основном состоят из 5 этапов:

  1. Технический аудит сайта.
  2. Аудит коммерческих факторов.
  3. Подбор семантического ядра.
  4. Внутренняя и внешняя оптимизация сайта.
  5. Наращивание ссылочной массы.

Технический аудит сайта

1) Проверьте, все ли страницы сайта находятся в поиске:

  • по количеству результатов в поиске (в Google - при помощи site:site.ru, в Яндексе - при помощи host:site.ru),
  • в Яндекс.Вебмастер (Индексирование → Страницы в поиске) или в Google Search Console (Индекс Google → Статус индексирования).

2) Проверьте наличие дублей на сайте. Дубли - это страницы с одинаковым содержанием, но с разными URL. Дубли могут быть полные (если контент совпадает на 100 %) или частичные (с высоким % совпадения). Дубли страниц необходимо удалять.


3) Проверьте наличие пустых страниц (которые не содержат контента). Пустые страницы можно:

  • удалить,
  • закрыть от индексации (в файле robots.txt, см. ниже ),
  • наполнить контентом.

4) Проверьте наличие мусорных страниц (которые не содержат полезного контента). Мусорные страницы можно:

  • закрыть от индексации,
  • сделать полезными.

5) Проверьте наличие файла robots.txt. Это текстовый файл в корневой директории сайта, который содержит специальные инструкции для поисковых роботов. Подробнее см. справку Яндекса и Google . Размер файла не должен превышать 32 КБ.


6) В файле robots.txt можно указать общие правила для всех поисковых систем и отдельно для Яндекса. В правилах для Яндекса должна быть дополнительно указана директива Host (главное зеркало вашего сайта с www или без) и директива Sitemap с ссылкой на карту вашего сайта. Проверить файл robots.txt можно в Яндекс.Вебмастере .


User-agent: *
Disallow: /contacts/

User-agent: Yandex
Disallow: /contacts/
Host: www.iloveip.ru
Sitemap: http://www.iloveip.ru/sitemap.xml

Пример файла robots.txt с нашего сайта


7) Проверьте наличие файла sitemap.xml. Это аналог карты сайта, предназначенный специально для поисковых роботов. Подробнее см. справку Яндекса и Google . Создать карту сайта можно по ссылке . Проверить файл sitemap.xml можно в Яндекс.Вебмастере .


8) Проверьте наличие «битых» ссылок (ссылок на несуществующие или недоступные страницы). Необходимо удалять все битые ссылки, как внешние, так и внутренние. Проверить битые ссылки можно в программе Screaming Frog SEO Spider Tool (загружается на компьютер, есть бесплатная версия) или онлайн с помощью инструмента Технический анализ от SeoWizard (сервис платный). Также битые ссылки можно проверить в Яндекс.Вебмастере: Индексирование → Статистика обхода (см. HTTP код 404).


9) Проверьте наличие редиректов на сайте. Виды редиректов:

  • 301 - запрошенный документ окончательно перенесен на новый URL,
  • 302 - запрошенный документы временно доступен по другому URL.

Редиректами лучше не злоупотреблять, так как наличие на страницах сайта ссылок, ведущих на страницы с редиректом, способствует «утере» ссылочного веса.


Проверить можно в Яндекс.Вебмастере: Индексирование → Статистика обхода (см. HTTP код страницы).


10) Проверьте скорость загрузки сайта (должна быть менее 3 сек). Это один из важных факторов, который влияет на ранжирование сайта поисковыми системами. Проверить можно с помощью Google PageSpeed или в Google Search Console (Сканирование → Статистика сканирования → Время, затраченное на загрузку страницы).


11) Настройте ошибку 404 для удалённых или несуществующих страниц. Это можно сделать в файле.htaccess. Подробнее см. справку Яндекса .


12) Проверьте ответы сервера и файл.htaccess. Наиболее частые ошибки, которые встречаются:

  • Доступны обе версии сайта с www и без (например, site.ru и www.site.ru). Это плохо влияет на индексацию, так как поисковик старается исключать дубли и может выбрать в качестве оригинала совсем не ту страницу, которую вы продвигаете.
  • Отсутствуют редиректы для страниц со « /» на конце и без него. Если страницы сайта без слэша на конце и со слэшем отдают ответ сервера 200 (страница доступна), то попадая в индекс поисковых систем они представляют собой полные дубли.

13) Проверьте правильность URL. Неконечные страницы (разделы, подразделы) должны содержать «/» на конце URL, а конечные страницы (страницы товаров, статей) не должны содержать «/». Но применять этот формат рекомендуется только к новым страницам, так как для старых это приведёт к потере возраста документа.


14) Старайтесь использовать «ЧеловекоПонятныеУРЛы» (сокращенно «ЧПУ») или красивые и дружественные адреса URL. Пример отсутствия ЧПУ: yoursite.net/viewpage.php?page_id=23. Основные рекомендации:

  • можно использовать иностранные слова (/contacts/) или транслит (/kontakty/),
  • в качестве разделителя между словами используйте дефис «-»,
  • между разделителями «/» в адресе URL должно быть не более 2–3 слов,
  • длина URL не должна превышать среднее значение по конкурентам.

15) Соблюдайте иерархию папок в URL. Например:


site.ru/название-раздела/назавание-подраздела/конечная-страница


Это поможет Яндексу составить навигационные цепочки и отразить их в сниппете вашего сайта при выдаче в поиске. Подробнее см. справку Яндекса .


16) Проверьте отображение сайта на мобильных устройствах. Это можно сделать в Яндекс.Вебмастере (Инструменты → Проверка мобильных страниц) или в Google Search Console .


17) Укажите в head кодировку страниц meta charset=«utf-8».


18) Проверьте наличие и уникальность тегов title, description и h1 на каждой странице.


19) Тег title должен быть максимально близко к началу head.


20) Старайтесь добавить в тег title все ключевые слова, при этом самое популярное ключевое слово должно быть ближе к началу тега.


21) Максимальная длина тега title - 150 символов, оптимально - 60 символов.


22) В теге title не должны повторяться одинаковые слова (максимум не более 2 раз), можно использовать синонимы, близкие слова или другие слова из запросов. Например: Займ в банке под залог комнаты. Получить кредит под залог комнаты в Москве.


23) Для разделения разных фраз в теге title (например, названия страницы и сайта) используйте символ «|».


24) Тег description не влияет на ранжирование сайта прямо, но поисковые системы могут использоваться его содержимое для сниппета сайта при выдаче.


25) Длина description может быть от 100 до 250 символов, оптимально - 155 символов. Обычно это одно-два осмысленных предложения для описания страницы, включая поисковые запросы.


26) Укажите в head метаданные по Open Graph Protocol для правильного представления сайта в социальных сетях.


27) Добавьте в корневую директорию фавикон сайта.


28) Стили и скрипты должны загружаться в head отдельными файлами.


29) На странице может быть только один заголовок h1.


30) Заголовок h1 не должен копировать title.


31) Заголовок h1 может содержать от 1 до 7 слов и должен включать точное вхождение главного поискового запроса. Например: Займ под залог комнаты.


32) Старайтесь не использовать вложенные теги в теге h1 (например, span, em, a href и т. д.).


33) Соблюдайте последовательность заголовков h2-h6 и включайте в них остальные ключевые слова. Теги h2-h6 должны использоваться только для разметки SEO-текстов.


34) Используйте семантическую вёрстку (для параграфов - p, а не div), старайтесь включать ключевые слова в списки, таблицы, картинки (теги alt, title), выделения (em, strong).


35) Атрибуты alt и title для картинок должны отличаться. Alt - это альтернативный текст для картинки, если она не загрузилась. Title - это заголовок картинки, который всплывает при наведении на картинку, а также выходит в поиске.


36) Добавьте на сайт микроразметку Shema.org . Валидатор микроразметки в Яндекс.Вебмастере .


37) Если вы планируете переезд сайта на https, почитайте эту .

Аудит коммерческих факторов

38) Коммерческие факторы важны для коммерческих сайтов.


39) На сайте должны присутствовать контакты:

  • телефоны,
  • онлайн-консультант,
  • обратный звонок,
  • адрес, схема проезда,
  • график работы.

40) Разместите на сайте юридическую информацию:

  • договор-оферту, условия оказания услуг,
  • реквизиты компании,
  • условия обмена/ возврата,
  • условия доставки.

41) Разместите на сайте ассортимент:

  • прайс-лист,
  • количество товаров в наличии,
  • скидки, акции.

42) Добавьте информацию, которая вызывает доверие:

  • отзывы,
  • портфолио (примеры работ),
  • видео,
  • вакансии.

43) Разместите электронную почту на своём домене (например, [email protected]).


44) Если на сайте публикуются новости, следите за их обновлением.


45) В копирайте (с) укажите текущий год.


46) Стремитесь, чтобы дизайн сайта был современным и адаптированным для мобильных устройств.

Подбор семантического ядра

Подбор семантического ядра - это большая тема, которая заслуживает отдельной статьи. Здесь мы остановимся на основных принципах.


47) Прежде, чем перейти к подбору семантического ядра, необходимо понять, какие бывают типы пользовательских запросов и по каким запросам вы будете продвигать сайт:

  • Навигационные (брендовые) запросы - поиск конкретного сайта или места в сети интернет. Обычно по таким запросам сайты находятся на первом месте, и продвижение не нужно.
  • Информационные запросы - поиск информации, неважно на каком сайте (например, как лечиться от простуды).
  • Транзакционные запросы - пользователь хочет совершить какое-то действие («скачать», «купить» и т. д.). Коммерческие запросы всегда являются транзакционными. Но не все транзакционные запросы являются коммерческими (например, «скачать бесплатно»).

Коммерческие страницы (интернет-магазины, сайты компаний) нужно продвигать по коммерческим запросам, информационные (форумы, блоги, статьи) - по информационным.


48) Определить, каким является запрос, информационным или транзакционным, можно при помощи поиска. Введите фразу и посмотрите на результат поисковой выдачи. Если там в основном информационные статьи, то запрос информационный, если коммерческие страницы - то коммерческий.

Индексация сайта – это процесс, заключающийся в поиске, сборе, обработке и добавлении поисковыми роботами информации веб-ресурса в базу данных поисковиков.

Поисковый индекс – это база данных поисковых систем, предназначенная для хранения всех сведений, найденных поисковыми роботами на сайтах, попавших под индексацию.

Пояснение терминов «индексация сайта» и «поисковый индекс»

Под индексацией веб-ресурса подразумевают посещение ботами его интернет-страниц, анализ содержащегося в них контента и его добавление в базу данных. Это делается для того, чтобы потом пользователи могли находить информацию на ресурсе по ключевым запросам в поисковых системах.

Проще говоря, юзер заходит в поисковик, вводит в строке поиска нужный ему запрос и в ответ получает список из множества веб-страниц, проиндексированных поисковыми роботами.

Индексация является обязательной процедурой в работе поисковых систем. Для этого создается специальная специализированная база данных, посредством которой и формируются результаты выдачи.

Поисковый индекс любого сайта зависит непосредственно от его контента, внешних и внутренних ссылок, наличия изображений, графиков и прочих материалов. Вводя в поисковой строке запрос, интернет-пользователь обращается к индексу. Затем из него на основании данных осуществляется ранжирование результатов поиска, список страниц, которые выстраиваются по мере уменьшения релевантности запросу.

Представьте, что Всемирная Сеть – это большая библиотека. В ней обязательно должен быть специальный каталог, который делает поиск необходимых материалов гораздо проще. Всем книгам, которые находятся в библиотеке, принадлежит свой шифр. Все шифры объединены темами, разделами и прочими параметрами.

Когда человек приходит в библиотеку и просит книгу на определенную тематику (делает запрос), библиотекарь идет к нужному разделу, достает все книги, соответствующие ему, и подбирает для читателя самую подходящую.

По аналогичному принципу работают и поисковики: пользователь делает запрос, поисковая машина достает все соответствующие страницы и выдает наиболее релевантные.

На заметку. Под занавес прошлого века индексация проходила именно по принципу каталогизации – боты отыскивали на ресурсах ключевые слова, из которых и состояла база данных. В наши дни роботы, помимо ключевиков, учитывают множество других параметров контента, в числе которых уникальность, информативность, грамотность и многое другое. Именно на этом и основывается современная индексация.

С каждым годом поисковые алгоритмы становятся все совершеннее, база данных все больше наполняется дополнительной информацией, при этом поиск для пользователей становится куда легче и более релевантнее.

Как Яндекс и Google индексируют сайты?

Индексированием занимаются два типа роботов:

  1. Основные. Изучают контент, содержащийся на страницах интернет-ресурса;
  2. Быстрые (быстророботы). Анализируют и индексируют новые материалы, которые добавились после обновления сайта.

Чтобы веб-ресурс был проиндексирован в самых популярных поисковых системах, вебмастеру нужно сообщить о своем проекте:

  • Добавить сайт на индексацию, самостоятельно заполнив специальную форму поисковика через такие сервисы, как Google Webmaster, Яндекс.Вебмастер и т.п. Такой способ индексации проходит медленно, от двух недель и дольше, потому что проект попадает в очередь.
  • Отправить ресурс на индексацию посредством размещения ссылок на других веб-сайтах. Данный метод является самым эффективным, потому что найденные таким образом страницы боты считают полезными, и индексируют их куда быстрее – не более двух недель, а если повезет, то и вовсе за 12 часов.

В большинстве случаев, новые сайты и страницы индексируются за 1-2 недели. Многие отмечают, что поисковый гигант Google включает интернет-ресурсы в индекс гораздо быстрее, всего за несколько дней. Это связано с тем, что он индексирует страницы не только с качественным, но и плохим материалом. А вот под ранжирование попадает исключительно полезный контент.

У Яндекса подобный процесс проходит медленней, но под индексацию попадают только информативные и полезные страницы, а мусор отсеивается сразу.

Индексирование интернет сайтов проходит в 3 этапа:

  1. Робот отыскивает ресурс, изучает информацию, содержащуюся в нем.
  2. Добавляет найденный материал в базу данных.
  3. Спустя 1-2 недели информация, которая успешно прошла индексацию, попадает в выдачу поисковой системы.

Как проверить индексацию в Google и Яндекс

Проверить, прошел ли сайт или страница индексацию в Яндекс или Google, можно 3 способами:

  1. C использованием инструментов webmaster.yandex.ru или google.com/webmasters . Для Яндекса заходим в «Индексирование сайта», после чего в «Страницы в поиске». Для Google, нажимаем «Search Console». Далее выбираем раздел «Индекс Google» и отыскиваем нужные данные в меню «Статус».
  2. Посредством плагинов для браузера. Наиболее популярным сегодня является RDS Bar .
  3. Введя в поисковую строку команду: site:domen.ru

Как сделать индексацию быстрее?

Естественно, любой вебмастер желает, чтобы роботы как можно скорее проиндексировали их сайт, ведь от этого зависит, насколько быстро содержащийся в нем материал появится в поисковой выдаче, который и привлечет новых посетителей. Чтобы индексация прошла быстрее, стоит следовать таким рекомендациям:

  • Добавить проект в поисковую систему.
  • Постоянно пополнять сайт новым уникальным, информативным и полезным для целевой аудитории контентом.
  • Разместить проект на надежном и скоростном хостинге.
  • Создать удобную навигацию по ресурсу, доступ на страницы должен быть не больше 3 кликов от главной.
  • Правильно настроить файл robots.txt, а именно: заблокировать индексацию служебных страниц и убрать лишние запреты.
  • Проверить количество ключевиков, устранить ошибки в исходном коде.
  • Обеспечить внутреннюю перелинковку (соединить страницы сайта между собой ссылками).
  • Создать карту сайта. Можно даже сделать карту сайта отдельно для роботов и для посетителей.
  • Разместить ссылки на статьи портала в соц.сетях.

Как закрыть ресурс от индексации?


Бывают случаи, когда необходимо закрыть роботам поисковых систем доступ к проекту или отдельным его страницам, частям текста или изображениям. Как правило, владельцы сайтов прибегают к таким действиям, когда хотят спрятать некоторую информацию от публичного доступа, скрыть сайты, находящиеся в разработке, технические или дублированные страницы и т.д. Сделать это можно так:

1. С применением файла robots.txt.
Создайте в корне сайта текстовый документ robots.txt и пропишите в нем правила для поисковых систем, складывающиеся из двух частей. Первая (User-agent) сообщает какой поисковой системе учитывать команды, а вторая (Disallow) запрещает индексацию определенного материала. Чтобы запретить индексацию всего ресурса для роботов всех поисковых систем, нужно прописать команду:

User-agent: * Disallow: /

2. Посредством мета-тега.
Этот способ лучше подходит для запрета индексирования одной страницы. Теги nofollow и noindex позволяют запретить индексацию отдельной страницы или фрагмента текста роботам всех поисковиков. Прописывается в коде определенной страницы, которую хотите закрыть от индексации.

Команда на запрет индексации всего документа:

Запрет для робота конкретной поисковой машины:

Роль индексации при продвижении сайта

Без индексации веб-ресурсы не появлялись бы в поисковых системах. Регулярное обновление сайта качественным контентом способствует его частому посещению поисковыми ботами, что приводит к более быстрой индексации, высоким позициям проекта в поисковой выдаче и притоку трафика.

Помимо качества контента, поисковые роботы также учитывают посещаемость и поведение посетителей на сайте для оценки его полезности при дальнейшем ранжировании. Поэтому индексация является одним из важнейших процессов при SEO-продвижении интернет-ресурсов.

А для того, чтобы информация была успешно внесена в базу данных поисковиков, боты должны убедиться, что материалы, содержащиеся на сайте, полезны для посетителей.

Заключение

Индексация сайта – это процесс сбора и размещения информации с интернет-ресурсов в базу данных поисковых систем, а индекс поисковой системы – это непосредственно база данных, где и содержатся все материалы с сайтов.

Без индексирования портала и его попадания в индекс невозможно продвижение проекта, привлечение трафика и, соответственно, получение доходов с него. С того момента, как сайт попадет в индекс, начинается отсчет его возраста. А чем больше находится документ в индексе, тем лучше он ранжируется.

Роботы поисковых систем в обязательном порядке добавляют в базу данных информацию обо всех размещенных сайтах. Собранные показатели специальным образом обрабатываются, и в итоге мы получаем индекс - т. е. определенную, так сказать, выжимку из документов, которая очень пригодится для SEO-продвижения. Индексацию можно осуществить собственноручно (добавлять URL веб-ресурса в форму поисковика) или автоматически (роботы сами осуществляют переход по гиперссылкам, сканируют файл-карту sitemap.xml). Индексация - необходимый этап грамотно выстроенного SEO-продвижения, ведь она влияет на ранжирование портала.

Особенности процесса

Каждый поисковик располагает роботами, т. е. определенными программами, которые регулярно собирают данные о вашем сайте, анализируют весь html-код. Именно поэтому так важно правильно заполнять теги:

  • h1, h2 (заголовок и подзаголовок);
  • title;
  • description и т. д.

Чтобы SEO-продвижение действительно могло считаться эффективным, не забывайте также про создание карты сайта, перелинковку и микроразметки.

Как осуществляется индексация

Существуют основные методы индексации:

  • В этом случае следует создать ресурс, наполнить его контентом на соответствующую тематику, оформить все теги и просто дождаться поискового робота. Чтобы ускорить процесс, оставляем ссылку на наш сайт с другого, более авторитетного. Эта услуга платная, но положительно влияет на SEO-продвижение (и индексацию в частности).
  • Отправьте запор на индексирование в ПС. Да, вам придется отстоять очередь, но когда придет время, поисковой робот отправится по вашему адресу и занесет сайт в каталог. Причина, по которой чаще всего выбирают этот метод, способ бесплатный.

Вы можете совместить оба варианта, т. е. заполнить специальную форму и проставить ссылки со сторонних ресурсов. Занимаясь SEO-продвижением, помните, что даже если вас и посетил робот, то он не будет индексировать сразу все станицы портала. Здесь ничего не поделаешь, придется подождать. Следует так же отметить, что роботы в каждом ПС (Google, Яндекс, Mail и т. д.) свои, а значит невозможно предсказать, сколько времени займет создание индекса в конкретном случае.

Как можно упростить процесс

Для SEO-продвижения крайне необходимо создать действительно грамотный и качественный сайт, который будет хорошо восприниматься не только целевой аудиторией, но и поисковыми системами. Существуют такие рекомендации при создании сайта:

  • Поскольку структура портала все же имеет прямое влияние на заинтересованность поисковиков в индексации, желательно создать определенные страницы, ссылающиеся на веб-документы, расположенные внутри портала. Это облегчит SEO-продвижение, поскольку программы автоматически будут переходить на внутренние разделы.
  • Чем чаще вы обновляете ресурс, тем больше он привлекает внимание роботов. Советуют регулярно выкладывать хотя бы небольшие статьи в блог, новости или просто заметки/видеоролики. Как в случае и с другими параметрами SEO-продвижения, индексация будет успешной только в том случае, если вы работаете с уникальным контентом.
  • Перелинковка страниц на сайте очень полезна, особенно если вы предлагаете похожие товары.

Что касается создания карты сайта, то здесь можно столкнуться с определенными проблемами, ведь робот при изучении «тяжелой» площадки останавливается, проверив только несколько первых ссылок. Если SEO-продвижением занимается профессионал, то он знает, как обойти этот нюанс. Достаточно создать древовидную карту, т. е. каждый подраздел в этом случае получает собственную страницу, на которую легко попасть с главной. О том, как правильно организовать продвижение по трафику лучше посоветоваться со специалистами, так как в этом деле существует много нюансов.



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: