Статьи для вебмастера. Какие ошибки допускают начинающие блоггеры и вебмастера? Сервисы для вебмастеров, которыми я пользуюсь


Apache — популярный веб-сервер в интернет, он обслуживает множество серверов и сайтов. Часто возникает необходимость увеличить производительность веб-сервера. Наверное лучший способ это сделать — перейти к схеме frontend+backend, но это может потребовать достаточно серьезных изменений в приложении (например, у вас наверняка отвалятся всяческие индикаторы прогресса аплоада файлов:).
Другой способ — просто увеличить производительность сервера — поставить более быстрый процессор и больше памяти.
Однако и первое и второе требует много времени и ресурсов, так что на первое время можно попробовать ускорить apache путем оптимизации его конфигурации. Существуют оптимизации, которые можно применить только при пересборке apache, другие же можно применять без перекомпиляции сервера.

Загружайте только необходимые модули

Apache — модульная программа, большая часть функций которой реализуется в модулях. При этом эти модули могут быть как вкомпилированы, так и собраны в виде DSO — динамических библиотеках. Большинство современных дистрибутивов поставляет apache с набором DSO, так что не нужные модули можно легко отключить без перекомпиляции.
Запускайте apache только с необходимыми модулями, чтобы уменьшить потребление памяти. Если вы решили скомпилировать apache самостоятельно, то либо тщательно подходите к выбору списка модулей, которые вы включите, либо компилируйте их как DSO используя apxs в apache1 и apxs2 в apache2. Для того чтобы отключить ненужные DSO-модули, достаточно закомментировать лишние строчки LoadModule в httpd.conf. Apache со статически скомпилированными модулями будет потреблять чуть меньше памяти, однако вам придется каждый раз его перекомпилировать для изменения списка модулей.

Выберете подходящий MPM

В apache каждый запрос обрабатывается в своем процессе или потоке. При компиляции apache позволяет выбирать один из нескольким MPM (Multi-processing module), которые отвечают за прослушивание портов, прием запросов и раздачу этих запросов дочерним процессам или потокам, в которых эти запросы будут обработаны.
Выбор MPM зависит от нескольких факторов, таких как наличие поддержки потоков в ОС, количества свободной памяти, а также требований стабильности и безопасности.
Если безопасность очень важна, следует выбрать peruser MPM, пожертвовав производительностью.
Если важна именно производительность, то выбор ограничивается двумя mpm: prefork и worker.
Worker - поточный MPM, т.е. в нем каждый запрос обслуживается в отдельном потоке одного из дочерних процессов. Потоки — более легкие для ОС объекты, чем процессы, они более эффективно используют память и переключения контекста для них происходят быстрее. Однако, из-за того что каждый поток имеет доступ ко всей памяти процесса, worker mpm более подвержен сбоям: сбой одного потока может повлечь падение всего процесса, в котором находился этот поток (именно поэтому worker mpm запускает несколько дочерних процессов с несколькими потоками в каждом).
Perfork - mpm использует несколько дочерних процессов, каждый дочерний процесс обрабатывает одно подключение. Из-за того что процесс — более тяжелая структура, он использует немного больше ресурсов, зато он менее подвержен сбоям — обработка каждого отдельного запроса не зависит от других процессов.
К сожалению, для смены mpm требуется перекомпиляция apache. Тут проявляют свои достоинства source-based дистрибутивы: вы можете легко перекомпилировать apache и все зависимые от него пакеты, не превратив систему в свалку. Бинарные дистрибутивы выходят из этой ситуации по-разному. Например в RHEL в apache rpm находится сразу две версии apache — с worker и prefork mpm (prefork используется по умолчанию). Однако worker mpm не поддерживает php. Так что если вы хотите php и worker mpm вам придется компилировать его самостоятельно либо искать сторонние репозитории.

DNS lookup

Директива HostnameLookups включает reverse DNS запросы, так что в логи будут попадать dns-хосты клиентов вместо ip-адресов. Разумеется, что это существенно замедляет обработку запроса, т.к. запрос не обрабатывается пока не будет получит ответ от DNS-сервера. Поэтому следите чтобы эта директива всегда была выключена (HostnameLookups Off), а если вам все-таки нужны dns-адреса, вы можете узнать их позже, прогнав лог в утилите logresolve (которая поставляется с apache).
Кроме того, следите чтобы в директивах Allow from и Deny From использовались ip-адреса а не доменные имена. Иначе apache будет делать два dns запроса (обратный и прямой) чтобы убедиться что клиент-тот за кого себя выдает.

AllowOverride

Если директива AllowOverride не установлена в ‘None’, apache будет пытаться открыть.htaccess файлы в каждой директории которую он посещает и во всех директориях выше нее. Например:

DocumentRoot /var/www/html AllowOverride all

Если будет запрошен /index.html, apache попытается открыть (и интерпретировать) файлы /.htaccess, /var/.htaccess, /var/www/.htaccess, и /var/www/html/.htaccess. Это увеличивает время обработки запроса. Так что, если вам нужен.htaccess только для одной директории, разрешайте его только для нее:

DocumentRoot /var/www/html AllowOverride None AllowOverride all

FollowSymLinks и SymLinksIfOwnerMatch

Если для директории включена опция FollowSymLinks, сервер будет следовать по символическим ссылкам в этой директории. Если для директории включена опция SymLinksIfOwnerMatch, apache будет следовать по символическим ссылкам только если владелец файла или директории, на которую указывает эта ссылка совпадает с владельцем указанной директории. Так что при включенной опции SymLinksIfOwnerMatch apache делает больше системных запросов.
Кроме того, дополнительные системные запросы требуются когда FollowSymlinks НЕ УСТАНОВЛЕН. Т.о. наиболее оптимальная ситуация для производительности — когда опция FollowSymlinks включена.

Content Negotiatio

Старайтесь избегать content negotiaion.

MaxClients

Директива MaxClients устанавливает максимальное количество параллельных запросов, которые будет поддерживать сервер. Apache не будет порождать больше процессов/потоков чем MaxClients. Значение MaxClient не долно быть слишком маленьким (иначе много клиентов останутся необслуженными), но и не стоит устанавливать слишком большое количество — лучше не обслужить часть клиентов чем исчерпать все ресурсы, залезть в своп и умереть под нагрузкой. Хорошим может быть значение MaxClients = количество памяти выделенное под веб-сервер / максимальный размер порожденного процесса или потока. Для статических файлов apache использует около 2-3 Мб на процесс, для динамики (php, cgi) — зависит от скрипта, но обычно около 16-32 Мб.

Если сервер уже обслуживает MaxClients запросов, новые запросы попадут в очередь, размер которой устанавливается с помощью директивы ListenBacklog.

MinSpareServers, MaxSpareServers, и StartServers

Т.к. создание потока, и особенно процесса — дорогая операция, apache создает их заранее. Директивы MaxSpareServers и MinSpareServers устанавливают как много процессов/потоков должны ожидать в готовности принять запрос (максимум и минимум). Если значение MinSpareServers слишком маленькое и неожиданно приходит много запросов, apache вынужден будет создавать много новых процессов/потоков, что создаст дополнительную нагрузку в этой стрессовой ситуации. С другой стороны, если MaxSpareServers слишком велико, apache будет сильно нагружать систему этими процессами, даже если количество клиентов минимально.
Постарайтесь установить такие MinSpareServers и MaxSpareServers, чтобы apache не создавал более 4 процессов/потоков в секунду. Если он создаст более 4, в ErrorLog будет помещено сообщение об этом. Это — сигнал того что MinSpareServers слишком мало.

MaxRequestsPerChild

Директива MaxRequestsPerChild устанавливает сколько запросов может обработать один дочерний процесс/поток прежде чем он будет завершен. По умолчанию значение этой директивы установлено в 0, что означает что однажды созданный процесс/поток не будет завершен никогда (ну кроме случаев остановки сервера или краха этого процесса/потока). Рекомендую установить MaxRequestsPerChild равное какому-нибудь достаточно большому числу (несколько тысяч). Это не создаст излишней нагрузки, связаной с тем что apache будет вынужден создавать новые дочерние процессы, в то же время это поможет избавиться от проблем с утечкой памяти в дочерних процессах (что очень возможно например если вы используете нестабильную версию php).

KeepAlive и KeepAliveTimeout

KeepAlive позволяет делать несколько запросов в одном TCP-подключении. Это особенно полезно для html-страниц с большим количеством изображений. Если KeepAlive установлен в Off, то для самой страницы и для каждого изображения будет создано отдельное подключение (которое нужно будет обработать master-процессу), что плохо и для сервера и для клиента. Так что для подобных случаев рекомендуется устанавливать KeepAlive в On. Для других применений (например для download-сервера) KeepAlive может быть бесполезен и даже вреден, т.к. при включенном KeepAlive сервер закрывает соединение не сразу, а ждет KeepAliveTimeout секунд нового запроса. Для того чтобы процессы не висели слишком долго в бесполезном ожидании, устанавливайте KeepAliveTimeout достаточно малым, около 5-10 секунд обычно достаточно.

Сжатие

HTTP-сжатие было определено в стандарте HTTP/1.1, и сейчас все современные клиентские программы и практически все сервера его поддерживают. Сервер может отдавать ответ в gzip или deflate, а клиентская программа незаметно для пользователя разжимает данные. Это уменьшает количество передаваемого трафика (до 75%), но конечно же повышает использование процессора.
Однако если ваш сервер посещает много клиентов с медленным подключение, сжатие может снизить нагрузку с вашего сервера из-за того что сервер сможет быстрее передать сжатый ответ и освободить ресурсы, занятые дочерним процессом. Особенно сильно этот эффект может быть заметен если у вас быстрый процессор, но мало памяти.
Кеширование конфигурируется директивами модуля mod_deflate. Имейте в виду, что не следует устанавливать степень сжатия gzip более 4-5 — это потребует существенно большего времени CPU, а эффект будет достаточно невелик. Ну и разумеется не нужно пытаться сжать изображения в jpg, gif и png, музыку, видео файлы и все другие бинарные файлы, которые уже и так хорошо сжаты.

Окт 30

Полезные инструменты для вебмастеров и блоггеров! Чем пользуюсь именно я?!

Здравствуйте дорогие посетители блога . Не смотря на то, что у меня сейчас на часах почти четыре утра, я решил написать еще один пост. Блин, надо возвращаться в рабочий график!)) Вот с понедельника все конкретно изменится!) В прошлых статьях я писал о том, . В данной статье я хочу рассказать про инструменты вебмастера, а если еще более точнее сказать, про программы для вебмастера и сервисы, которыми пользуются огромное количество вебмастеров и блоггеров. Точнее я расскажу о том, какими инструментами и сервисами пользуюсь именно я, и собственно зачем!


Некоторые друзья — блоггеры меня просто убивают, я у них как экстрасенс иногда бываю, предсказываю когда будет очередной апдейт ТИЦ или поисковой выдачи. Не пора ли самим начать отслеживать как апдейты, так и позиции своих ресурсов? В данной статье я не расскажу что — либо нового, и уж тем более не открою Америку (чтоб ее….)))). Я расскажу о том, какими инструментами я собственно пользуюсь в блоггинге, и вообще какие сервисы и программы использую для работы со своим блогом и сайтом. Надеюсь вы сможете найти что — либо полезное для себя.

Инструменты вебмастера Димы!

1. Смартфон. Разумеется без него ни куда! Бывают такие случаи в жизни, когда никаким способом не можешь появится в интернете через компьютер, и тогда выручает смартфон в данной ситуации. Быстренько подключаю интернет за 3.5 рубля в сутки и начинаю серфинг, ведь если вы блоггер, либо вебмастер, то скорее всего вы и дня не сможете прожить без сети. Ведь так? И уж явно это другая зависимость от компьютера, абсолютно другая, ежели у игроков в танчики, варкрафты, и прочую лабуду. Не буду обижать тех, кто любит поиграть, просто онлайн игры реальный враг блоггера, ведь это потраченное время лучше потратить на свой блог или сайт.

2. Ноутбук. Соответственно это мой ноутбук, без которого просто никак! Я на данный момент ужасно негативно отношусь к системникам, так как это просто занимает лишнее место, особенно даже если нет собственной комнаты или квартиры. Не смотря на это, у меня неделю назад друг купил компьютер за 40 000 рублей, где только системник стоит 29 999 рублей со скидкой!) Ужас!!!)) У меня ноутбук за 12 000 рублей, который тянет большинство современных игр на максимуме!!!))) Да мне плевать если честно, ведь я блоггер, а не игрок!! Благодаря данному ноутбука я даже сейчас сижу на кровати и пишу для вас данный пост! Интернетом , чтоб его!!!

3. Плеер Walkman и наушники Monster Beast. Многие будут в шоке, но я пишу посты и статьи по копирайтингу в наушниках, где музыка на полною громкость плеера!! Без музыки жить просто не могу. Бывает что просто могу проснуться в 3 — 00 ночи в туалет, и включу музыку в плеере на полную громкость. В среднем слушаю плеер от 3 часов в сутки и более, вот такой я человек!!) Меня не заставишь писать пост, если плеер сел, и прочее!

Что касается игр, то в детстве я до ужаса любит играть в свою приставку Dendy и Sega, потом в соньку и дримкаст. Сейчас я криво смотрю на людей, которым по лет тридцать, а их не оторвать от танчиков. Я тоже в детстве не наигрался, но теперь лучше займусь делом в интернете, и уже просто представить не могу, зачем нужен компьютер, если он не приносит деньги!!!

Сервисы для вебмастеров, которыми я пользуюсь!

1. Сервис MegaIndex. Очень популярный сервис для SEO оптимизаторов. При помощи MegaIndex я анализирую свои блоги и сайты, особенно он будет полезен для отслеживания позиций в результатах поиска.

2. Сервис Xtool. Благодаря данному сервису я узнаю об изменениях уровня траста своего сайта или блога, а так же о позициях ресурса в поисковых системах.

3. Яндекс вебмастер. Я сделал для вас открытие?))) Да, именно данным сервисом я пользуюсь!))

4. Google WebMaster. Тоже нужный сервис для вебмастеров от компании Google. При помощи данного сервиса можно отлично отслеживать индексацию ресурса в Google. Кстати недавно я стал бороться с такой заразой, как дубли replytocom.

5. Виджет апдейтов яндекса и гугла. При помощи данного виджета я узнаю о том, какой был апдейт и когда. В принципе так все понятно, апдейт выдачи всего в 3 — 00 ночи примерно раз в 5 — 7 дней, а вот апдейт ТИЦ и PR это довольно загадочная вещь! Не так ли?))

Программы для вебмастера

Что же, теперь давайте я расскажу о программах для вебмастера которыми я собственно пользуюсь. Данные программы для меня просто обязательно, так как по мимо блоггинга я еще занимаюсь сайтами.

1. Site Auditor. Классная программа для компьютера, при помощи которой я имею возможность отследить индексацию своего сайта. Бывают такие случаи, когда уже вот вот наступил апдейт, и как известно данные о ТИЦ или индексации еще не обновились в вебмастере (яндекс или google), и тогда вы можете использовать данную программу! Рекомендую всем скачать ее, она даже не требует установки.

2. WebMoney. Ну про это что сказать, всем понятно что я имею в виду! И так, программа webmoney), персональный аттестат, bl выше сотни был, посмотрим что будет после разблокировки wmid. Просрочил много долгов, пока серьезно болел. Об этом дискуссировать не собираюсь, поэтому не спрашивайте ничего. Что касается пополнения кошелька, то привязал qiwi кошелек, чтобы мгновенно пополнять кошелек, но а так конечно зарабатываю в интернете!

3. ETXT антиплагиат. Тоже программа, которая практически не нуждается в представлении. Пользуюсь данной программой уже давно, так как занимаюсь и копирайтингом, бывает пишу по 10 — 30 статей на продажу, бывает работаю заказчиком для сайта про финансы, ну и так далее.

В принципе это все, чем я пользуюсь на данный момент. Данные инструменты вебмастера просто необходимы для каждого блоггера, а так же человека, который просто занимается сайтами. До скорых встреч!

Приветствую всех читателей сайт ! Посещая некоторые блоги, часто ловлю себя на мысли, что далеко не все у них в порядке. Вроде и статьи интересные, и пишет их автор со знанием дела. Сам сайт аккуратный и находиться на нем довольно приятно, все сделано с душой и для людей. Все вроде хорошо, а посещаемость мизерная – видать блог еще молод. Но присмотревшись повнимательнее, замечаю, что ему уже больше 6 месяцев или, даже, года. В то же время куча ГСов с неоригинальным контентом, увешанных с ног до головы отвратительными тизерами, получают тонны поискового трафика. Почему же так происходит? Все дело в том, что многие начинающие блоггеры совершают одинаковые ошибки, не позволяющие им занимать те места в поисковой выдаче, которые они вполне заслуживают .

В этой статье я покажу основные ошибки вебмастеров, которые не знают с чего начать раскрутку своего сайта и как быстро вывести его на высокую и стабильную посещаемость. Если вы из их числа, то слушайте сюда: у вас есть два пути – правильный и неправильный, третьего не дано. И от того, какую дорогу вы выберете, будет зависеть, как далеко у вас получится пройти.

Правильный путь – он бесконечный, ведь нет предела совершенству. Ну а неправильный, чаще всего, короткий – от нескольких месяцев до года. Чтобы безрезультатно вести блог дольше, надо быть или слишком упертым, или, мягко говоря, не очень умным. Хотя конечно все зависит от поставленных задач – для кого-то и кобыла невеста 100 посетителей в радость, а 100 рублей деньги.

Как и почему создаются новые сайты и блоги?

Тут, опять таки, есть два варианта:

  • Опытный вебмастер, который знает чего он хочет и как этого добиться, просто создает очередной веб-проект – будьте уверены, советы ему не нужны.
  • Новичок создает свой первый блог – вот это как раз наш случай.

Как все обычно происходит? Рано или поздно любому пользователю интернета, независимо от возраста, надоедает бесцельно шататься по сети и протирать штаны в социалках. И ему в голову закрадывается гениальная мысль – в интернете можно заработать. Но как? Тут уже вариантов множество, но способов все равно два – без своего сайта и с ним. Причем, даже тогда, когда свой веб-ресурс в принципе не нужен (например, заработок на партнерских программах или копирайтинг), его наличие будет несомненным плюсом.

Те, кто пошел по наклонной в сторону легкого заработка на кликах, платных опросах, анкетах и прочей лабуде, все равно присоединятся к нам позже, потеряв кучу времени и, скорее всего, денег. Но, допустим, вам крупно повезло! Вы сразу попали на блог какого-нибудь манимейкера или на бесплатный вебинар школы StartUp или ее клона, благодаря чему стало понятно, что иметь свой сайт, это не только круто, но и выгодно. Еще бы, доход 500-1000 $ доступен каждому . Понимание необходимости создания своего веб-проекта – это уже пол дела.

Какие ошибки допускают начинающие блоггеры и вебмастера?

Я не буду сейчас перечислять все ошибки, которые допускают новички-блоггеры. Не буду говорить о важности выбора тематики и , об этом я уже писал раньше. Допустим вы правильно выбрали востребованную нишу, являетесь в ней экспертом и владеете ценной информацией, которая будет интересна посетителями. Даже сайт кое-как создан и готов к наполнению. Что дальше?

Читайте второй абзац, где говорится, что есть два пути. И вот, в большинстве случаев начинающие вебмастера совершают ошибку и выбирают неправильный путь, следуя совету:

Развивайте свой сайт, пишите уникальные и полезные статьи для людей и, внимание, как минимум, на несколько месяцев забудьте о продвижении, раскрутке, ссылках и всяких SEO штучках.

Или прямо противоположному:

Невозможно бесплатно раскрутить сайт. Чтобы попасть в ТОП поисковой выдачи, надо покупать обратные ссылки и, чем больше, тем лучше. Не вкладываешь деньги, забудь про трафик и доход.

Эти советы могут давать, как авторитетные блоггеры, так и новички, которые их слушают и слепо копируют. Они только что создали свои блоги по курсам и статьям “авторитетов”, имеют нулевую посещаемость и доходы, но уже учат, как надо продвигать сайты и зарабатывать на них. И многие их слушают, так как сами еще неопытные. Может и у меня есть что-то подобное, если найдете, ткните носом.

Запомните! Во-первых, если просто писать статьи, даже супер интересные и полезные, но абсолютно не заниматься поисковой оптимизацией, то получить высокий и стабильный трафик будет не реально. Во-вторых, добиться посещаемости 500-1000 уников можно без покупки ссылок, только бесплатными способами.

Конечно, не стоит бросаться в крайности, это тоже ошибка. “Писать уникальные и полезные статьи” надо, и “ ” тоже, но надо понимать как, когда и для чего. А иначе, слепо следуя первому совету, блоггер просто забросит свой блог, когда и через пол года на нем будут все те же 20-30 посетителей, пришедших с комментариев на чужих сайтах или с анонсов в соц.сетях. В случае бездумной закупки ссылок, можно запросто попасть под фильтры Google Penguin и АГС Яндекса. А это еще хуже, чем низкая посещаемость, которую всегда можно повысить, если пересмотреть свои взгляды на SEO, применительно к вашему блогу.

Когда начинать продвижение нового сайта?

Надо иметь ввиду, что, когда мы говорим о трафике, то ключевые слова здесь “высокий, целевой и стабильный”. Одновременно такими качествами может обладать только поисковый трафик, а значит, оптимизация сайта под поисковые системы необходима. Со временем, возможно, его ядро будут составлять посетители с Закладок и групп в социальных сетях. Но это будет лишь следствием правильной SEO-оптимизации и комплексной раскрутки.

Так все же, когда и с чего начать раскрутку нового сайта? Делать это надо еще до его создания на подготовительном этапе. Еще до выбора домена и установки движка на хостинг вебмастер должен составить список поисковых запросов (семантическое ядро), по которым хочет получать трафик. Если для личного блога создание СЯ не имеет особого значения, то для тематических контентных проектов – это основа основ. Без четкой продуманной структуры сайта на основе собранного семантического ядра, продвигать его будет сложно.

Если веб-ресурс уже создан, то начните с малого. Как дорога начинается с первого шага, так и продвижение всего сайта надо начинать с оптимизации первой статьи , причем еще до ее написания. Главное , трезво оценив свои возможности, то есть конкуренцию в поисковой выдаче. Если вручную это сделать сложно, то вам в помощь автоматический .

Если вы совсем новичок и испытываете серьезные проблемы в выборе правильных ключевиков, обращайтесь, попробую помочь.

Научитесь выводить в ТОП одну страницу, никто не помешает вам проделать то же самое со всеми запросами из семантического ядра. Таким образом, как курочка по зернышку, будете наращивать трафик, а с ним и доходы.

Меня часто спрашивают, сколько минимально надо разместить статей, чтобы уже начать их продвигать? Во-первых, хочу уточнить, что продвигаем мы не статьи, а страницы. Во-вторых, начинать надо сразу после публикации первой статьи.

Конечно, чем больше страниц, тем лучше – можно перераспределить их веса с помощью внутренней перелинковки. Но и с одной можно успешно выйти в ТОП по нужному запросу, даже в условиях достаточно высокой конкуренции. Недавно как раз проводил такой эксперимент, участвуя в SEO-конкурсе на форуме ArmadaBoard (). О читайте в следующей статье.

Вот такие ошибки вебмастеров и начинающих блоггеров я считаю основными. Все остальное можно исправить, а вот потерянное время не вернуть. Кому есть что добавить или возразить, милости прошу в комментарии.

P.S. Тем кто давно, но безрезультатно ведет свой блог, советую ознакомиться с . Для начинающих самое то.

Таких возможностей на сегодняшних день несколько тысяч и их количество неуклонно возрастает.

Здесь описаны несколько интересных ресурсов, которые помогут вам с созданием сайта и успешного его продвижения.

В их числе, действия по работе с картинками, текстами, показателями сайта в поисковых системах.

Также, несколько образовательных и справочных ресурсов.

Работа с картинками

Отладка и контроль сайта

Онлайн-сервис генерации красивых фонов Stripemania.com с красивым интерфейсом и множеством разнообразных настроек.

BrowserShots.org – очень полезный сервис, он позволяет просмотреть как выглядит сайт в самых разных браузерах.

Сбор статистических данных о сайте

Pr-cy.ru – сайт инструментов для веб-мастера. Здесь можно проверить позиции в поиске Яндекса и Google и много других параметров.

Tools Pingdom – проверка скорости загрузки сайта. Кроме проверки качества загрузки, сервис еще и подскажет, какие файлы больше всего грузят систему. Похожим сервисом является простенький Webwait.com.

Liveinternet.ru – всем известный сервис, показывающий статистику посещаемости сайта.

2ip.ru/cms/ – позволяет определить на каком “движке” (CMS) работает сайт.

Яндекс стремится находить ответ на запрос пользователя, предоставляя на странице результатов информацию и ссылки на нее в интернете. Мы создали и развиваем поиск , исходя из нашего понимания, что нужно пользователям, и какая информация является ценной.

Поэтому следование рекомендациям, приведенным ниже, поможет в индексировании и лучшем ранжировании вашего сайта, в то время как применение обманных техник может привести к понижению его позиций или исключению его из поиска .

Основные принципы

    Создавайте сайты с оригинальным контентом или сервисом. Реклама не является той ценностью, ради которой пользователи приходят на сайт.

    Думайте о пользователях, а не о поисковых системах. Стали бы вы создавать сайт, страницу или ее элемент, если бы не существовало поисковиков? Приходят ли пользователи на ваш сайт или интернет-магазин не только из поисковых систем?

    Тщательно продумайте дизайн - он должен помогать посетителям увидеть главную информацию , ради которой сайт создан.

    Будьте честны. Привлечь пользователей по запросам, на которые ваш сайт не может достойно ответить, не значит удержать их. Думайте о том, что пользователь получит, придя на ваш сайт .

Примеры к принципам

Если в этом разделе не описан какой-то прием, помогающий искусственно повлиять на ранжирование сайта в Яндексе, это не значит, что мы его приветствуем. Следуйте здравому смыслу и выше описанным принципам.

Мы стараемся не индексировать или не ранжировать высоко:

  • Сайты, которые вводят в заблуждение посетителей: при скачивании какого-либо файла (аудио, видео, торрент-файл и пр.) загружается посторонняя программа. Или посторонняя программа размещается под видом популярного приложения и т. д. Примером такого нарушения являются так называемые программы-обертки .
  • Сайты, использующие устройства посетителей для майнинга криптовалют .
  • Сайты, копирующие или переписывающие информацию с других ресурсов и не создающие оригинальный контент.

  • Сайты, копирующие или переписывающие информацию с других ресурсов, с низкокачественным автоматическим переводом контента на другой язык, не создающие оригинальный контент.
  • Страницы и сайты, единственной целью которых является перенаправление посетителя на другой ресурс, автоматически («редирект» ) или добровольно.

    Автоматически сгенерированный (бессмысленный) текст.

    Сайты с каталогами (статей, программ, предприятий и т. п.), если они являются только агрегаторами контента, не создают тексты и описания самостоятельно и не предоставляют никакого уникального сервиса.

    Страницы с невидимым или слабовидимым текстом или ссылками .

    Сайты, отдающие разный контент посетителям и роботам поисковых систем («клоакинг» ),

    Сайты, предоставляющие товары или информацию по партнерским программам, но не представляющие никакой ценности для посетителя.

    Сайты, использующие обманные техники (например, вредоносный код , опасные для посетителей сайта настройки CMS и серверов, вирусы в партнерских программах , вредоносные мобильные редиректы), перенаправляющие посетителей на сторонние ресурсы или меняющие окно результатов поиска на страницы других ресурсов при переходе из поисковых систем.

    Сайты, пытающиеся повлиять на поисковую систему путем имитации действий посетителей .

    Сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder , clickunder).



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: