Привет. Вы решили окунуться в мир интернет коммерции, или просто владеете сайтом. Но делали сайт Вы не просто так, а для людей. Соответственно - рано или поздно у Вас встает вопрос о его раскрутке и продвижении.
Довольно часто слышу вопросы о том, сколько нужно вложить денег или других ресурсов, чтобы сайт был на 1м месте (в первой 3,5,10). Пришла пора пролить свет на один этот емкий вопрос.
Ответ будет очень простым: Рассмотрим хронику боевых действий в нелегком вопросе
Представьте, что вы – Яндекс (или гугл). Ваша задача – выдать своему посетителю наиболее подходящие сайты под его запрос. Если вы не будете располагать сайты в правильном порядке – пользователи уйдут искать в гугле. В каком бы порядке вы расположили все сайты?
Примечание: Каждый сайт хранится отдельно в интернете и вы не обладаете какими либо полномочиями увидеть исходный код, либо сразу же увидеть все изменения, которые на нем происходят. Вам также нужно отдать ответ пользователю мгновенно, а не облазить весь интернет по запросу. По этому – вы делаете робота, который периодически лазиет по базе известных вам сайтов и заливает важные части к себе – назовем это ИНДЕКСОМ. А также есть робот, который подготавливает ответ на каждый из возможных запросов, который может ввести пользователь. По этому – ответ выдается предельно быстро по индексу, а вот точность ответа идет с задержкой. (для яндекса – эта задержка в 2 недели, для гугла 1-2 дня)
Так вот – как вы будете располагать сайты?
По наличию запрашиваемого текста в заголовках на странице. Отличный ответ. Действительно, ведь где в заголовке есть наша фраза – вероятнее всего о ней и рассказывает, чем сайт, который упоминает о запросе где-то в тексте.
Но сайтов с одинаковым заголовком очень много. Про одно лишь «продвижение сайтов» существует сто миллионов сайтов с одним заголовком (или может существовать)
Тут вы понимаете, что чтобы оценить сайт по конкретному запросу – нужно воспользоваться не одним параметром, собрать собственный составной коэффициент, в который войдут все параметры с каким-то весом. Да, вполне очевидный вывод
Далее – У Вас 2 сайта с одинаковым заголовком. Какой из них должен быть первым? Видимо тот, где больше текста. Ок. Но может быть весь этот текст вовсе не о запрашиваемой части. Мы можем оценивать это по частоте встречаемости нашего запроса внутри текстов. Да. Отлично. Теперь то мы точно можем выровнять сайты.
Мы можем оценить общую тематику сайта? Можем. Мы же сканируем не только одну страницу, а весь сайт целиком. Даже если пользователь не найдет то что искал на этой странице, возможно он найдет желаемое на другой странице этого сайта.
Мы также можем оценить время начала существования сайта. Логично предположить, что чем дольше сайт существует, тем больше там накоплено информации, а также вероятность, что сайт вдруг начнет выдавать что-то неправильное – гораздо меньше.
И ведь так себя поисковики и вели. К чему это привело?
Те, кто хотели продвинуть свой сайт на 1 место – размещали бессмысленные страницы, состоящие только из 100 повторов нужных слов и ничего более. Темная сторона силы заставила людей засорять интернет бесполезным мусором. Поисковикам в ответ пришлось принимать свои меры:
Сайты, где фраза повторяется чересчур много раз при небольшом объеме текста – полностью исключались из поиска, а также это могло отразиться на позиции остального сайта.
Следующим шагом на встречу определения наилучшей позиции – стала оценка популярности сайта. Ведь на конкретный сайт могут ссылаться другие сайты – назовем его индекс цитируемости, или сокращенно ТИЦ. Таким образом, появился некий рейтинг сайтов. Стали выделяться наиболее известные и не ссылающиеся. И когда пользователь что-либо ищет – вероятнее всего он найдет это на ссылаемом сайте, тем более – другие пользователи и известные ресурсы сами на него ссылаются, стоит им доверится.
Темная сторона силы заставила сеошников воспользоваться доверчивостью яндекса. На пустом месте стали возникать каталоги сайтов. А владельцы крупных ресурсов стали продавать ссылки за деньги. Можно было имея нужную сумму денег – быстро вывести ресурс на 1 позицию, даже если он не соответствует ожиданиям пользователя и может быть вовсе рекламной помойкой.
Это стало серьезной угрозой при выводе наиболее полезных сайтов по запросу пользователя. Поисковикам пришлось защищаться. Полностью убрать популярность сайта нельзя, ведь ссылаются и действительно на действующие сайты.
Зато поисковики могут отсеять действительно ссылки. Они ведь знают тематику сайта. А что может смыслить сайт одной тематики в сайте другой тематики. Скорее всего – ничего. Также сайт, который ссылается на очень многие сайты – скорее всего ничего не понимает в каждом из них. Вес такой ссылки понижается. И самое главное – цитируемость сайта – не самый главный параметр в его выводе. Но достаточно значительный при прочих равных.
Следующим шагом на пути к идеальной полезной выдаче – стал учет данных о пользователе. Где он живет. Этот параметр можно определить по IPадресу достаточно точно. А по запросу можно также выставить на первом месте сайты, которые касаются заведений именно о регионе пользователя. Поисковик также помнит историю запросов, и может корректировать выдачу в зависимости от ранее введенных запросов.
А также поисковики не забывают заботится о пользователях, блокируя или жестко понижая позиции для сайтов с рекламой или вирусами. По этому если вдруг решите монетизировать свой трафик при помощи рекламы - будьте готовы к прессингу
Позже - мы рассмотрим реальные действия, которые на сегодняшний момент помогут Вам подняться в нужной поисковой выдаче. Это вечная борьба за выборку полезного для пользователей контента. Поисковики приспосабливаются только под крупные сайты и только в случае выявления там полезного контента. В остальном - пользователи подстраиваются под поисковики.
Продолжение темы раскрутки описано здесь