Ранжирование что это простыми
Ранжирование
При формировании поисковой выдачи по какому-либо запросу поисковые системы стремятся наиболее точно ответить на вопрос пользователя. Они составляют список сайтов, которые, на их взгляд, соответствуют запросу тематически. Наиболее подходящие сайты находятся выше в этом списке. Такое распределение мест и есть ранжирование.
Что такое ранжирование
Ранжирование – это сортировка сайтов поисковыми системами в результатах выдачи по соответствующему поисковому запросу. Алгоритм определяет, какой сайт лучше решает проблему пользователя и поднимает его выше конкурентов. Чем лучше ресурс отвечает на поставленные вопросы, тем больше у него шансов попасть в топ Яндекса или Google (именно они составляют 95% трафика с поисковых систем).
Факторы ранжирования
Работа SEO-специалиста заключается в том, чтобы сайт занимал лучшие строчки в результатах выдачи. Для этого ресурс должен соответствовал максимально большому количеству факторов ранжирования. Их насчитывается около 700.
Поисковики учитывают следующие факторы:
Регулярность обновления контента;
Внутренние факторы – структура, юзабилити.
Контент сайта, а это не только текст, но и графика, должен содержать слова и фразы из подобранного семантического ядра запросов. Страница сайта должна быть релевантна продвигаемой фразе. Контент должен быть уникальным и понятным для пользователя. Алгоритмы ранжирования понимают смысл текста, поэтому просто напичкать текст запросами уже не получится – сайт попадет под санкции поисковика за переспам, и выходить из него придется долго после устранения ошибок.
Контент необходимо регулярно дополнять и улучшать в соответствии с актуальными запросами пользователей. Регулярное обновление – залог того, что робот будет чаще «приходить» и анализировать сайт, а значит шансы занять вершину выдачи повысятся.
Ссылки до сих пор считаются важным фактором продвижения сайта. И если Google это учитывал всегда, то Яндекс после долгого перерыва вернул ссылочное ранжирование. Важно понимать, что нельзя в 2020 году бездумно закупать ссылки на бесполезных ресурсах. Весь ссылочный профиль делится на 2 части:
Внутренние ссылки – переходы с одной страницы сайта на другую, соответствующую теме (для этого делается перелинковка). С их помощью можно изменять ссылочный вес, а трафик перенаправлять на продвигаемые страницы.
Внешние или входящие ссылки – это упоминания сайта на других ресурсах. Это могут быть справочники, каталоги, а также SEO-ссылки. Последние должны закупаться только на ресурсах, которые по смыслу соответствуют продвигаемому сайту. Так можно избежать пессимизации, попадания под фильтры «Минусинск» от Яндекса или «Пингвин» от Google.
Мета-теги тоже являются факторами ранжирования. Важно грамотно прописать название страницы (Title), заголовок (H1) и описание (Description), которые будут отображаться в сниппете – так, как это увидит пользователь в поисковой выдаче. Тег keywords уже не учитывается, его заполнять необязательно.
Особенно важно настроить файлы для поискового робота – карту сайта (sitemap.xml) и robots.txt.
Грамотный дизайн и наличие мобильной версии повышают доверие со стороны пользователя, а значит поисковик считает такой сайт качественным.
Алгоритмы ранжирования в Яндексе и Googl
Основы алгоритмов поисковых систем не разглашаются. Между поисковиками и SEO-специалистами идет негласная война. Яндекс и Google дают только общие рекомендации, суть которых сводится к банальному «улучшайте сайты, делайте их более качественными».
Алгоритмы ранжирования меняются и дорабатываются в ходе своего функционирования. Поэтому страницы, которые были в топе, могут терять позиции. Чтобы бороться с этим, веб-мастерам приходится регулярно дорабатывать сайты.
Заключение
Мы узнали, что такое ранжирование и от каких факторов оно зависит. Чтобы ресурс находился в топе, необходимо учитывать факторы ранжирования, постоянно улучшать и дорабатывать сайт.
Что такое ранжирование простыми словами
Редактор портала Otzyvmarketing.ru. Работаю в сфере интернет-маркетинга с 2010 года.
Ранжирование – это процесс оценки релевантности и авторитетности страницы веб-ресурса, и определения поисковыми системами ее позиции в результатах выдачи по конкретному запросу пользователя.
Проще говоря, ранжирование сайтов — сортировка страниц сайтов (документов) и расположение их в определенном порядке в поисковой выдаче. Робот поисковика, проиндексировав все страницы сайтов во всем Интернете, определяет, насколько они соответствуют запросу пользователей, после чего размещает их в выдаче на соответствующей позиции.
Рекомендуем: Click.ru – маркетплейс рекламных платформ
Увеличьте прибыльность и избавьтесь от рутины:
Как работает ранжирование
Принцип работы ранжирования основывается на обработке пользовательских запросов движками поисковых машин. Информацию, которую они получили, сохраняют, а затем расставляют ее в такой последовательности, чтобы наиболее полезные данные находились выше, чем менее соответствующая запросу информация. Так осуществляется ранжирование.
Сортируя информацию, поисковики учитывают несколько основных параметров:
Пользователь, вводя в поисковую строку запрос, желает быстро отыскать исчерпывающий ответ. Это возможно именно благодаря процессу ранжирования. Порядок отображения ресурсов в выдаче не случайный. Чем выше позиции сайта, тем больше он соответствует требованиям поисковиков.
Ранжирование не является примитивным механизмом выбора наиболее подходящего сайта. Нередко у слова имеется два и более значений, и запрашивая слово “наполеон”, поиск покажет разные результаты с информацией про торт, императора или бренди. Чтобы понять, что именно хотел найти пользователь при вводе подобного запроса, например, поисковая система Яндекс использует алгоритм Спектр.
У каждого поисковика свои алгоритмы ранжирования. Вот почему в Яндексе и Google ваши страницы по аналогичным запросам могут занимать совершенно разные места.
Релевантность и ранжирование
Ключевым показателем ранжирования является релевантность страницы, то есть ее соответствие запросу пользователя. Параметр релевантности направлен на определение документов с ценным, интересным и полезным контентом, и отделение их от страниц с некачественными, неуникальными материалами, практически не несущими никакой смысловой нагрузки.
Все поисковые системы определяют релевантность по-разному, но для всех них важны две стороны:
Важно учесть, что ранжирование меняется, так как поисковые алгоритмы постоянно совершенствуются и обновляются. Делают это поисковики для того, чтобы нерелевантные сайты, применяющие серое или черное SEO, не смогли обмануть алгоритмы. Но если поисковые системы доверяют сайту, то изменения в алгоритмах практически не отразятся на его позициях.
Успешное формирование результатов выдачи, когда приоритетными оказываются максимально релевантные запросу страницы, обеспечивает высокое качество поиска, а также то, насколько пользователи довольны найденной информацией.
20 сервисов для подбора ключевых слов для сайта
Семантическое ядро – основа структуры любого сайта. Чем качественнее собраны и разгруппированы ключевые слова, тем информативнее и объемнее получится контент, и тем больше станет вероятность успешного продвижения сайта в поисковых системах. Рассмотрим несколько сервисов для подбора ключевых слов.
Основные факторы ранжирования
На сортировку страниц в выдаче влияет множество факторов.
Внутренние
К внутренним факторам относят все, что связано непосредственно с сайтом, и на что может повлиять его владелец:
качество статей, их уникальность, информативность и релевантность;
В целом, внутренние факторы можно разделить на 3 группы:
Внешние
Внешних факторов меньше, чем внутренних, однако повысить их показатели куда сложнее:
Ссылочный профиль должен быть максимально естественным. А естественность достигается разнообразием ссылок. Для идеальной ссылочной массы необходимо, чтобы на ваш сайт ссылалось как можно больше других ресурсов. Тогда поисковые системы поймут, что контент на ваших страницах полезный и актуальный, у пользователей большой спрос на него. Это увеличивает доверие к ресурсу.
Что касается покупных ссылок, то поисковые системы научились определять их (яркий тому пример – алгоритм “Минусинск” от Яндекса и “Пингвин” от Google), активно борются с ними. Но если наращивать ссылочный профиль постепенно, и покупать только качественные ссылки с тематических, авторитетных площадок и с естественным текстом ссылки, то риск попасть под фильтр уменьшается.
Кроме ссылок поисковые системы учитывают еще и социальные сигналы: насколько активен ваш ресурс в социальных сетях, как часто о нем упоминают. Учитываются они по тому же принципу, что и ссылки. Чем чаще обсуждают ваши материалы и распространяют их, тем качественней сайт.
Яндекс вообще внедрил свой виджет социальных кнопок, интегрированный с Яндекс.Метрикой. Благодаря аналитическому сервису можно видеть, когда и в каких количествах пользователи поделились статьей. Естественно, поисковик может учитывать эти данные в процессе ранжирования.
Есть еще и поведенческие факторы – как себя ведет пользователь на выдаче поисковой системы и на сайте. Возвращается ли он в поиск, чтобы найти ответ заново, сколько времени проводит на вашем сайте, как потребляет контент и так далее. Поисковые системы анализируют все эти данные, чтобы понять, решил ли пользователь свои проблемы на страницах этого сайта.
Региональные
Расставляя веб-ресурсы в выдаче в сформированном порядке, поисковые системы делают более приоритетными сайты из тех регионов, в которых пользователь делает запрос. Это относится к запросам связанных в основном с коммерцией. Например, когда человек хочет что-то купить или заказать услугу.
Вот какие факторы привязывают сайты к региону:
Алгоритмы ранжирования
Для любого поисковика самое важное – это качество выдачи.Чтобы обеспечить хорошую выдачу, поисковые машины разрабатывают и внедряют алгоритмы ранжирования.
Яндекс
Для популярнейшей в Рунете ПС очень важно предлагать людям быстрый и качественный поиск. Поэтому она не продает места в поиске, а выдача не зависит от политических и прочих взглядов сотрудников компании.
Так как пользователи смотрят страницу выдачи сверху вниз, соответственно, выше находятся наиболее подходящие для пользователя страницы, а точнее – наиболее релевантные запросу. Причем среди всех релевантных страниц Яндекс пытается найти и выдать самый лучший ответ.
Яндекс применяет к сайтам правила, работающие автоматически при помощи алгоритмов:
В целом, у Яндекса тысячи факторов, от которых зависят рейтинги сайтов в выдаче поисковой системы.
Поисковый гигант не делится информацией касательно алгоритмов, используемых для ранжирования. Google точно использует в разы меньше факторов для формирования выдачи, чем Яндекс. При этом, алгоритмы здесь полуавтоматические, так как представители компании считают, что автоматические факторы могут быть непредсказуемыми.
Как отслеживать позиции сайта
Чтобы понимать, насколько хорошо ранжируются страницы сайта в поисковых системах лучше всего проверять позиции страниц по определенным запросам. Это можно делать и вручную, но высок риск получить невереные цифры и представление о точных позициях.
Для проверки и мониторинга позиций лучше использовать сервисы вроде Topvisor, AllPositions или SeoLib.
Заключение
Веб-мастера могут влиять на ранжирование своих сайтов, но только косвенно. Самое главное – не вредить качеству поиска и следовать правилам. Узнать точно, как работают алгоритмы ранжирования невозможно, потому что поисковые системы скрывают некоторые из факторов, чтобы оптимизаторы не могли за счет них манипулировать выдачей. Понимать работу факторов можно только опытным путем, проверяя все на своем опыте.
Ранжирование
Ранжирование – это процесс оценки страницы сайта и определения ее места в поисковой выдаче по заданному запросу пользователя. Механизм ранжирования можно описать так: поисковая система получает запрос от пользователя и анализирует на соответствие ему сайты, которые есть в ее базе данных. Далее она осуществляет сортировку страниц релевантных запросу, применяя различные критерии определения качества страницы и ресурса в целом, и выдает результат пользователю.
Алгоритмы ранжирования
Качество выдачи можно назвать самым важным аспектом для любой поисковой системы. Если оно будет плохим, люди просто перестанут данную ПС. Для формирования качественной выдачи поисковые системы разрабатывают специальные алгоритмы ранжирования, которые недоступны для пользователей Интернета. Для повышения эффективности работы поисковых систем разработчики скрывают методы определения степени релевантности сайтов заданным запросам и постоянно совершенствуют их. О новых алгоритмах пользователи могут узнать из официальных публикаций поисковых систем.
Система ранжирования «Яндекса»
С 1997 года команда «Яндекса» разработала большое количество алгоритмов ранжирования и существенно пересмотрела подход к определению релевантности страниц поисковым запросам пользователей. Например, «Владивосток», «Палех», «Королев» и т. д.
Пример. Алгоритм «Королев» позволяет выявить смысл запроса и сопоставить его с теми задачами, которые пользователь может решить на странице.
Система ранжирования Google
Google также регулярно запускает новые алгоритмы ранжирования в поисковой выдаче, и если Яндекс использует для своих технологий названия городов, то здесь чаще можно встретить одушевленные имена – «Пингвин», «Голубь», «Фред», «Опоссум» и т. д.
Пример. Алгоритм «Фред» позволяет убрать из результатов поиска страницы низкого качества, цель которых – прибыль от размещения ссылок и рекламы других сайтов.
Связь ранжирования и релевантности
Ранжирование сайта в поисковой выдаче во многом зависит от степени его релевантности. Релевантность – это соответствие страницы сайта конкретному поисковому запросу, который ввел пользователь. Чем точнее информация соответствует введенной в поиск фразе, тем более высокую позицию займет сайт в поисковой выдаче.
Основные факторы ранжирования
Существует множество факторов, которые делят на внутренние и внешние.
К внутренним относят качество, количество, актуальность, уникальность материалов, расположенных на продвигаемом сайте. Важными также являются правильно составленные метатеги, заголовки, подзаголовки, качественная организация перелинковки, удобная навигация и т. д.
К внешним факторам относят ссылки, ведущие на продвигаемый ресурс, переходы на сайт из поисковых систем, возраст домена и т. д.
Каждый из перечисленных факторов может оказывать существенное влияние на определение позиции в выдаче или игнорироваться в зависимости от алгоритма поисковой системы.
Ранжирование в деталях
Самым важным процессом поисковых систем для продвижения сайта является ранжирование — процесс выстраивания элементов множества web-страниц в последовательность, определяемую убыванием рангов релевантности этих ресурсов. Для определения ранга релевантности разрабатываются алгоритмы, которые определяют, что должно влиять на позицию, при каких запросах и условиях.
С каждым годом алгоритмы ранжирования совершенствуются: добавляются новые факторы, усложняются механизмы обработки информации – и все для того, чтобы идти в ногу со временем и отвечать на запрос пользователя всегда актуальной и действительно релевантной выдачей. Как спрос определяет предложение, так и алгоритмы ранжирования стимулируют развитие сайта в направлении, востребованном посетителем.
Отсутствие механизма ранжирования привело бы к хаосу в выдаче, когда нужная информация находилась бы далеко за первой десяткой, а наличие собственного сайта не имело бы смысла, кроме как лишний штрих в визитке. Тоже касается и усложнения алгоритмов определения ранга релевантности: если бы определение происходило по индексу цитируемости и ключевым вхождениям, то мы до сих пор бы смотрели на одностраничные сайты без дизайна, не задумываясь о юзабилити.
На определение ранга релевантности влияют различные факторы ранжирования, которых очень много на сегодняшний день и которые можно объединить между собой в группы. Поисковые системы оперируют одними понятиями группировки, оптимизаторы другими. При этом влияние фактора остается неизменным в алгоритме ранжирования. Некоторые факторы могут быть равноценными, что не позволяет линейно сравнивать между собой конкурентов. Однако основные направления задать и определить можно.
В данной статье речь пойдет преимущественно о текстовой и ссылочной составляющей.
Поисковая система Яндекс является наиболее интересным исследуемым объектом в данном плане не только потому, что в ней чаще, чем в других происходят сильные изменения в алгоритме, но и потому, что данная система является первой в Рунете по работе с коммерческими или продающими запросами.
Факторы ранжирования – это те или иные признаки запроса и страницы сайта, которые важны для ранжирования и которые дают оценку странице по заданному запросу.
Можно выделить несколько групп. Первая – статические факторы, которые связаны с самой страницей, например, количество ссылок на эту страницу в интернете. Вторая группа – динамические факторы, связанные одновременно с запросом и страницей – например, присутствие на странице слов запроса, их количество и расположение. Третья группа — запросные факторы – признаки поискового запроса, например, геозависимость.
Если поисковые системы классификацию основывают на принадлежности их к запросу или странице, то seo-специалисты в основу деления ставят направления влияния факторов. Таким образом, специалист по продвижению разделяют все факторы на следующие группы:
— Факторы, оценивающие техническую составляющую сайта, которая в первую очередь влияет на возможность и качество индексации сайта;
— Факторы, оценивающие текстовую составляющую страницы и сайта, которая показывает релевантность содержимого запросу;
— Факторы, оценивающие ссылочную составляющую, как внешнюю, так и внутреннюю, как анкорную, так и трастовую, как страницы, так и всего сайта;
— Факторы, оценивающие поведенческую составляющую, нравится ли сайт посетителям, удобен ли он, отвечает требованиям пользователей;
— Факторы дополнительного назначения, такие как определение соответствия региону пользователя, задающего запрос, и сайта, определение наличия аффилиатов и другие.
Каждое направление работы с сайтом важно и нужно подходить комплексно к работе с сайтом во всех направлениях, чтобы охватить все факторы влияния на ранжирование.
В механизме ранжирования самой важной является оценка документа по релевантности содержания запросу, введенного пользователем. Для ранжирования используется текст запроса, текст документа и некоторые элементы html-разметки документа. Это основные элементы, которые использует поисковая система для составления индексных баз и для определения релевантности документа. Поэтому первое, с чем необходимо работать – это текстовая составляющая web-страницы.
Для понимания механизма оценки релевантности, важности текста и указанных ограничений требуется знать примерные модели поиска, которые представляют собой формулы и подходы, позволяющие программе поисковых систем принимать решение: какой документ считать надежным и как его ранжировать. После принятия модели коэффициенты в формулах часто приобретают физический смысл, позволяя находить свое оптимальное значение для повышения качества поиска.
Представление всего содержимого документа может быть различным – теоретико-множественные модели (булевская, нечетких множеств, расширенная булевская), алгебраические (векторная, обобщенная векторная, латентно-семантическая, нейросетевая) и вероятностные.
Примером первой модели является полнотекстовый поиск, когда документ считается найденным, если найдены все слова запроса. Однако булевское семейство моделей крайне жестко и непригодно для ранжирования. Поэтому в свое время Джойсом и Нидхэмом было предложено учитывать частотные характеристики слов, что повлекло за собой использование векторной модели.
Ранжирование в алгебраической модели основано на естественном статистическом наблюдении, что чем больше локальная частота термина в документе (TF) и больше «редкость» (т.е. обратная встречаемость в документах) термина в коллекции (IDF), тем выше вес данного документа по отношению к термину. Обозначение TF*IDF широко используется как синоним векторной модели.
Сущность метрики TF*IDF — отфильтровать значимые слова от менее значимых (предлогов, союзов и т.д.). TF (term frequency — частота слова) — отношение числа вхождения некоторого слова к общему количеству слов документа. Таким образом, оценивается важность слова в пределах отдельного документа:
где ni – количество вхождений слова из запроса в документ,
nk – количество всех слов в документе.
IDF (inverse document frequency — обратная частота документа) — инверсия частоты, с которой некоторое слово встречается в документах коллекции, рассчитывается по-разному:
где D – число документов в коллекции,
DF – количество документов, в которых встречается лемма,
CF – число вхождений леммы в коллекцию,
TotalLemms – общее число вхождений всех лемм в коллекции.
Согласно открытым экспериментам Яндекса из всех приведенных вариантов лучший результат показал ICF.
Также существует большое множество функций нормирования и сглаживания внутри-документной частоты при вычислении контрастности TF*IDF.
Со временем приведенные формулы совершенствуются и претерпевают изменения.
В 2006-2007 годах использовалась формула подобная (2), когда были попытки добиться высокой релевантности за счет «тошноты» — переспамливания текста ключевыми словами, и это следовало наказывать.
Когда пришла необходимость бороться с «портянками» — большие тексты с ключевыми словами, стала использоваться формула (3). Затем формула еще больше усложнилась, в новом алгоритме поисковые системы используют различные тезаурусы, расширяющие запрос, определяют переспамленность текста не только большим количеством ключей, но и его шлейфом и неудобством оформления текста тегами, неграмотное написание или сочетание слов.
Релевантность в вероятностных моделях основана на оценке вероятности, окажется ли рассматриваемый документ интересным пользователю. При этом подразумевается наличие уже существующего первоначального набора релевантных документов, выбранных пользователем или полученных автоматически при каком-либо упрощенном предположении. Вероятность оказаться релевантным для каждого следующего документа рассчитывается на основании соотношения встречаемости терминов в релевантном наборе и в остальной, «нерелевантной» части коллекции.
В каждой из простейших моделей присутствует предположение о взаимонезависимости слов и условие фильтрации: документы, не содержащие слова запроса, никогда не бывают найденными. На сегодняшний день модели, используемые в ранжировании и определении релевантности, не считают слова запроса взаимонезависимыми, а, кроме того, позволяют находить документы, не содержащие ни одного слова из запроса.
Частично данную задачу решает механизм предпроцессинга запроса, который позволяет устанавливать эмпирически подобранные контекстные ограничения: на каком расстоянии искать слова из запроса, все ли слова должны присутствовать в документе, какими словами можно расширить поиск. Также происходит фактическое объединение по умолчанию контента документа и его анкор-файла в одну поисковую зону.
Механизм фильтрации по кворуму позволяет определять релевантные пассажи в документе. Релевантными считаются все полные пассажи и те неполные, сумма весов слов, которых превосходит необходимый кворум.
В 2004 году использовалась следующая формула кворума:
где QuorumWeight – значение кворума;
Softness – мягкость, соответствует величина от 0 до 1, в документированных записях Яндекса указывается коэффициент 0,06;
QL — длина запроса в словах.
Таким образом, основываясь на известных фактах, кворум для фразы будет иметь следующий вид, с помощью данной формулы определяются какое сочетание слов обязательно, а каким словом можно пренебречь:
где QL* — количество слов из запроса в неполном пассаже;
deg – значение степени 0.38, выведенное экспериментально
Ранжирование документа происходит на основе рассчитанного коэффициента контекстуальной схожести запросу. По факту объединяются все сведения о весе различных пассажей документа, и делается вывод о показателе релевантности документа. В одной из статей Яндекса приводится пример аддитивной модели, которая представляет собой сумму весов каждого слова, пар слов, всех слов, запроса целиком, многих слов в одном предложении и бонуса документам, похожим на помеченные экспертом, т.е. хорошие. Это показывает, что все на странице будет оценено, и доказывает, что к написанию текста нужно подходить очень ответственно.
Далее рассмотрим ссылочную составляющую.
Согласно теории поиска пользователи информационно-поисковых систем определяют ценность документа путем информационных ключей – анкора ссылки. А наличие самих ссылок увеличивает попадание посетителя на страницу. Поэтому поисковые системы используют для выделения одного документа среди кластера также принцип цитируемости.
Индекс цитирования — показатель, указывающий на значимость данной страницы и вычисляющийся на основе ссылающихся страниц на данную. Этот принцип заимствован из научных сообществ, который использовался для оценки ученых и научных организаций.
В простейшей разновидности индекса цитирования учитывается только количество ссылок на ресурс. Но он имеет ряд ограничений. Этот фактор не отражает структуру ссылок в каждой тематике, а также слабозначимые ссылки и ссылки с большой значимостью могут иметь одинаковый индекс цитируемости. Поэтому был введен термин фактор популярности (англ. Popularity Factor) или взвешенный индекс цитирования или вес ссылки, в разных поисковиках этот фактор называется по разному: PageRank в Google, вИЦ в Яндексе. Сами ссылки участвуют в статическом передачи веса, показывая популярность ресурса, и анкорном – по заданным ключам. Также существует тематический индекс цитирования (тИЦ), учитывающий также тематику ссылающихся на ресурс сайтов.
Первоначально, до того как для продвижения сайта стали работать с ссылочной составляющей, индекс цитирования реально отражал популярность соответствующего ресурса в интернете. Как-то в одной из статей технический директор Яндекса Илья Сегалович упомянул, что введение ссылочного поиска и статической ссылочной популярности помогло поисковым системам справиться с примитивным текстовым спамом, который полностью разрушал традиционные статистические алгоритмы информационного поиска, полученные в свое время для контролируемых коллекций.
В 1998 году появилась статья с описанием принципов алгоритма PageRank, используемого в Google. Взвешенный индекс цитирования, как и другие ссылочные факторы ранжирования, рассчитывается из ссылочного графа.
PR — PageRank рассматриваемой страницы,
d — коэффициент затухания (означает вероятность того, что пользователь, зашедший на страницу, перейдет по одной из ссылок, содержащейся на этой странице, а не прекратит путешествие по сети),
PRi — PageRank i-й страницы, ссылающейся на страницу,
Ci — общее число ссылок на i-й странице.
Основная идея заключается в том, что страница передает свой вес распределяя его на все исходящие ссылки, поэтому чем больше ссылок на странице доноре, тем меньший вес каждой достанется. Другая не менее важная идея заключается в понимании принципа цитируемости – это оценка вероятности перехода посетителя по одной из ссылки, а следовательно, вероятность популярности самой страницы сайта, на который ставятся ссылки. Соответственно, чем больше качественных ссылок, тем вероятность популярности ресурса выше.
На сегодняшний день ссылки часто наносят вред качеству поиска, поэтому поисковые системы стали вести борьбу с ссылочной накруткой – размещение Seo-ссылок на сторонних сайтах на коммерческой основе и предназначенные для манипуляции алгоритмами ранжирования. Они принимают все меры, чтобы сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование, а покупка ссылок с сайтов не могла бы привести к повышению ранга сайта-покупателя.
Алгоритмы, применяемые в современных поисковых системах для оценки ссылочной составляющей, претерпели большие изменения, но качество и количество ссылок сохранили свое прямое влияние при выделении страницы среди кластера копий. Чем авторитетней и тематически схожа с вашим ресурсом страница-донор, тем больший вес будет передан сайту, тем выше будет его позиция в поиске.
Автор статьи: Неелова Н.В. (к.т.н., руководитель отдела ПП Ingate).