Сила ссылки

123 4
john2007
На сайте с 26.03.2007
Offline
173
6927

На сколько реально, что Яндекс высчитывая силу ссылки, расчитывает вес страницы-донора не статически, а динамически, т.е. в зависимости от запроса. Например, так:

- вес страницы (донора) тем выше, чем она релевантнее запросу (выше при ранжировании). Требует от Яндекса ранжирования в несколько этапов (итерационно), например 2-3 этапа. На первом этапе страницы ранжируются и сила доноров принимается статической, на втором этапе страницы ранжируются и сила доноров принимается исходя из позиции страницы, расчитанной на первом этапе и т.д.

- вес страницы (донора) тем выше, чем больше ссылок с релевантным запросу анкором на него ведет. В принципе, метод - такой же, как предыдущий, только учитываются не все факторы, а только ссылочное (анкорное) ранжирование. Похоже на запросозависимый вИЦ(PR).

ИМХО, методика хорошая, она позволяет неплохо учитывать тематичность донора запросу при ранжировании. Но, естественно, требует существенного увеличения мощностей. Хватит в настоящий момент у Яндекса мощностей для такого ранжирования, додумались они до такого решения, успели ли уже реализовать?

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
di_max
На сайте с 27.12.2006
Offline
262
#1

Яндекс был бы не Яндекс, если бы не изобретал что-то свое, а использовал нечто, давно известное. Тем более - в свете последних изменений...

И еще позволю себе заметить, что:

- Все гениальное - просто.

Как пример - алгоритм определения уникальности текста.

(Статья Сегаловича о нем есть на Яндексе.)

// Все наши проблемы от нашего не знания...
MiRaj
На сайте с 03.07.2006
Offline
509
#2

john2007, есть более простые способы учесть релевантность донора реципиенту.

Муркетолог. 100 пресс-релизов с прямыми ссылками за 150 баксов? Легко! (http://b2blogger.com) Статейный маркетинг - лучшее лекарство от Минусинска! (http://miralinks.ru)
john2007
На сайте с 26.03.2007
Offline
173
#3

Roman Pinkovskiy, MiRaj, я не про релевантность донора реципиенту. Я про релевантность донора запросу.

MiRaj
На сайте с 03.07.2006
Offline
509
#4

john2007, по умолчанию считаем реципиента релевантным запросу ;)

Тогда достаточно проверить релевантность донора реципиенту вместо того, чтобы вводить релевантность через ссылку.

Идею вашу я понял, но зачем считать релевантность запросу (при каждом запросе) если достаточно проверить 1 раз связку донор-реципиент.

john2007
На сайте с 26.03.2007
Offline
173
#5

di_max, Вы извините, но Ваш пост годится, пожалуй, к любому топику :)

Не могли бы вы конкретизировать свою мысль.

john2007
На сайте с 26.03.2007
Offline
173
#6
MiRaj:
john2007, по умолчанию считаем реципиента релевантным запросу ;)
Тогда достаточно проверить релевантность донора реципиенту вместо того, чтобы вводить релевантность через ссылку.

Идею вашу я понял, но зачем считать релевантность запросу (при каждом запросе) если достаточно проверить 1 раз связку донор-реципиент.

Считаем релевантным. Задача ранжирования, определить степень релевантности. Я о том, что бы в расчете релевантности акцептора учитывать релевантность запросу его доноров.

Как один раз проверить? Нужно же для всех возможных запросов, а значит в момент запроса.

По одному запросу донор релевантен, по другому - нет.

MiRaj
На сайте с 03.07.2006
Offline
509
#7
john2007:
Нужно же для всех возможных запросов, а значит в момент запроса.
По одному запросу донор релевантен, по другому - нет.

john2007, поясните, ибо то что написано - неосуществимо.

Вы сейчас предложили для каждого запроса считать не только релевантность запросу реципиента, но и всех его доноров. Т.е. получаем дополнительную нагрузку на сервер в размере числа доноров на каждого реципиента (даже если считать только текстовую релевантности, все равно - нагрузка заметно возрастет).

john2007
На сайте с 26.03.2007
Offline
173
#8
MiRaj:
john2007, поясните, ибо то что написано - неосуществимо.

Почему неосуществимо. Не одно ранжирование, а несколько итераций ранжирования по запросу.

Проранжировали первый раз все сайты по запросу в момент запроса. Далее в выдаче сайты друг для друга являются донорами и акцепторами. Повторно вычисляем релевантность акцепторов запросу исходя из релевантности запросу (позиции в предыдущей расчитанной выдаче) их доноров. Потом еще одна итерация и т.д. на сколько вычислительных мощностей хватит. Думаю, что 3 итерации уже не плохо.

Грубо - если есть microsoft и на него много ссылок с анкорами "outlook" и с microsoft ссылка на нас (даже не особо важно с каким анкором, но можно и это еще дополнительно учитывать), то по "outlook" мы в топе.

MiRaj
На сайте с 03.07.2006
Offline
509
#9

john2007, ну давайте посчитаем - пусть у нас 10000 найденных сайтов и примерно 500 беков у каждого.

Во сколько раз увеличится количество выполненных запросов?

john2007:
Далее в выдаче сайты друг для друга являются донорами и акцепторами.

вот эту фразу не понял.

di_max
На сайте с 27.12.2006
Offline
262
#10
john2007:
Не могли бы вы конкретизировать свою мысль.

Пожалуйста!

Вопрос не только и не столько в релевантности самому запросу.

1. Так, как релевантность пассажей пересчитавать динамически(!) - удовольствие накладное, с точки зрения машинных ресурсов.

Следовательно - используется более простая и эффективная, по затратам, схема.

2. Вероятность применения "классических" алгоритмов Яндексом, в настоящее время, имхо, достаточно мала.

3. Следовательно - рассматривать нужно не под углом "классических формул".

4. Тому примеры есть, проявившиеся с начала августа.

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий