Уникальность контента

123 4
T
На сайте с 06.09.2005
Offline
3
2923

Добрый день!

Вроде уже во много разобрался. Осталась одна тема, не очень для меня понятная, а именно duplicate content(DP). Насколько я понимаю, чем идет о сходстве контента разных страниц (включая страницы разных доменов и субдоменов).

Вот скажем есть в интернете две одинаковые страницы:

a. domainA.com/reviewA.html

b. domainB.com/reviewB.html

1. Каким образом гугл определяет, которая из страниц является оригиналом и, соответственно, какой из ресурсов (A or B) требуется наказать за DP?

2. Насколько велико должно быть соответствие текста страниц, чтобы они показались гуглу DP? Что будет, если на странице A лежит полный вариант статьи (5 абзацев), а на странице B урезанный (2 абзаца)?

Спасибо!

[Удален]
#1

Смотрит по кэшу своему, имхо.

На практике - достаточно полного совпадения одного абзаца, чтобы вся страница пенализировалась.

minaton
На сайте с 18.09.2004
Offline
135
#2

Скорее всего, как и Яндекс - по уровню PR.

А как Гугл наказывает за дубль? ;) Наказание - отсутсвие в серпе.

T
На сайте с 06.09.2005
Offline
3
#3

2Константин: не уверен, но вроде по кэшу действительно было бы логичнее..

А насколько сильные должны быть изменения? То есть если в абзаце из 100 слов изменить, скажем 5-10 слов. Наверняка в такой ситуации в гугла просто не хватит сообразительности найти схожесть?

Offshore
На сайте с 24.09.2003
Offline
111
#4
Скорее всего, как и Яндекс - по уровню PR.

Не соглашусь, хоть раньше, возможно так и было.

Думаю, Гугл достаточно умный, чтобы определять первоисточник. Например, если у страницы со статьей есть 50 копий, и половина из них ссылается на одну и ту же, то с высокой вероятностью можно предположить, что именно она и есть оригинал.

(ИМХО, конечно :) )

[Удален]
#5

Если по ПР, то все печально. Выходит, что любой пиаристый сайт может безболезненно грабить статьи с мелкашек, при этом убивая их даже в серче? )

D
На сайте с 05.07.2005
Offline
5
#6
kevindark:
Если по ПР, то все печально. Выходит, что любой пиаристый сайт может безболезненно грабить статьи с мелкашек, при этом убивая их даже в серче? )

Для этого и существует Copyright

Lor
На сайте с 28.05.2004
Offline
353
Lor
#7
Выходит, что любой пиаристый сайт может безболезненно грабить статьи с мелкашек ...

"Высокопиаристый сайт" обычно уже не нуждается в чужом контенте, если это только не "баблогребный" сайт, увешанный AdSense как новогодняя елка. :)

Йопез - форум без модераторов. https://yopez.com
minaton
На сайте с 18.09.2004
Offline
135
#8
Если по ПР, то все печально. Выходит, что любой пиаристый сайт может безболезненно грабить статьи с мелкашек, при этом убивая их даже в серче? )

Не сайт, а страница :)

Думаю, Гугл достаточно умный, чтобы определять первоисточник. Например, если у страницы со статьей есть 50 копий, и половина из них ссылается на одну и ту же, то с высокой вероятностью можно предположить, что именно она и есть оригинал.

Ну это и есть суть система PR :) У страницы-оригинала будет PR выше ;)

ДЖАЗЗ!
На сайте с 10.02.2004
Offline
282
#9

А если англоязычный контент украли из рунета. Определит ли это Гугл? Запиналит? И как он за дупликат пиналит?

И опять же весь сайт или ту самую страницу?

iГоша
На сайте с 12.10.2004
Offline
51
#10
minaton:

Ну это и есть суть система PR :) У страницы-оригинала будет PR выше ;)

Совсем не обязательно. Стандартная ситуация - популярный новостной сайт перепечатал статью с какого-либо специализированного и менее популярного сайта.

В выдаче первой и/или единственной будет статья с популярного новостного сайта.

С уважением, iГоша
123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий