- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Вроде уже во много разобрался. Осталась одна тема, не очень для меня понятная, а именно duplicate content(DP). Насколько я понимаю, чем идет о сходстве контента разных страниц (включая страницы разных доменов и субдоменов).
Вот скажем есть в интернете две одинаковые страницы:
a. domainA.com/reviewA.html
b. domainB.com/reviewB.html
1. Каким образом гугл определяет, которая из страниц является оригиналом и, соответственно, какой из ресурсов (A or B) требуется наказать за DP?
2. Насколько велико должно быть соответствие текста страниц, чтобы они показались гуглу DP? Что будет, если на странице A лежит полный вариант статьи (5 абзацев), а на странице B урезанный (2 абзаца)?
Спасибо!
Смотрит по кэшу своему, имхо.
На практике - достаточно полного совпадения одного абзаца, чтобы вся страница пенализировалась.
Скорее всего, как и Яндекс - по уровню PR.
А как Гугл наказывает за дубль? ;) Наказание - отсутсвие в серпе.
2Константин: не уверен, но вроде по кэшу действительно было бы логичнее..
А насколько сильные должны быть изменения? То есть если в абзаце из 100 слов изменить, скажем 5-10 слов. Наверняка в такой ситуации в гугла просто не хватит сообразительности найти схожесть?
Не соглашусь, хоть раньше, возможно так и было.
Думаю, Гугл достаточно умный, чтобы определять первоисточник. Например, если у страницы со статьей есть 50 копий, и половина из них ссылается на одну и ту же, то с высокой вероятностью можно предположить, что именно она и есть оригинал.
(ИМХО, конечно :) )
Если по ПР, то все печально. Выходит, что любой пиаристый сайт может безболезненно грабить статьи с мелкашек, при этом убивая их даже в серче? )
Если по ПР, то все печально. Выходит, что любой пиаристый сайт может безболезненно грабить статьи с мелкашек, при этом убивая их даже в серче? )
Для этого и существует Copyright
"Высокопиаристый сайт" обычно уже не нуждается в чужом контенте, если это только не "баблогребный" сайт, увешанный AdSense как новогодняя елка. :)
Не сайт, а страница :)
Ну это и есть суть система PR :) У страницы-оригинала будет PR выше ;)
А если англоязычный контент украли из рунета. Определит ли это Гугл? Запиналит? И как он за дупликат пиналит?
И опять же весь сайт или ту самую страницу?
Ну это и есть суть система PR :) У страницы-оригинала будет PR выше ;)
Совсем не обязательно. Стандартная ситуация - популярный новостной сайт перепечатал статью с какого-либо специализированного и менее популярного сайта.
В выдаче первой и/или единственной будет статья с популярного новостного сайта.