фильтрация дублей

РВ
На сайте с 21.09.2006
Offline
6
692

Есть у кого опыт возврата страниц отфильтрованных как дубли?

Возможные методики скорейшей реанимации?

Берегись Интернет! Рядом дети играют в SEO.
Marvellous
На сайте с 09.02.2006
Offline
130
#1
Роман Вяземский:
Есть у кого опыт возврата страниц отфильтрованных как дубли?

Возможные методики скорейшей реанимации?

Особо не занимался этим вопросом.

В случае чего банально запрещал к индексации старые и потом вводил новые тоже содержания, с поправками во избежание новой фильтрации....

...
XoioX
На сайте с 06.10.2004
Offline
135
#2

Рекомендую поставить новых бэклинков на дубль, так страница будет быстрее опознана как не дубль.

D
На сайте с 09.06.2006
Offline
165
#3
Роман Вяземский:
Есть у кого опыт возврата страниц отфильтрованных как дубли?
Возможные методики скорейшей реанимации?

Если я правильно понял о чем речь, то:

Какое-то время назад для повышения тИЦ и позиций я решил сделать на 40 некоторых своих сайтах статейку о другом сайте и само собой поставил со статей на этот сайт ссылку. Статья, понятно тематическая продвигаемому сайту и ссылка, аля, "по материалам сайта ..."

Чтобы особо не "париться" я сделал статью в виде statya.html со своим дизайном и в таком виде залил на все 40 сайтов. Через пару недель Яндекс подхватил почти все статьи, но в бэках продвигаемого появились только два (!) сайта из сорока! Еще через пару недель Яндекс показал в бэках другие сайты из сорока, но тоже два! Далее, в бэках появились снова два новых сайта, но с самыми высокими параметрами из всей кучи и они там и держались еще пару апдейтов. Остальные сайты в бэках больше не появлялись...

Это был мой первый личный опыт склейки страниц. :)

Тогда я понял ☝ 😂 что Яндекс нормально относится к цитированию типа "одна одинаковая статья на разных сайтах со ссылкой "по материалам такого-то сайта", в этом и есть смысл классического цитирования сайтов. Но! Если эта статья именно на РАЗНЫХ сайтах, т.е. в "обрамлении" разных уникальных html-кодов, а не 100% одинаковые statya.html на разных доменах!

Соответственно, я перенес статью внутрь html-кода каждого из сайтов и тогда, после очередного апдейта страницы спокойно расклеились, в бэках продвигаемого сайта появились почти все 40 долгожданных ссылок и не менее долгожданный эффект в серпе! 🙄

DIAFAN.CMS (http://www.diafan.ru/), система управления сайтами.
В2
На сайте с 25.06.2006
Offline
3
#4
Роман Вяземский:
Есть у кого опыт возврата страниц отфильтрованных как дубли?

Опыт есть, я просто изменил текст страниц на "уникальный", через три недели некоторые из низ уже были в серпе Яндекса, остальные пока еще нет (прошло окло 5 недель), жду.

На счет скорейшей реанимации не знаю, робот Яндекса бывает на сайте несколько раз в неделю, но это не дает 100% результата, пока по крайней мере.

K. Ermakov
На сайте с 10.12.2004
Offline
328
#5
Роман Вяземский:
Возможные методики скорейшей реанимации?

Самая простая методика: одна уникальная страница - один адрес. Тогда ничего фильтровать не будут :)

Если что-то отфильтровали, надо применять обратное правило: один адрес - одна уникальная страница. Собственно, об этом выше и было уже сказано :)

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий