- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть у кого опыт возврата страниц отфильтрованных как дубли?
Возможные методики скорейшей реанимации?
Есть у кого опыт возврата страниц отфильтрованных как дубли?
Возможные методики скорейшей реанимации?
Особо не занимался этим вопросом.
В случае чего банально запрещал к индексации старые и потом вводил новые тоже содержания, с поправками во избежание новой фильтрации....
Рекомендую поставить новых бэклинков на дубль, так страница будет быстрее опознана как не дубль.
Есть у кого опыт возврата страниц отфильтрованных как дубли?
Возможные методики скорейшей реанимации?
Если я правильно понял о чем речь, то:
Какое-то время назад для повышения тИЦ и позиций я решил сделать на 40 некоторых своих сайтах статейку о другом сайте и само собой поставил со статей на этот сайт ссылку. Статья, понятно тематическая продвигаемому сайту и ссылка, аля, "по материалам сайта ..."
Чтобы особо не "париться" я сделал статью в виде statya.html со своим дизайном и в таком виде залил на все 40 сайтов. Через пару недель Яндекс подхватил почти все статьи, но в бэках продвигаемого появились только два (!) сайта из сорока! Еще через пару недель Яндекс показал в бэках другие сайты из сорока, но тоже два! Далее, в бэках появились снова два новых сайта, но с самыми высокими параметрами из всей кучи и они там и держались еще пару апдейтов. Остальные сайты в бэках больше не появлялись...
Это был мой первый личный опыт склейки страниц. :)
Тогда я понял ☝ 😂 что Яндекс нормально относится к цитированию типа "одна одинаковая статья на разных сайтах со ссылкой "по материалам такого-то сайта", в этом и есть смысл классического цитирования сайтов. Но! Если эта статья именно на РАЗНЫХ сайтах, т.е. в "обрамлении" разных уникальных html-кодов, а не 100% одинаковые statya.html на разных доменах!
Соответственно, я перенес статью внутрь html-кода каждого из сайтов и тогда, после очередного апдейта страницы спокойно расклеились, в бэках продвигаемого сайта появились почти все 40 долгожданных ссылок и не менее долгожданный эффект в серпе! 🙄
Есть у кого опыт возврата страниц отфильтрованных как дубли?
Опыт есть, я просто изменил текст страниц на "уникальный", через три недели некоторые из низ уже были в серпе Яндекса, остальные пока еще нет (прошло окло 5 недель), жду.
На счет скорейшей реанимации не знаю, робот Яндекса бывает на сайте несколько раз в неделю, но это не дает 100% результата, пока по крайней мере.
Возможные методики скорейшей реанимации?
Самая простая методика: одна уникальная страница - один адрес. Тогда ничего фильтровать не будут :)
Если что-то отфильтровали, надо применять обратное правило: один адрес - одна уникальная страница. Собственно, об этом выше и было уже сказано :)