- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть магазин где используются фильтры товаров соответственно страницы выдающиеся при поиске являются дублями.
И тут встает вопрос как правильнее поступить, вообще закрывать такие страницы для яндекса или использовать мета тег canonical?
У Яндекса этот тег появился позже и я где то находил инфу, что он не совсем правильно учитывает этот тег?
Как дела обстоят сейчас, поделитесь опытом.
Можно rel="canonical", но осторожна.
Если в /blog будет rel="canonical" ссылающийся сам на себя, то Яндекс это не поймет - неоднократно в этом убедился лично.
Можно еще добавить <meta name="robots" content="noindex"/> и для 100% уверенности можно и в robots.txt закрыть.
Можно rel="canonical", но осторожна.
Если в /blog будет rel="canonical" ссылающийся сам на себя, то Яндекс это не поймет - неоднократно в этом убедился лично.
Можно еще добавить <meta name="robots" content="noindex"/> и для 100% уверенности можно и в robots.txt закрыть.
Все работает. И без проблем. Страница, которая не блог, вылетает из индекса и нет дубля. Что в этом плохого?
Inf1n1ty, А если товары на страницах разные, цены для них разные - ведь нам нельзя закрывать странички в ноуиндекс и прописывать их в дисалов в роботсе... ведь мы их все равно получается теряем для яндекса.
Ваш вариант решения проблемы равносилен оставить все как есть...
vagogrande, при каких обстоятельствах все работает? Где прописывали rel="canonical"?
Babytype, О чем речь вообще? Какую-то ахинею несете. Мы тут говорим о дублях - страниц, которые полностью идентичны, но доступны по двум и более url.
vagogrande, при каких обстоятельствах все работает? Где прописывали rel="canonical"?
Babytype, О чем речь вообще? Какую-то ахинею несете. Мы тут говорим о дублях - страниц, которые полностью идентичны, но доступны по двум и более url.
Мне программист написал код который генерит канонический урл для каждой страницы. И выдает его. Для страниц типа
Site.ru/shop/page1?=12 и для страницы
Site.ru/shop/page1/
Site.ru/shop/Page1/
Отдает один и тотже канонический адрес
Site.ru/shop/page1/
И что здесь не работает у яндекса? Он просто выкинул первую и третью страницы из индекса и все.
Canonical учитывается Яндексом нормально.
Для одинаковых карточек товара используем, оставляет только указанный. Естественно, на это требуется время, но инструмент рабочий.
Я специально проводил эксперимент по выявлении причин.
Взял домен и залил туда контента на 6 тысяч страниц (контент уникальный). Все проиндексировалось. Потом взял и ко всем страницам добавил канонические адреса, 50% (3.2к) страниц выпало, потом взял и добавил ко всем страницам <link rel="canonical" href="текущий_адрес_страницы" /> - почти все страницы выпали.
Я специально проводил эксперимент по выявлении причин.
Взял домен и залил туда контента на 6 тысяч страниц (контент уникальный). Все проиндексировалось. Потом взял и ко всем страницам добавил канонические адреса, 50% (3.2к) страниц выпало, потом взял и добавил ко всем страницам <link rel="canonical" href="текущий_адрес_страницы" /> - почти все страницы выпали.
Ну вы прям меня совсем расстроили придется закрывать от индексации наверное такие страницы
на моем опыте rel=canonical не помогает выкинуть из индекса дубли
Я специально проводил эксперимент по выявлении причин.
Это наблюдение только одного сайта?
Может еще несколько было, ну что бы точно понять?