- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поставлена прердо мной задача - закрыть от индексации часть страниц, связанных цепочой ссылок:
как пример
A>B>C>D>E
при этом надо, чтобы страницы B и D не индексировались, но при этом чтобы страницы С и E не "повисли в воздухе" и не были выкинуты из индекса.
Все было бы просто - <meta name="Robots" content="Noindex, Follow"> если бы закрыть страницы от индексации нужно было для всех поисковиков. А нужно лишь для части.
Есть ли какие-то техники, кроме как анализ того какой робот пришел и замены тега META?
P.S. Есть ощущение, что роботы поисковиков на тег перестают обращать внимание - как минимум Google. Пока только ощущение, без доказательств.
Есть ощущение, что роботы поисковиков на тег перестают обращать внимание - как минимум Google. Пока только ощущение, без доказательств
Тогда выкиньте ощущение. Если страница попала в индекс, без веских причин пропасть не должна. Закройте то, что не должно быть в индексе, вот и все.
Тогда выкиньте ощущение. Если страница попала в индекс, без веских причин пропасть не должна. Закройте то, что не должно быть в индексе, вот и все.
Извините, недостаточно четко оформил мысль. Я имел в виду, что робот индексирует страницы, не смотря на то, что в МЕТА прописано. Меня беспокоит не пропажа страниц а наоборот - как сделать так, чтобы страница в индекс НЕ попала. А цепочка - сохранилась.
Поставлена прердо мной задача - закрыть от индексации часть страниц, связанных цепочой ссылок:
как пример
A>B>C>D>E
при этом надо, чтобы страницы B и D не индексировались, но при этом чтобы страницы С и E не "повисли в воздухе" и не были выкинуты из индекса.
Можете указать в robots.txt
User-agent: *
Disallow: /B.php
Disallow: /D.php
Если есть ссылке с индексируемых страниц на страницы C и E, например с карты сайта, тогда они не зависнут