- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте сделано ЧПУ и все урлы выглядят так: "http://сайт/2006/08/23/названиестатьи/".
Также на сайте есть версия всех статей для печати и к основному пути прибавляется окончание "/print/". В итоге получается http://сайт/2006/08/23/названиестатьи/print/.
На этой неделю Yandex обошел все страницы для печати в добавил в индекс, что меня не очень устраивает. Поэтому возникает два вопроса:
Я уже добавил на страницу теги <noindex> и <meta name="robots">, но хочется найти способ, который работал бы с большинством поисковиков. Например я слышал, что <noindex> не учитывается Google.
1) robots.txt
для гугла
User-agent: Googlebot
Disallow: /*print
2)
http://webmaster.yandex.ru/delurl.xml
но нужно чтобы сервер при обращении по заданному URL выдавал в заголовках ответа ошибку 404
1) robots.txt
для гугла
User-agent: Googlebot
Disallow: /*print
А для Yandex, Rambler и т.д.
Я знаю что yandex не умеет работать с такими операторами.
http://webmaster.yandex.ru/delurl.xml
но нужно чтобы сервер при обращении по заданному URL выдавал в заголовках ответа ошибку 404
А как я могу это сделать. Есть только один способ, оключить плагин, который создает такие страницы. Но это не хорошо.
Используйте <meta name="robots" content="noindex">
Используйте <meta name="robots" content="noindex">
Я это уже сделал, просто хочу узнать. Если ли еще другие способы...
Я это уже сделал, просто хочу узнать. Если ли еще другие способы...
Чтож Вы еще хотите? Но если этого Вам мало, то сделайте скрипт, который будет заносить адреса этих страниц в robots, правда размер последнего будет не маленький, если у Вас много таких страниц будет. Вобщем я Вам не советую, лучше как советовали предыдущие
Я на версиях для печати делаю серверный редирект для робота на нормальную страницу, самый быстрый способ да и индексит чаще
/ru/forum/70742
В принципе - похожая проблема.
/ru/forum/70742
В принципе - похожая проблема.
MaulNet спасибо, но для этого мне придется менять плагин, а это не очень хочется делать, тем более что это не мой плагин.
Я на версиях для печати делаю серверный редирект для робота на нормальную страницу, самый быстрый способ да и индексит чаще
А если можно, то как его сделать, через htaccess? Или есть другой более экономичный способ?
А если можно, то как его сделать, через htaccess? Или есть другой более экономичный способ?
RewriteCond может проверять %{USER_AGENT} - для робота делай реврайт на непечатную