- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет,
Вас наверно уже дастали спрашивать о робот.тхт, но собственно вопрос не совсем о нем...
Вообщем, в роботе.тхт ясно прописано:
User-agent: *
Disallow: /Folder_name/
Никто кроме Гугла, не проиндексировал то что внутри,
Как Гугл это проиндексировал?
Как выбить это из гугл кеша?
В тех файлах нет никакой информации, просто выполняется код(Интеренет магазин), и происходит переадрисация в нужное место.
Это не дорвей, и никак не вредит пользователям, визуально они там же где и были.
Заранее спасибо.
Адрес сайта, сюда или в личку.
Тогда надо завести аккаунт в Google Automatic removal - там указываешь путь к robots.txt, и все запрещенные к индексации файлы будут удалены из поисковой базы; больше они точно не будут проиндексированы. У меня тоже была подобная ситуация.
Сам недавно с подобным столкнулся.
Дело в том, что гугл не всегда запрашивает роботс, особенно если приходит по ссылке не на индексную страницу.
Скорее всего он эти страницы внес в индекс, но со временем выбросит.
А вообще лучше запрет дублировать в мета-роботс.
Как Гугл это проиндексировал?
Есть сильное подозрение, что где-то в robos.txt есть ошибка, которую Гугль не желает игнорировать, зато игнорирует всю запись целиком. Такой ошибкой может быть, к примеру, яндексовская директива Host или яховская директива Crawl-delay в общем разделе, а не персональном для конкретного бота.
Кстати, не могу не заметить факта, что в FAQ у Яхи пример даётся именно для бота Slurp, тогда как у Яндекса стоит *.