- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Давно известно, что Гоша индексирует js код и выдёргивает оттуда урлы, причём как абсолютные, так и относительные. Но вот как он это делает, удивило.
Выделить УРЛ из строки - задача плёвая, вытащить относительный УРЛ тоже можно, чем и занимается Гоша. Он вытаскивает абсолютные УРЛы и индексит их, относительные тоже тупо дёргает как строку, но вот про выполнение JS кода речи не идёт.
Ситуация:
Есть JavaScript функция, которая при определённых параметрах грузит/инклудит (кому как нравится) js скрипт. Вот пример формирования адреса скрипта:
В данном случае, Гоша дёргает часть УРЛа '/folder/script_name_' и бежит его индексировать, отсюда ошибки в Вебмастере.
Много времени меня добивала 404-я ошибка вида http://site.ru/a, все мои поиски выявить злосчастный УРЛ были обречены, но после недавнего обновления Гугл Вебмастера ситуация прояснилась, скорее всего такие ошибки вылезают из сторонних скриптов, которые Гоша с удовольствием кушает. Хотя даже после обновления выявить скрипт, из которого берётся УРЛ проблематично, приведённую выше ошибку я нашёл только потому, что помнил где и как формируется такой адрес. Вот нафига это нужно? Тупой парсинг js кода - это бред, с таким же успехом можно парсить и комментарии.
Мало того, что прятать УРЛы в JavaScript - бесполезное занятие, теперь мы получили ещё одну проблему в виде "битых" адресов, спасибо Гоше.
Я вообще хотел подметить, что Гоша стал неплохо разбираться в JS коде. Сделал перелинковку на продвижение низкочастотников. Обратных ссылок на категории и тем более на морду не делал. ТОлько JS кодом. В итоге проиндексировались странички, которые как бы не должы были.
Я вообще хотел подметить, что Гоша стал неплохо разбираться в JS коде. Сделал перелинковку на продвижение низкочастотников. Обратных ссылок на категории и тем более на морду не делал. ТОлько JS кодом. В итоге проиндексировались странички, которые как бы не должы были.
Смотря что иметь в виду под "разбирается", я описал всю суть разбора кода, если у вас ссылки в коде описаны одной неразрывной строкой, то тут и дурак разберётся
Извиняюсь за наивный вопрос....
А прятать в "nofollow" тоже бесполезное занятие?
Смысл в ненужной потере веса или нежелательной индексации... ?
---------- Добавлено 15.03.2012 в 11:43 ----------
Ещё я хотел спросить, где правильно поставить rel="nofollow" вот в таком варианте ссылки, чтоб она не передавала вес:
<INPUT onclick="location.href='http://google.ru/' " type=button value="Google" />
ошибка вида http://site.ru/a
Попробуйте Disallow: /a
Ещё бывает.
Можете покопаться в примере... подключение JS — в другом файле... выполнения XSLT автор не может дождаться.
проиндексировались странички, которые как бы не должы были
Это может произойти по другим причинам... как и Яндекс проиндексил SMS-ки и пр.
Попробуйте Disallow: /a
Плюсую.
Закрывайте гуглокривости через роботсы и будет всё нормально.
Попробуйте Disallow: /a
Плюсую.
Закрывайте гуглокривости через роботсы и будет всё нормально.
Пока это единственный вариант, но это тупость, каждый кривой УРЛ запрещать в роботсе
Я вообще хотел подметить, что Гоша стал неплохо разбираться в JS коде.
разбирается уже давно и практически, в любом коде.
на то он и Google...
разбирается уже давно и практически, в любом коде.
на то он и Google...
Если бы он разбирался "практически в любом коде", не было бы таких тупых ошибок.
Другое дело, что у гугла, по видимому, несколько источников информации о js-скриптах. Первый - от индексатора, где встроен очень простой quick&dirty анализатор, который и плодит подобные тупые ошибки. Судя по тому, что Гугл умудряется таки иногда достать информацию, на получении которой фейлит quick&dirty, у него есть ещё как минимум один источник. Возможно, от системы снятия скриншотов сайтов, где перед рендерингом страницы полноценно выполняется практически весь код, включая подтягивание данных по ajax и т.д. и т.п.