- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уже второй мой сайт (первый, к счастью, выскочил) оказывается под действием некоего фильтра в Google, информацию о котором я никак не могу найти в Интернете.
Некоторое summary об этом фильтре, которое я собрал самостоятельно:
1) Страницы остаются в индексе, но по всем запросам уносятся непонятно куда
2) Некоторые страницы (1-2 на несколько тысяч) оказываются "суперустойчивыми" и не теряют своих позиций.
3) Фильтр иногда бывает ip-чувствительным - то есть, до недавнего времени посетители из Австралии и почему-то Филиппин находили мой сайт без проблем. Почему "иногда" - сейчас подобное не наблюдается.
и самое интересное:
4) По команде site: страницы сайта выдаются неотранжированными. То есть, если обычно идет сначала главная страница, потом менее значимые, и так по убыванию, то с фильтром этим полный раздрай - сначала идут совершенно незначимые страницы, а морду можно даже и не найти в выдаче.
Кто-нибудь сталкивался с подобным? Я не исключаю, что это может быть песок, но пока еще не видел, чтобы для песка была характерна ситуация, которую я дал в п.4
Тут посмотри, и если хочешь, спроси. Хотя там уже есть около 10-ка подобных вопросов
Может дубль или частично дубль контент?
от чего зависит PR вообще? От кол-ва страниц и возроста ресурса, или только от кол-ва страниц?
от чего зависит PR вообще? От кол-ва страниц и возроста ресурса, или только от кол-ва страниц?
От бэков, разных и хороших. Так же смотри последний патент гугля по PR, тоже есть чуток инфы, а вообще читай форум - инфы куча да и ссылка на статью "Растолкованный PageRank" постили миллион раз
Кто-нибудь сталкивался с подобным? Я не исключаю, что это может быть песок, но пока еще не видел, чтобы для песка была характерна ситуация, которую я дал в п.4
Все что ты описал наблюдаю и на одном из своих сайтов.
Это не песок, но фильтр однозначно.
По своему сайту предполагаю наиболее вероятную причину - резкое увеличение обратных ссылок с одинаковым текстом(сквозняк тобишь), менее вероятная - дублированный контент.
Надеюсь санкция временная;)
Таже ситуация... Есть подозрения, что причина в том, что неделю назад добавили много контента (в два раза больше чем было... контент уникальный)...
Есть у кого-нибудь новая инфа по эжтому фильтру?
Tube, как раз вчера ситуация у меня поменялась на противоположную - сайт, бывший под фильтром, выскочил, а другой попал. Если у тебя это произошло вчера - значит, под фильтр сайты заносит "апдейтами". Я поискал по форумам - в те дни, когда начинается проблемы, иногда возникают сообщения в духе "пропал весь траффик с Гугла", но их мало, и такое ощущение, что очень мало кто знает, с чем имеет дело.
К свои наблюдениям о фильтре могу добавить следующие пункты:
5) Срок действия фильтра - 4-6 месяцев.
6) Выдача по команде site: изменяется практически ежедневно.
Моя гипотеза - проблемы возникают из-за неуникального контента. Причем за неуникальный контент могут посчитаться даже страницы вроде "tell-a-friend" с разными url'ами. На одном из моих сайтов проиндексировалось около 20000 таких страниц, совершенно не нужных в базе. После этого, такое ощущение, что Гугл теряет вес каждой страницы (к терминам не придираться!) и начинает "переваривать" сайт по новой. Выдача по site изменяется ежедневно - и ежедневно изменяется количество проиндексированных страниц. За некоторое время Гугл определяет какие страницы нужны ему в базе, восстанавливает их вес, а ненужные выкидывает. Отслеживая изменения по site я смог с точностью в несколько дней предсказать, когда сайт появится в выдаче.
У меня это произошло 14 часов назад... судя по трафику....
На том сайте который у тебя выскочил траф вернулся???
По поводу контента сложно сказать... сайт - архив файлов определенного назначения... их там 20 тыс... Впринципе в сети есть подобные сайты но на некоторых этих файлов 500, на некоторых 10000... и везде скачка платная, а у меня всё free....
А может это просто разновидность песка? и сайт под фильтром потому что он новый... Просто до этого ни один мой англоязычный сайт не попадал в песок и наблюдений на эту тему у меня мало...
2 Igor-D: А что будет с трафом с гугла в течении действия фильтра?? какие у тебя наблюдения???