- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ситуация такая-был сайт, ща перенесли на движок,стоит движок мамбо 4.5, контент остался старый, прикручен модуль статистики-показывает какие боты заходили, время и какие страницы схавали. после создания google sitemaps.xml боты гугла,яхо,мсн и других в день по несколько раз сканят разные страницы сайта, все боты-как боты-а яша подонок, заходит на главную и уходит.
Суть вопроса- как яшку заставить ходить на другие страницы? редиректов не стоит, контент сарого сайта, на главной есть ссылка на карту сайта внизу страницы -тут мона глянуть http://www.teo-moscow.ru/
пробовал добавить сайт в яшку -пишет, мол по мере обхода робота сайт будет добавлен, но его так и нет в индексе. страница-проверить урл-не дает ниче, но сайт через поиск выдает старые линки.
мож потому как содержание страниц не изменилось-и яшка сопротивляецца? думаю мож удалить из яши сайт и добавить снова?
на таком же движке есть сайт- без всяких усилий-по основным запросам сайт в первой десятке,причем никаких действий никто не предринимал спецом-как то само все,думаю за счет XML файлов и в яше и в гугле, после добавления в яшу-проиндексился чрз 2 недели-и все шоколадно!!!...а этот млин нехочет....посоветуйте че сделать..
На данный момент Яндексом проиндексировано на этом сайте 9 страниц.
Тут можно глянуть: http://www.yandex.ru/yandsearch?serverurl=http%3A%2F%2Fwww.teo-moscow.ru%2F
P.S. Хотя да, только сейчас заметил, что это все старые линки.
На данный момент Яндексом проиндексировано на этом сайте 9 страниц.
Тут можно глянуть: http://www.yandex.ru/yandsearch?serverurl=http%3A%2F%2Fwww.teo-moscow.ru%2F
Вот именно эти страницы от старого сайта.....они имеют такой вид:
http://www.teo-moscow.ru/?mn=find
http://www.teo-moscow.ru/?mn=info
итд....
а новые страницы имеют вид :
http://www.teo-moscow.ru/component/option,com_samsitemap/Itemid,29/
http://www.teo-moscow.ru/content/view/12/25/
итд...😕
вот именно новые ссылки яшка не хочет индексить, те на главную каждый день заходит и сваливает 😕
Та же беда с одним сайтом. Не индексирует яндекс дальше первой страницы сайт, на котором ссылки вида component/o...map/Itemid,29/... Зато сайтину схожей тематики, но со ссылками, оформленными как статика, скушал от начала и до конца.
Оба сайта стоят на одном движке, давались на индексацию почти одновременно и количество ссылок на них - в разницу штук десять...
С псевдостатикой - нормально проиндексирован, с "нелюдскими" же урлами ни в какую... Главная, и та при последнем апе выпала... 😡 😡
ага, и у меня та же проблема, яндекс пишет, что проиндексил 2-е страницы и обе главные, только у меня еще яху сопротивляется, дальше главной не идет
total, я смогу прикопаться к следующему:
а) ссылок мало =)
б) В заголовках:
Cache-Control: no-store, no-cache, must-revalidate
Cache-Control: post-check=0, pre-check=0
Разве моно дважды одинаковый заголовок отсылать?
Разве моно дважды одинаковый заголовок отсылать?
А зачем вообще на страницах по-сути с неизменяемым контентом такие http-заголовки, в т.ч. и
Last-Modified: Thu, 17 May 2007 10:18:20 GMT ,
указывающий всем, в т.ч. и Яндексу, что страницы сайта непрерывно меняются?
total, я смогу прикопаться к следующему:
а) ссылок мало =)
б) В заголовках:
Cache-Control: no-store, no-cache, must-revalidate
Cache-Control: post-check=0, pre-check=0
Разве моно дважды одинаковый заголовок отсылать?
ссылок надо больше вставить на главной на основные разделы? в footer вставил ссылку на карту сайта-думаю мож схавает?
вот эти строчки мне не ясны- Cache-Control: no-store, no-cache, must-revalidate
Cache-Control: post-check=0, pre-check=0 можно подробней, для чайника)))
по началу был косяк в нарезке шаблона-два раза подряд генерил тег title на всех страницах...ща исправил...теперь имеет вид:
===========================================
<title>Грузоперевозки,отправка контейнера,услуги, груз</title>
<meta name="title" content="О КОМПАНИИ" />
<meta name="author" content="Administrator" />
<meta name="description" content="бла-бла-бла" />
===========================================
это правильно?
и еще,...в админке отключил кэширование сайта? это влияет на индекс?
Есть такой прикольный сайтик - www.yandex.ru
Там можно найти что такое Cache-Control и как влияет админка на индекс. Любая.
вот эти строчки мне не ясны- Cache-Control: no-store, no-cache, must-revalidate
Cache-Control: post-check=0, pre-check=0 можно подробней
header('Expires: Mon, 26 Jul 1997 05:00:00 GMT');
header('Cache-Control: no-store, no-cache, must-revalidate');
header('Cache-Control: post-check=0, pre-check=0', FALSE);
header('Pragma: no-cache');
Это гарантирует, что никакой web-браузер или промежуточный прокси-сервер не будет кэшировать страницу, таким образом посетители всегда получат самую последнюю версию контента. Фактически, первый заголовок должен быть самодостаточным, это лучший способ гарантировать, что страница не кэшируется. Заголовки Cache-Control и Pragma добавлены с целью «подстраховаться». Хотя они не работают во всех браузерах или прокси, они отловят некоторые случаи, в которых Expires не работает должным образом (например, если дата на компьютере клиента установлена неправильно).
http://php.russofile.ru/ru/translate/unsort/chachig_in_php (c)
--
Ваш заголовок Last-Modified кроме того, указывает, что сайт изменяется непрерывно динамически, как будто это "крутой" новостной ресурс :) , я бы его убрал.
Кстати, просто так без причины отключенное кэширование создает ненужную нагрузку на сервер, и если ваш тарифный план хостинга недостаточно высок, то в пиковые часы сайт может быть недоступен.
http://php.russofile.ru/ru/translate/unsort/chachig_in_php (c)
--
Ваш заголовок Last-Modified кроме того, указывает, что сайт изменяется непрерывно динамически, как будто это "крутой" новостной ресурс :) , я бы его убрал.
вот знать бы где он там, этот заголовок убирается? в админке есть функции-отключить кэш, динамические заголовки страниц в зависимости от просм материала, и дружественные seo урлы....-попробую помаклить с этими функциями...для включения дружественных сео урлов необходимо залить в корень .htacess такого содержания
===================================================================
#
# mod_rewrite in use
#
RewriteEngine On
# Uncomment following line if your webserver's URL
# is not directly related to physical file paths.
# Update YourMamboDirectory (just / for root)
# RewriteBase /YourMamboDirectory
#
# Rules
#
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*) index.php
===============================================================
мож тут косяк? я в этом нибум-бум(((