- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
hasugosu, у меня есть свое решение (дописывал Webarchive Grabber), которое делает все, кроме 5 и 8. По времени это заняло 2-3 часа. Доплачивать за 5 и 8 я готов, но явно не более 20$
Fruit, и оно работает с текущей версией веб-архива?
Ау, ТС, вы тут ? Как услуга ваша работает или где ?
Будет, конечно. Лично мне необходимо:
1) вводим урл
2) получаем архив с сайтом
3) скрипт удаляет то, что вставлено веб-архивом
4) ко внешним ссылкам добавляет rel="nofollow" (опционально)
5) удаляет не существующие картинки (опционально)
6) исправляет внутренние ссылки
7) исправляет урлы, для несуществующих страниц (а так же для существующих, если придется править урлы) формируется файлик с редиректом
8) ну и самое интересное: версий сайта, как правило, несколько. Должна быть возможность выбора, с какой работаем. Если натыкаемся на несуществующий внутряк, то ищем его в других версиях сайта.
Такой скриптик я бы купил.
Почти доделал свою программу-парсер webarchive.org, то что Вы описали добавлено, плюс еще пару вкусностей(многозадачность, возможность выбора версий сайта(вернее даты), вставка и замена любого кода, то есть например вставить код sape или другой системы в любом выбранном месте очень просто), скрин текущей версии:
15.07 зарелизю, приблизительная стоимость 35$.
15.07 зарелизю, приблизительная стоимость 35$.
Респект! Готов взять, напишите, пожалуйста, как будет готово.
Занимаюсь востановлением сайтов из архива
15.07 зарелизю, приблизительная стоимость 35$.
так, где релиз? я готов купить.
так, где релиз? я готов купить.
http://seomoneys.net/?p=234
Собственно интересует скрипт !
Вот только :
как-бы увидеть чего он реально выкачивает.
Почему собственно спрашиваю, а вот почему :
http://warrick.cs.odu.edu/
Recent changes made by the Internet Archive have broken Warrick’s ability to recover websites. We are aware of the problem but will not be able to fix it for several weeks. Sorry for the inconvenience.
Т.е. поменялись как я понял алгоритмы у вебархива и скажем тот же варрик уже не работает, впрочем как и archive grabber
Как предварительно посмотреть что она может ???
Ссылку что-ли дали на какой-нибудь выкачанный сайтик небольшой !
Собственно ответ на этот вопрос, хотелось-бы услышать и от hasugosu, и от seomoneys
заинтересован, но очень необходима возможность добавить пару десятков- сотню урлов для выкачивания и желателен серверный вариант