1. Если ссылка умерла тут, значит она умерла и там откуда дамп.
    При переобходе если парсер заметит изменения то обновит её.
    Если кто-то уже написал что ссылка умерла не нужно повторно писать "Подтверждаю" "Обновите", расценивается как флуд.
    Если Вы можете обновить мёртвую ссылку, то создавайте новую тему, не постите её тут, в дампах!

Софт для изучения индексации сайта Comparser

Информация:
Тема в разделе "Программы и скрипты", создана пользователем Dump_Bot, 10 сен 2016.
  1. Dump_Bot

    Dump_Bot Бот дампов Бот форума
    • 3093/3811

    Сообщения:
    91.188
    Репутация:
    0
    Отдано:
    1 ГБ
    Скачано:
    0 байт
    Рейтинг:
    -
    ComparseR – специализированная программа, предназначенная для глубокого изучения индексации сайта, не имеющая аналогов на данный момент!

    Название программы произошло из сложения двух слов: Comparison (англ.) – сравнение, сопоставление и Parser (англ.) – парсер. Это основные функции программы – парсить сайт и проиндексированные страницы этого сайта в поисковых системах (Яндекс и Google), а потом сравнивать и анализировать полученные данные.

    Продвинутый краулер с множеством настроек целиком просканирует ваш сайт, соберет проиндексированные страницы из поисковой выдачи и позволит сравнить полученные данные. В результате вы узнаете, полностью ли индексируется ваш сайт, правильно ли он индексируется, и нет ли в выдаче того, о чем вы даже не подозреваете…

    Особенности ComparseR
    Мощный краулер – программа полностью просканирует ваш сайт и соберет самые важные атрибуты для каждой страницы.
    Парсер Яндекс – программа соберет адреса страниц сайта, проиндексированные Яндексом, а так же другие важные параметры (дата сохраненной копии, дата первой индексации страницы).
    Парсер Google – программа соберет проиндексированные страницы сайта в поиске Google.
    Преимущества ComparseR
    В результате сканирования, программа обозначит найденные технические ошибки на сайте (внутренние редиректы, 404 ошибки, дубликаты title, запрещенные к индексации страницы и многое другое).
    Множество настроек краулера позволит программе представиться для сайта поисковым роботом и собрать данные, доступные для поисковиков (в программе присутствует пакет предустановленных настроек User-Agent).
    Использование регулярных выражений для краулера и парсеров выдачи позволит специалистам максимально гибко настроить сканирование и изучение полученных данных.
    Для парсинга Яндекса предусмотрено 3 источника данных: обычная выдача, XML-данные и Яндекс.Вебмастера, каждый из которых имеет свои особенности и преимущества. А при желании вы можете совместить данные из этих источников в одной таблице.

    Использование сразу нескольких сервисов разгадывания капчи при парсинге поисковых систем позволит вам не беспокоиться, что парсинг прервется или остановится без вашего участия. Запустите программу, и идите отдыхать!
    Уникальный инструмент пакетного удаления URL из индекса Яндекса к вашим услугам: быстро, без капчи, в один клик!
    Основная ценность или в чем отличие от аналогов?
    Чем ComparseR отличается от аналогичных бесплатных программ, типа Xenu Sleuth, Netpeak Spider и др., ведь они тоже могу парсить сайт и показывать ошибки?

    Смысл моей программы заключается не в парсинге сайта, поиске дублей Title и битых ссылок, хотя даже это она может делать лучше аналогов, позволяя парсить сайты объемом в несколько миллионов страниц. Основная ценность заключается в парсинге страниц сайта из выдачи поисковиков и сравнения с полученными данными при парсинге самого сайта.

    Это позволит вам понять, какие страницы сайта не индексируются, или наоборот, найти такие страницы, которые находятся в индексе, а вы об этом даже не подозреваете.
    Тем у кого коммерческие сайты не более 300 стариц с ключевиками, думаю будет очень полезен. В благодарность плюсик приму))
    Скачать


     
    Загрузка...