1. Как Вы могли заметить, на форуме появился раздел дампов других форумов.

    Сливап, сеоха (В первом барыжат тем что юзеры выложили под хайд. Во втором, помимо барыжничества, еще говорят что в их приватном разделе есть крутые вещи, но вы узнаете что там только заплатив, а на деле оказывается что там галимый копипаст.
    Но русьд сидящий у руля сосохи даже не скрывает что впаривает дичь "Оригинальные и крутые темы видят только "Избранные" ©rusD Хотя сам ничего не написал, даж партнерку ущербную сделал, с дырой, ждите апдейт дампа =D, но пост не об этом) и других копипаст форумов которые мусолят одни и те же курсы которые они друг у друга скачали|слили (нужное подчеркнуть).
    И соответсвенно Вы не могли не заметить какой там шлак Вам впаривают по 2000-3000 рублей за аккаунт, тьфу.
    Подробнее...
Внимание!
Чтобы дамп был доступен должен завершиться сбор.
Если сбор завершился дамп открывается для всех зарегистрированных.

Netpeak Spider

Информация:
Тема в разделе "Программы и скрипты", создана пользователем Dump_Bot, 10 сен 2016.
  1. Dump_Bot

    Dump_Bot Бот дампов Бот форума
    • 3093/3811

    Сообщения:
    47.286
    Репутация:
    0
    Отдано:
    1 ГБ
    Скачано:
    0 байт
    Рейтинг:
    -
    [​IMG]
    Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.[*]сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;[*]поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;[*]анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;[*]расчёт внутреннего PageRank;[*]гибкие настройки сканирования и экспорт данных в формате Excel;[*]всё это бесплатно!Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.Гибкие настройки сканирования позволяют включать/отключать:[*]учёт параметризованных и якорных ссылок, изображений и js-файлов;[*]использование файла robots.txt при сканировании;[*]добавление в таблицу страниц на поддоменах сканируемого сайта.
    Список параметров страниц, анализируемых программой «Netpeak Spider»:URL – адрес страницы.
    Глубина – уровень расположения страницы относительно главной.
    LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
    Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
    Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
    Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
    Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
    robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
    MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
    Редиректы – количество перенаправлений со страницы.
    Заголовки (H1) – количество заголовков первого уровня.
    Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
    Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
    Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
    Внешние ссылки – количество ссылок с данной страницы на другие сайты.
    PR – расчёт внутреннего показателя PageRank текущей страницы.
    PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
    Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
    Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
    Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".



     
    Загрузка...