Анализ сайта, создание файлов sitemap.xml и robots.txt, поиск внешних ссылок на сайте.



Программа помогает Web-мастерам создавать файлы  sitemap.xml и robots.txt, а также отслеживать появление внешних ссылок на Вашем сайте.

Можно создавать файл вручную, но при разрастании сайта отслеживать за изменениями становится проблематично. 

Программа выполняет три процедуры:

  1. Скачивает сайт, ищет в нем ссылки, скачивает найденные ссылки и снова ищет на нем ссылки, до тех пор пока вся структура сайта не будет скачана. Всю собранную информацию программа собирает в справочник «Скачанные ссылки с сайта». Найденные внешние ссылки записываются в справочник «Внешние ссылки». Анализ внешних ссылок позволит исключить посторонний код на Вашем сайте.  Данная программа запускается отчетом «Прочитать структуру сайта и записать в справочник».  Для предотвращения зацикливания в константах надо указать число максимальное возможное количество скаченных страниц с сайта.
  2. Перенос данных из справочника найденных скачанных ссылок в справочник ссылок SiteMap и Robots. В справочнике ссылок SiteMap и Robots хранится информация о создании файлов. А именно: дата создания страницы, приоритеты, сроки обновления и т.д. Информацию туда можно вносить вручную или на основе собранной информации предыдущей обработки. Для переноса информации запустите отчет «Перенести скачанные файлы в справочник файлы Sitemap». Обработка перенесет информацию, если аналогичная ссылка уже находилась в справочнике, будет изменена только дата. При отсутствии ссылки создастся новая с параметрами по умолчанию.  Справочник «ссылок SiteMap и Robots» можно редактировать вручную,
  3. Создать файл sitemap.xml и robots.txt. Файлы создаются в каталоге, указанном в константах.
    После создания файлы можно переписать на свой сайт или отредактировать справочник и заново пересоздать файл. Файлы создаются по описанию файлов прочитанных с страниц согласно протоколу
    http://www.sitemaps.org/ru/protocol.html

Конфигурация содержит в себе справочник ссылок для файлов sitemap.xml и robots.txt, а также отчет создания файлов sitemap  и robots.

При формировании файла укажите домен сайта. Возможно создание файлов для нескольких сайтов.

Программа проверена на сайте
www.mailvirtual.ru  

для технической поддержки обращайтесь по электронной почте
info@mailvirtual.ru  или ICQ  443039.

Программа тестировалась на сайте http://www.mailvirtual.ru  2122 страниц
При отправке вопроса укажите название сайта.  Спасибо за понимание.

6 Comments

  1. Makushimo

    назначение этой разработки в том, чтобы отлавливать вирусы и всякие атаки на сайт?

    Reply
  2. izofen

    Совершенно верно.

    Если сайт взломан, то скорее всего на нем разместят ссылку на гвн-сайт. Все думают что мой сайт этого избежит, но при анализе всплывают куча ссылок которые надо удалять. Кроме этого создается файл sitemap и robots c обновленной информацией, а goole и yandex это нравиться и они чаще его посещают. Если нужна база (url зоны RU и SU) больше 8 мил. записей для поиска таких уязвимостей могу выслать – безвозмездно, то есть даром.

    Reply
  3. miavolas

    интересная обработка

    Reply
  4. vikupinov

    Все больше интересных обработок для связи с внешним миром

    Reply
  5. trader7777777

    Планируется ли развитие обработки или описание чего нибудь еще интересного из этой темы?

    Reply
  6. writer_info

    Автор пишет, что тестировал обработку на примере сайта какого то сайта , странно…я в принципе не нашел на этом ресурсе файла sitemap указываю в браузере http://mailvirtual.ru/sitemap.xml и не получаю ответа… решил сгенерировать такой файл указав простенькую ссылку http://1c-alfa-avto.ru/ и опять не работает..

    Прошу откликнуться автора

    Reply

Leave a Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *