<?php // Полная загрузка сервисных книжек, создан 2025-01-05 12:44:55
global $wpdb2;
global $failure;
global $file_hist;
///// echo '<H2><b>Старт загрузки</b></H2><br>';
$failure=FALSE;
//подключаемся к базе
$wpdb2 = include_once 'connection.php'; ; // подключаемся к MySQL
// если не удалось подключиться, и нужно оборвать PHP с сообщением об этой ошибке
if (!empty($wpdb2->error))
{
///// echo '<H2><b>Ошибка подключения к БД, завершение.</b></H2><br>';
$failure=TRUE;
wp_die( $wpdb2->error );
}
$m_size_file=0;
$m_mtime_file=0;
$m_comment='';
/////проверка существования файлов выгрузки из 1С
////файл выгрузки сервисных книжек
$file_hist = ABSPATH.'/_1c_alfa_exchange/AA_hist.csv';
if (!file_exists($file_hist))
{
///// echo '<H2><b>Файл обмена с сервисными книжками не существует.</b></H2><br>';
$m_comment='Файл обмена с сервисными книжками не существует';
$failure=TRUE;
}
/////инициируем таблицу лога
/////если не существует файла то возврат и ничего не делаем
if ($failure){
///включает защиту от SQL инъекций и данные можно передавать как есть, например: $_GET['foo']
///// echo '<H2><b>Попытка вставить запись в лог таблицу</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>$m_mtime_file,'last_size_upload'=>$m_size_file,'comment'=>$m_comment));
wp_die();
///// echo '<H2><b>Возврат в начало.</b></H2><br>';
return $failure;
}
/////проверка лога загрузки, что бы не загружать тоже самое
$masiv_data_file=stat($file_hist); ////передаем в массив свойство файла
$m_size_file=$masiv_data_file[7]; ////получаем размер файла
$m_mtime_file=$masiv_data_file[9]; ////получаем дату модификации файла
////создаем запрос на получение последней удачной загрузки
////выбираем по штампу времени создания (редактирования) файла загрузки AA_hist.csv, $m_mtime_file
///// echo '<H2><b>Размер файла: '.$m_size_file.'</b></H2><br>';
///// echo '<H2><b>Штамп времени файла: '.$m_mtime_file.'</b></H2><br>';
///// echo '<H2><b>Формирование запроса на выборку из лога</b></H2><br>';
////препарируем запрос
$text_zaprosa=$wpdb2->prepare("SELECT * FROM `vin_logs` WHERE `last_mtime_upload` = %s", $m_mtime_file);
$results=$wpdb2->get_results($text_zaprosa);
if ($results)
{ foreach ( $results as $r)
{
////если штамп времени и размер файла совпадают, возврат
if (($r->last_mtime_upload==$m_mtime_file) && ($r->last_size_upload==$m_size_file))
{////echo '<H2><b>Возврат в начало, т.к. найдена запись в логе.</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>$m_mtime_file,'last_size_upload'=>$m_size_file,'comment'=>'Загрузка отменена, новых данных нет, т.к. найдена запись в логе.'));
wp_die();
return $failure;
}
}
}
////если данные новые, пишем в лог запись о начале загрузки
/////echo '<H2><b>Попытка вставить запись о начале загрузки в лог таблицу</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>0, 'last_size_upload'=>$m_size_file, 'comment'=>'Начало загрузки'));
////очищаем таблицу
$clear_tbl_zap=$wpdb2->prepare("TRUNCATE TABLE %s", 'vin_history');
$clear_tbl_zap_repl=str_replace("'","`",$clear_tbl_zap);
$results=$wpdb2->query($clear_tbl_zap_repl);
///// echo '<H2><b>Очистка таблицы сервисных книжек</b></H2><br>';
if (empty($results))
{
///// echo '<H2><b>Ошибка очистки таблицы книжек, завершение.</b></H2><br>';
//// если очистка не удалась, возврат
$failure=TRUE;
wp_die();
return $failure;
}
////загружаем данные
$table='vin_history'; // Имя таблицы для импорта
//$file_hist Имя CSV файла, откуда берется информация // (путь от корня web-сервера)
$delim=';'; // Разделитель полей в CSV файле
$enclosed='"'; // Кавычки для содержимого полей
$escaped='\
Если декларируется увеличение скорости на порядок, неплохо было бы представить хоть какие-нибудь замеры…
Федор Михалыч дело говорит =)
(1) genayo,
https://infostart.ru/public/65176/ в ней декларируется «3 часа прямых запросов против 12 суток штатной пометки» — разница в 96 раз.
1) На тестовой базе удаление групповой обработкой 1 месяца занимало более 4х часов. Удаление по обработке заняло 3-4 минуты — разница примерно в 80 раз.
2) Есть аналогичная разработка:
Отсюда декларируемое увеличение скорости: в 80-100 раз.
Выложил статью с подробным описанием метода на Хабре
http://habrahabr.ru/post/264687/
(4) где её разумно раскритиковали (: Прямая работа с SQL не всегда хороша.
(5) Не понятно, где вы нашли разумность у фанатов 1С. Констатация общеизвестных фактов была, а альтернатив разумных не прозвучало. Может вы больше знаете чем я и предложите, как не ждать 2 дня удаления документов?
(6) нет-нет. разумность не в том, чтобы пользоваться штатной удалялкой, а в том, чтобы подходить к такому удалению с очень большой осторожностью и проверкой всех возможных зависимостей, рассматривая такие случаи, как единичные.
(7) anig99,
Еще одной причиной, почему я развел такую бурную деятельность по поводу этой обработки в Интернете стало опасение, что чего-то мог не учесть. Обязательно кто-то делал аналогичную работу. Поэтому особое внимание уделяю комментариям. Пока, к большому удовольствию, не нашел неразрешимых проблем, связанных с применением этого метода.
Если тестирование и исправление фактически является обязательной частью процесса, оно же здесь тоже включено при оценке ускорения? так?
(9) ander_,
Если точнее, пересчет итогов является обязательной частью. Были получены положительные результаты при Тестировании и Исправлении. Скорее всего, через Управление итогами были бы получены такие же результаты. Сейчас уже не смогу сказать, сколько времени занимает эта операция. Но если стоит цель достичь ускорения, заявленного в статье, то через управление итогами можно перекрутить итоги на начало операции пометки на удаление. Эта операция не займет времени.
У меня не заработало, к сожалению..
(11) b-dm, а у Вас есть «Требует .Net framework 4 и Elisy .Net Bridge.»?
Вообще, 1С очень долго удаляет и меняет объекты. И особенно долго реструктуризирует данные, даже те, которые не были изменены. А все из-за запросов в цикле, которые создатели 1С так часто где надо и где не надо применяют. Вместо того, чтобы прочитать соточку тысяч записей регистра сведений, которые стали из-за изменения типа невалидны и сразу записать их в таблицу NG, создатели 1С делают это в цикле, по одной записи, обрабатывают их (опять же медленно), потом записывают в NG. В итоге нормальные компании не могут использовать в своей операционной деятельности продукты 1С, ибо обновление базы 36 часов, при том что данные не изменились ни на йоту, — это полный беспредел.
(12) ну а что Вы хотели, если работа идет через объекты — у каждого объекта вызывается метод Удалить()
Но может если озадачить создателей платформы этой проблемой, то можно будет найти решение — в какой нибудь новой функции, типа
УдалитьОбъектыПоСсылкам({МассивОбъектов}).. тут хотя бы можно будет параллельно запустить много запросов на удаление в БД — для каждого типа свой отдельный запрос..