<?php // Полная загрузка сервисных книжек, создан 2024-01-05 12:44:55
global $wpdb2;
global $failure;
global $file_hist;
///// echo '<H2><b>Старт загрузки</b></H2><br>';
$failure=FALSE;
//подключаемся к базе
$wpdb2 = include_once 'connection.php'; ; // подключаемся к MySQL
// если не удалось подключиться, и нужно оборвать PHP с сообщением об этой ошибке
if (!empty($wpdb2->error))
{
///// echo '<H2><b>Ошибка подключения к БД, завершение.</b></H2><br>';
$failure=TRUE;
wp_die( $wpdb2->error );
}
$m_size_file=0;
$m_mtime_file=0;
$m_comment='';
/////проверка существования файлов выгрузки из 1С
////файл выгрузки сервисных книжек
$file_hist = ABSPATH.'/_1c_alfa_exchange/AA_hist.csv';
if (!file_exists($file_hist))
{
///// echo '<H2><b>Файл обмена с сервисными книжками не существует.</b></H2><br>';
$m_comment='Файл обмена с сервисными книжками не существует';
$failure=TRUE;
}
/////инициируем таблицу лога
/////если не существует файла то возврат и ничего не делаем
if ($failure){
///включает защиту от SQL инъекций и данные можно передавать как есть, например: $_GET['foo']
///// echo '<H2><b>Попытка вставить запись в лог таблицу</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>$m_mtime_file,'last_size_upload'=>$m_size_file,'comment'=>$m_comment));
wp_die();
///// echo '<H2><b>Возврат в начало.</b></H2><br>';
return $failure;
}
/////проверка лога загрузки, что бы не загружать тоже самое
$masiv_data_file=stat($file_hist); ////передаем в массив свойство файла
$m_size_file=$masiv_data_file[7]; ////получаем размер файла
$m_mtime_file=$masiv_data_file[9]; ////получаем дату модификации файла
////создаем запрос на получение последней удачной загрузки
////выбираем по штампу времени создания (редактирования) файла загрузки AA_hist.csv, $m_mtime_file
///// echo '<H2><b>Размер файла: '.$m_size_file.'</b></H2><br>';
///// echo '<H2><b>Штамп времени файла: '.$m_mtime_file.'</b></H2><br>';
///// echo '<H2><b>Формирование запроса на выборку из лога</b></H2><br>';
////препарируем запрос
$text_zaprosa=$wpdb2->prepare("SELECT * FROM `vin_logs` WHERE `last_mtime_upload` = %s", $m_mtime_file);
$results=$wpdb2->get_results($text_zaprosa);
if ($results)
{ foreach ( $results as $r)
{
////если штамп времени и размер файла совпадают, возврат
if (($r->last_mtime_upload==$m_mtime_file) && ($r->last_size_upload==$m_size_file))
{////echo '<H2><b>Возврат в начало, т.к. найдена запись в логе.</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>$m_mtime_file,'last_size_upload'=>$m_size_file,'comment'=>'Загрузка отменена, новых данных нет, т.к. найдена запись в логе.'));
wp_die();
return $failure;
}
}
}
////если данные новые, пишем в лог запись о начале загрузки
/////echo '<H2><b>Попытка вставить запись о начале загрузки в лог таблицу</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>0, 'last_size_upload'=>$m_size_file, 'comment'=>'Начало загрузки'));
////очищаем таблицу
$clear_tbl_zap=$wpdb2->prepare("TRUNCATE TABLE %s", 'vin_history');
$clear_tbl_zap_repl=str_replace("'","`",$clear_tbl_zap);
$results=$wpdb2->query($clear_tbl_zap_repl);
///// echo '<H2><b>Очистка таблицы сервисных книжек</b></H2><br>';
if (empty($results))
{
///// echo '<H2><b>Ошибка очистки таблицы книжек, завершение.</b></H2><br>';
//// если очистка не удалась, возврат
$failure=TRUE;
wp_die();
return $failure;
}
////загружаем данные
$table='vin_history'; // Имя таблицы для импорта
//$file_hist Имя CSV файла, откуда берется информация // (путь от корня web-сервера)
$delim=';'; // Разделитель полей в CSV файле
$enclosed='"'; // Кавычки для содержимого полей
$escaped='\
эту задачу решает РС с измерениями: имя метода, хеш параметров, и ресурсом хранилищем + все названные ограничения снимаются(остается только ограничение на несериализуемые данные)
(1)https://en.wikipedia.org/wiki/Database-as-IPC
(2)
1. Британские ученые
2. Сокеты, а не http протокол
Проверить бы все на реалиях 1С
(3)
1. а вы считаете себя умнее?
2. such as sockets
так кто ж мешает то?
Скрипач не нужен…
Плюсик за идею, возьму на вооружение
У Вас в качестве примера доп. возможностей приведена возможность использования com объектов. Как будут обстоять дела с потокобезопасностью?
Или все сводится к последовательным вызовам в одном сеансе, т.е. по сути это один поток выполнения?
Вы работаете в кластере серверов с разной архитектурой, линукс, виндовс, разная разрядность, в т.ч. разные пути к сетевому хранилищу.
При попытке закешировать в такой среде параметры обмена получим развал.
Все это решение — антипаттерн. Не следует кешировать данные в целом, просто потому что не следует вообще кешировать данные вне сеанса.
Вам следует изучить как работает временное хранилище, параметры сеанса и повторно используемые модули и почему они работают так.
В целом утверждение, что повторно используемые модули кешируются на время сенаса — ложь. Время жизни 20 минут, но в некоторых случаях 6 минут.
Попытка кэшировать через HTTP сервер — хорошая идея, но глупая. Время жизни сенасов HTTP контроллируется только с версии 8.3.10 и по умолчанию соединение может повторно использоваться только 20 секунд. Фактически вы кеш с 20 минут изменили на 20 секунд.
Кроме того многие повторно используемые модули могут зависит от прав пользователя, которые рассчитаны для конкретного сеанса, кеширование таких значений для базы потенциально приводит к проблемам.
(8) Спасибо за комментарий, дополнил статью (раздел Потокобезопасность)
(9) еще дописать RLS на кешируемые данные )))
идея, голой воды идея, но автору за то, что расписал — респект
(9)
Ingvar, очень категорично отзываетесь. Да, автор не описал некоторые важные моменты в реализации решения, например особенности публикации отдельных http-сервисов для такого решения.
Однако решение всё-таки отличное для ряда случаев. Например:
— когда в определенный период времени сервис должен выдавать заполненную страницу с фиксированными данными,
— на сторону сервиса для выполнения запроса часто поступает набор одинаковых параметров;
Действительно нет смысла заполнять страницу сначала по каждому такому запросу. Поэтому аргумент
совсем не уместен.
Относительно времени «жизни» конкретного кэшированного значения в рамках сеанса — вы высказались верно. В таких случаях действительно придет на помощь временное хранилище. А вот сеанс, который обслуживает наш сервис можно подерживать дополнительными запросами со стороны, например через регламентное задание. Лучше мелкие вызовы для поддержки сеанса, чем заполнение данных.
Требование к безопасности, понимание потенциальной зависимости кэшированных данных от прав пользователя, а также методика хранения данных по конкретному запросу, полностью на совести разработчика. Но это тема вовсе для другой статьи.