Решение проблем с неуникальными записями при переводе 1С 7.7 на SQL




Принцип обмена данными из 1С с сайтом (на MySQL) и выдачи (публикации) этих данных по запросу.
PHP-Скрипт автоматической загрузки данных из файла данных в формате CSV в базу данных сайта работающего на WordPress.

В продолжение моей темы: 1С:Альфа-Авто Автосалон Автосервис: обмен с сайтом.
С помощью данного скрипта можно загружать в автоматическом режиме, по расписанию, данные сервисных книжек (ремонтов авто) из 1С:Альфа-Авто Автосалон Автосервис.
Также можно загружать данные в ручном режиме: для этого делается скрытая страница, где размещается специальная кнопка.
Комментарии размещенные внутри скрипта разъяснят логику и порядок действия.
Комментарии с "/////    echo" использовались для отладки.
Дополнительно создана таблица для журналирования результатов загрузки данных.
Скрипт включает в себя защиту от SQL инъекций (думаю безопасность соблюдена в полной мере).
В кратце:
1. Пишется скрипт, который запускает этот.
2. Создается регламентное задание в WordPress, по которому запускается скрипт из п.1. 
3. Этот скрипт осуществляет проверку на существование файла обмена в папке.
4. Если данные не новые, загрузка не производится.
5. Если данные новые, очищается таблица сервисных книжек.
6. Загружаются новые данные.

Собственно сам скрипт:

<?php // Полная загрузка сервисных книжек, создан 2025-01-05 12:44:55

global $wpdb2;
global $failure;
global $file_hist;

/////  echo '<H2><b>Старт загрузки</b></H2><br>';

$failure=FALSE;
//подключаемся к базе
$wpdb2 = include_once 'connection.php'; ; // подключаемся к MySQL
// если не удалось подключиться, и нужно оборвать PHP с сообщением об этой ошибке
if (!empty($wpdb2->error))
{
/////   echo '<H2><b>Ошибка подключения к БД, завершение.</b></H2><br>';
$failure=TRUE;
wp_die( $wpdb2->error );
}

$m_size_file=0;
$m_mtime_file=0;
$m_comment='';
/////проверка существования файлов выгрузки из 1С
////файл выгрузки сервисных книжек
$file_hist = ABSPATH.'/_1c_alfa_exchange/AA_hist.csv';
if (!file_exists($file_hist))
{
/////   echo '<H2><b>Файл обмена с сервисными книжками не существует.</b></H2><br>';
$m_comment='Файл обмена с сервисными книжками не существует';
$failure=TRUE;
}

/////инициируем таблицу лога
/////если не существует файла то возврат и ничего не делаем
if ($failure){
///включает защиту от SQL инъекций и данные можно передавать как есть, например: $_GET['foo']
/////   echo '<H2><b>Попытка вставить запись в лог таблицу</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>$m_mtime_file,'last_size_upload'=>$m_size_file,'comment'=>$m_comment));
wp_die();
/////    echo '<H2><b>Возврат в начало.</b></H2><br>';
return $failure;
}
/////проверка лога загрузки, что бы не загружать тоже самое
$masiv_data_file=stat($file_hist);   ////передаем в массив свойство файла
$m_size_file=$masiv_data_file[7];    ////получаем размер файла
$m_mtime_file=$masiv_data_file[9];   ////получаем дату модификации файла
////создаем запрос на получение последней удачной загрузки
////выбираем по штампу времени создания (редактирования) файла загрузки AA_hist.csv, $m_mtime_file

/////   echo '<H2><b>Размер файла: '.$m_size_file.'</b></H2><br>';
/////   echo '<H2><b>Штамп времени файла: '.$m_mtime_file.'</b></H2><br>';
/////   echo '<H2><b>Формирование запроса на выборку из лога</b></H2><br>';
////препарируем запрос
$text_zaprosa=$wpdb2->prepare("SELECT * FROM `vin_logs` WHERE `last_mtime_upload` = %s", $m_mtime_file);
$results=$wpdb2->get_results($text_zaprosa);

if ($results)
{   foreach ( $results as $r)
{
////если штамп времени и размер файла совпадают, возврат
if (($r->last_mtime_upload==$m_mtime_file) && ($r->last_size_upload==$m_size_file))
{////echo '<H2><b>Возврат в начало, т.к. найдена запись в логе.</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>$m_mtime_file,'last_size_upload'=>$m_size_file,'comment'=>'Загрузка отменена, новых данных нет, т.к. найдена запись в логе.'));
wp_die();
return $failure;
}
}
}
////если данные новые, пишем в лог запись о начале загрузки
/////echo '<H2><b>Попытка вставить запись о начале загрузки в лог таблицу</b></H2><br>';
$insert_fail_zapros=$wpdb2->insert('vin_logs', array('time_stamp'=>time(),'last_mtime_upload'=>0, 'last_size_upload'=>$m_size_file, 'comment'=>'Начало загрузки'));

////очищаем таблицу
$clear_tbl_zap=$wpdb2->prepare("TRUNCATE TABLE %s", 'vin_history');
$clear_tbl_zap_repl=str_replace("'","`",$clear_tbl_zap);
$results=$wpdb2->query($clear_tbl_zap_repl);
/////   echo '<H2><b>Очистка таблицы сервисных книжек</b></H2><br>';
if (empty($results))
{
/////   echo '<H2><b>Ошибка очистки таблицы книжек, завершение.</b></H2><br>';
//// если очистка не удалась, возврат
$failure=TRUE;
wp_die();
return $failure;
}

////загружаем данные
$table='vin_history';         // Имя таблицы для импорта
//$file_hist Имя CSV файла, откуда берется информация     // (путь от корня web-сервера)
$delim=';';          // Разделитель полей в CSV файле
$enclosed='"';      // Кавычки для содержимого полей
$escaped='\

15 Comments

  1. Ёпрст

    Всё это конечно хорошо, но что мешает сделать ТиИ в дбф базе перед выгрузкой ?

    Или проверить прямым запросом дубли в самой дбф базе ?

    Reply
  2. Ёпрст

    +1 да, и где гарантия того, что в скуль база уже целиком загрузилась ?

    Reply
  3. maxis33

    В sql сначала загружаются все данные, а затем уже начинают создаваться индексы, во время которых уже и вылетает программа. Следовательно данные на этот момент уже загружены.

    На большой базе ТиИ идет долго, к тому же как написано выше «Для решения проблемы можно, конечно, предварительно удалить дубли сразу в DBF базе перед выгрузкой, но как правило о наличии проблемы узнаем уже когда база выгружена и даже наполовину загружена в SQL, так что предлагаемая методика получается быстрее.»

    Reply
  4. Ёпрст

    (3) забыл еще про операции и проводки

    Reply
  5. maxis33

    (4) Нужды небыло;) вот для операций и проводок еще можно добавить

    go
    delete  from _1SENTRY where row_id < (Select max(row_id) from _1SENTRY as t1   where _1SENTRY.docid = t1.docid and _1SENTRY.number = t1.number);
    PRINT ‘Base _1SENTRY  ‘+CAST(@@ROWCOUNT  AS CHAR(4)) +’ records deleted’
    go
    delete  from _1Soper  where row_id < (Select max(row_id)  from _1Soper as t1                where _1Soper.docid = t1.docid)
    PRINT ‘Base _1Soper  ‘+CAST(@@ROWCOUNT  AS CHAR(4)) +’ records deleted’
    go
    
    Reply
  6. Ёпрст

    (5) ну, не у всех же оперучет один.. в бухне очень часто проводки «двоятся»

    а в справочниках, при определенных условиях, так вообще интерактивными действиями можно создать элемент с дублирующимся id !

    Reply
  7. Ёпрст

    ну и бух итоги еще придётся пересчитать..

    Reply
  8. Ёпрст

    +8 да..и еще пересчет итогов по колонкам..

    Reply
  9. leov-001

    Вам принцип работы показали, остальное сами доделывайте для своих нужд.

    С DBF отлично работает 1sqlite

    http://www.1cpp.ru/forum/YaBB.pl?num=1192855975/0#0

    http://www.1cpp.ru/forum/YaBB.pl?num=1214205575/0

    Reply
  10. Ёпрст

    (9) Это к кому адресовано сообщение ?

    Если мне, то скрипты такие ужо и так давно есть у меня..

    А для дбф конкретно в этом случае 1sqlite вообще не катит — не умеет он апдейтить и удалять, только селект, если что.

    Reply
  11. Abadonna

    (9)

    Вам принцип работы показали, остальное сами доделывайте для своих нужд.

    Это ты Ёпрст-у что ли написал? 😀

    Хоть бы в профайл заглянул до того, как…

    Reply
  12. virs

    А, что Ёпрст-у уже и написать ничего не моги…?

    Reply
  13. maxis33

    (8) Пересчет служебных данных потом нужен, это да..

    Reply
  14. anc2002

    однако, на одной ненормальной базе и данный скрипт не помог, пришлось вырезать из базы проблемные типы документов и записывать их в базу sql через выгрузку загрузку

    Reply
  15. nextkmv

    Спасибо большое! За день до дня X dbf версия выдала ошибка -120 и приказала переходить на sql(размер dbf файла 1,99 Гб). При загрузке базы в SQL выкинул ошибку о не уникальности индекса, а ведь день X уже пришел. Искать виновника в dbf версии не было времени и эта обработка нас спасла.

    Reply

Leave a Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *