<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Transport automation research</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Transport automation research</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Автоматика на транспорте</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">2412-9186</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">69991</article-id>
   <article-id pub-id-type="doi">10.20295/2412-9186-2023-9-03-258-273</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>Электронное моделирование</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>Electronic simulation</subject>
    </subj-group>
    <subj-group>
     <subject>Электронное моделирование</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">Improving the Training Quality of Reference Diagnostic Models of Complex Technical Objects by Augmentation of Training Data</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Повышение качества обучения эталонных диагностических моделей сложных технических объектов аугментацией обучающих данных</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Грачев</surname>
       <given-names>Владимир Васильевич</given-names>
      </name>
      <name xml:lang="en">
       <surname>Grachev</surname>
       <given-names>Vladimir Vasil'evich</given-names>
      </name>
     </name-alternatives>
     <bio xml:lang="ru">
      <p>доктор технических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>doctor of technical sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Федотов</surname>
       <given-names>Михаил Владимирович</given-names>
      </name>
      <name xml:lang="en">
       <surname>Fedotov</surname>
       <given-names>Mihail Vladimirovich</given-names>
      </name>
     </name-alternatives>
     <bio xml:lang="ru">
      <p>кандидат технических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>candidate of technical sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-2"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Петербургский государственный университет путей сообщения Императора Александра I</institution>
     <city>Санкт-Петербург</city>
     <country>Россия</country>
    </aff>
    <aff>
     <institution xml:lang="en">Emperor Alexander I Petersburg State Transport University</institution>
     <city>Saint-Petersburg</city>
     <country>Russian Federation</country>
    </aff>
   </aff-alternatives>
   <aff-alternatives id="aff-2">
    <aff>
     <institution xml:lang="ru">Научно-исследовательский и конструкторско-технологический институт подвижного состава (АО «ВНИКТИ»)</institution>
     <city>Коломна</city>
     <country>Россия</country>
    </aff>
    <aff>
     <institution xml:lang="en">Scientific-Research and Constructive-Technological Institute of Rolling Stock (“BNIKTI” Corporation)</institution>
     <city>Kolomna</city>
     <country>Russian Federation</country>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2023-09-09T17:00:12+03:00">
    <day>09</day>
    <month>09</month>
    <year>2023</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2023-09-09T17:00:12+03:00">
    <day>09</day>
    <month>09</month>
    <year>2023</year>
   </pub-date>
   <volume>9</volume>
   <issue>3</issue>
   <fpage>258</fpage>
   <lpage>273</lpage>
   <history>
    <date date-type="received" iso-8601-date="2023-09-08T00:00:00+03:00">
     <day>08</day>
     <month>09</month>
     <year>2023</year>
    </date>
   </history>
   <self-uri xlink:href="https://atjournal.ru/en/nauka/article/69991/view">https://atjournal.ru/en/nauka/article/69991/view</self-uri>
   <abstract xml:lang="ru">
    <p>Одной из серьезных проблем, ограничивающих возможность применения интеллектуальных методов обработки диагностической информации в задачах диагностики сложных технических объектов, является сложность формирования обучающей выборки. Эффективным способом решения проблемы является аугментация (искусственное расширение) обучающих данных. Особенностью обучающих выборок в задачах технической диагностики является неизвестный вид их распределения в пространстве признаков, при том что для обеспечения качественного обучения диагностической модели дополнительные «синтетические» данные должны быть распределены аналогично реальной обучающей выборке. Возможность определения параметров распределения данных обучающей выборки в процессе обучения с последующим воспроизведением этих параметров в сгенерированных выборках может быть реализована в генеративных моделях на основе вариационных автоэнкодеров и генеративно-состязательных сетей. В задачах интеллектуальной классификации состояния объекта диагностирования с размеченными обучающими выборками для генерации дополнительных данных предпочтительным является использование условных (conditional) генеративно-состязательных сетей. Актуальной задачей является оценка однородности обучающей и сгенерированной выборок, по результатам которой определяется длительность (количество эпох) процесса обучения генеративной модели. В работе предложен и обоснован оригинальный способ оценки однородности многомерных выборок на основе G- и F-функций Рипли (Ripley). На его основе определен количественный показатель для контроля качества и продолжительности обучения генеративной модели. Эффективность предложенного способа подтверждается на примере решения задачи аугментации обучающих данных для эталонной диагностической модели газовоздушного тракта тепловозного дизеля.</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>One of the most serious problems limiting the possibility of using intelligent methods of processing diagnostic information in the tasks of diagnosing complex technical objects is the difficulty of forming a training sample for all classes of the state of the object in an amount sufficient for high-quality training of reference diagnostic models or classifiers, due to high absolute reliability indicators of such objects. An effective way to solve the problem is to augment (artificially expand) training data. A feature of training samples in technical diagnostics tasks is the generally unknown type of their distribution in the space of features, while additional &quot;synthetic&quot; data should be distributed similarly to the actual training set to ensure high-quality training of the diagnostic model. As a result of the analysis of existing data augmentation methods, it was established that the possibility of determining data distribution parameters of the training sample in the course of training with subsequent reproduction of these parameters in the generated samples can be implemented in generative models based on variational autoencoders (VAE) and generative-adversarial networks (GAN). At the same time, the best results are achieved using GAN. In the tasks of intelligent classification of the state of a diagnostic object with marked training samples for generating additional data, it is preferable to use conditional GAN (CGAN). A serious problem that arises in solving practical problems related to the generation of additional data on the available sample (training sample of a small volume) is the assessment of the uniformity of the training and generated samples, the results of which determine the duration (number of eras) of the training process of the generative model. The paper proposes and substantiates an original method of estimating uniformity of multidimensional samples based on  Ripley’s G and F functions used in spatial cluster analysis of point processes. Based on it, a quantitative indicator has been determined for quality control and training duration of the generative model. The efficiency of the proposed method is confirmed by the example of solving the problem of augmentation of training data for the reference diagnostic model of the gas-air path of a diesel locomotive.</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>модель машинного обучения</kwd>
    <kwd>обучающая выборка</kwd>
    <kwd>интеллектуальный классификатор</kwd>
    <kwd>объект диагностирования</kwd>
    <kwd>генеративно-состязательные сети</kwd>
    <kwd>аугментация данных</kwd>
    <kwd>контроль однородности многомерных выборок</kwd>
    <kwd>пространственный анализ</kwd>
    <kwd>функция Ripley</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>machine learning model</kwd>
    <kwd>training sample</kwd>
    <kwd>intelligent classifier</kwd>
    <kwd>diagnostic object</kwd>
    <kwd>generative adversarial networks</kwd>
    <kwd>data augmentation</kwd>
    <kwd>multidimensional samples uniformity control</kwd>
    <kwd>spatial analysis</kwd>
    <kwd>Ripley’s function</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p></p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Федотов М. В. Предиктивная аналитика технического состояния систем тепловозов с использованием нейросетевых прогнозных моделей / М. В. Федотов, В. В. Грачев // Бюллетень результатов научных исследований. - 2021. - № 3. - С. 102-114. - DOI: 10.20295/2223-9987-2021-3-102-114.</mixed-citation>
     <mixed-citation xml:lang="en">Fedotov M. V. Prediktivnaya analitika tehnicheskogo sostoyaniya sistem teplovozov s ispol'zovaniem neyrosetevyh prognoznyh modeley / M. V. Fedotov, V. V. Grachev // Byulleten' rezul'tatov nauchnyh issledovaniy. - 2021. - № 3. - S. 102-114. - DOI: 10.20295/2223-9987-2021-3-102-114.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Федотов М. В. Способы повышения качества обучения нейросетевых диагностических моделей сложных технических объектов / М. В. Федотов, А. Л. Шарапов, В. В. Грачев // Интегрированные модели и мягкие вычисления в искусственном интеллекте ИММВ-2022: Сборник научных трудов XI Международной научно-практической конференции. В 2 томах, Коломна, 16-19 мая 2022 года. Том 1. - Коломна: Общероссийская общественная организация «Российская ассоциация искусственного интеллекта», 2022. - С. 258-267.</mixed-citation>
     <mixed-citation xml:lang="en">Fedotov M. V. Sposoby povysheniya kachestva obucheniya neyrosetevyh diagnosticheskih modeley slozhnyh tehnicheskih ob'ektov / M. V. Fedotov, A. L. Sharapov, V. V. Grachev // Integrirovannye modeli i myagkie vychisleniya v iskusstvennom intellekte IMMV-2022: Sbornik nauchnyh trudov XI Mezhdunarodnoy nauchno-prakticheskoy konferencii. V 2 tomah, Kolomna, 16-19 maya 2022 goda. Tom 1. - Kolomna: Obscherossiyskaya obschestvennaya organizaciya «Rossiyskaya associaciya iskusstvennogo intellekta», 2022. - S. 258-267.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Воронцов К. В. Лекции по теории обобщающей способности / К. В. Воронцов. - URL: http://www.ccas.ru/voron/download/Generalization.pdf (дата обращения: 07.05.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Voroncov K. V. Lekcii po teorii obobschayuschey sposobnosti / K. V. Voroncov. - URL: http://www.ccas.ru/voron/download/Generalization.pdf (data obrascheniya: 07.05.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Shorten C. A survey on Image Data Augmentation for Deep Learning / C. Shorten, T. M. Khoshgoftaar // Journal of Big Data. - 2019. - Vol. 6, Article number: 60. - URL: https://journalofbigdataspringeropen.com/articles/10.1186/s40537-019-0197-0 (дата обращения: 07.05.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Shorten C. A survey on Image Data Augmentation for Deep Learning / C. Shorten, T. M. Khoshgoftaar // Journal of Big Data. - 2019. - Vol. 6, Article number: 60. - URL: https://journalofbigdataspringeropen.com/articles/10.1186/s40537-019-0197-0 (data obrascheniya: 07.05.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B5">
    <label>5.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Krizhevsky A. ImageNet classification with deep convolutional neural networks / A. Krizhevsky, I. Sutskever, G. E. Hinton // Adv Neural Inf Process Syst. - 2012. - Iss. 25. - Pp. 1106-1114.</mixed-citation>
     <mixed-citation xml:lang="en">Krizhevsky A. ImageNet classification with deep convolutional neural networks / A. Krizhevsky, I. Sutskever, G. E. Hinton // Adv Neural Inf Process Syst. - 2012. - Iss. 25. - Pp. 1106-1114.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B6">
    <label>6.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Guoliang K. PatchShufe regularization / K. Guoliang, D. Xuanyi, Z. Liang et al. // arXiv preprint, 2017.</mixed-citation>
     <mixed-citation xml:lang="en">Guoliang K. PatchShufe regularization / K. Guoliang, D. Xuanyi, Z. Liang et al. // arXiv preprint, 2017.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B7">
    <label>7.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Zhun Z. Random erasing data augmentation / Z. Zhun, Z. Liang, K. Guoliang // arXiv e-prints, 2017.</mixed-citation>
     <mixed-citation xml:lang="en">Zhun Z. Random erasing data augmentation / Z. Zhun, Z. Liang, K. Guoliang // arXiv e-prints, 2017.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B8">
    <label>8.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Ken C. Return of the devil in the details: delving deep into convolutional nets / C. Ken, S. Karen, V. Andrea et al. // Proceedings of BMVC. - 2014.</mixed-citation>
     <mixed-citation xml:lang="en">Ken C. Return of the devil in the details: delving deep into convolutional nets / C. Ken, S. Karen, V. Andrea et al. // Proceedings of BMVC. - 2014.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B9">
    <label>9.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Чернобровов А. Как обмануть нейросеть или что такое Adversarial attack / А. Чернобровов. - 2020. - URL: https://www.chernobrovov.ru/articles/kak-obmanut-nejroset-ili-chto-takoe-adversarial-attack.html (дата обращения: 07.05.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Chernobrovov A. Kak obmanut' neyroset' ili chto takoe Adversarial attack / A. Chernobrovov. - 2020. - URL: https://www.chernobrovov.ru/articles/kak-obmanut-nejroset-ili-chto-takoe-adversarial-attack.html (data obrascheniya: 07.05.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B10">
    <label>10.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Seyed-Mohsen M. D. A simple and accurate method to fool deep neural networks / M. D. Seyed-Mohsen, F. Alhussein, F. Pascal et al. - ArXiv preprint, 2016.</mixed-citation>
     <mixed-citation xml:lang="en">Seyed-Mohsen M. D. A simple and accurate method to fool deep neural networks / M. D. Seyed-Mohsen, F. Alhussein, F. Pascal et al. - ArXiv preprint, 2016.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B11">
    <label>11.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Jiawei S. One pixel attack for fooling deep neural networks / S. Jiawei, W. Danilo, K. Sakurai // arXiv preprints, 2018.</mixed-citation>
     <mixed-citation xml:lang="en">Jiawei S. One pixel attack for fooling deep neural networks / S. Jiawei, W. Danilo, K. Sakurai // arXiv preprints, 2018.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B12">
    <label>12.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Сурцуков М. Автоэнкодеры в Keras / М. Сурцуков. - 2017. - URL: https://habr.com/ru/articles/331382/ (дата обращения: 07.05.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Surcukov M. Avtoenkodery v Keras / M. Surcukov. - 2017. - URL: https://habr.com/ru/articles/331382/ (data obrascheniya: 07.05.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B13">
    <label>13.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Goodfellow I. J. Generative Adversarial NetWork / I. J. Goodfellow, J. Pouget-Abadie, M. Mirza et al. - Reprint arXiv: 1406.2661-2014.</mixed-citation>
     <mixed-citation xml:lang="en">Goodfellow I. J. Generative Adversarial NetWork / I. J. Goodfellow, J. Pouget-Abadie, M. Mirza et al. - Reprint arXiv: 1406.2661-2014.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B14">
    <label>14.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Mehdi M. Conditional Generative Adversarial Nets / M. Mehdi, S. Osindero // arXiv:1411.1784. - 2014.</mixed-citation>
     <mixed-citation xml:lang="en">Mehdi M. Conditional Generative Adversarial Nets / M. Mehdi, S. Osindero // arXiv:1411.1784. - 2014.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B15">
    <label>15.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Как найти сходство между двумя распределениями вероятностей с помощью Python. - 2023. - URL: https://questu.ru/articles/352904/ (дата обращения: 21.06.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Kak nayti shodstvo mezhdu dvumya raspredeleniyami veroyatnostey s pomosch'yu Python. - 2023. - URL: https://questu.ru/articles/352904/ (data obrascheniya: 21.06.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B16">
    <label>16.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Ссылка на функцию расстояния Вассерштейна в Python. - 2023. - URL: https://question-it.com/questions/15429235/ssylka-na-funktsiju-rasstojanija-vassershtejna-v-python (дата обращения: 21.06.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Ssylka na funkciyu rasstoyaniya Vassershteyna v Python. - 2023. - URL: https://question-it.com/questions/15429235/ssylka-na-funktsiju-rasstojanija-vassershtejna-v-python (data obrascheniya: 21.06.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B17">
    <label>17.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Грачев В. В. Диагностирование газовоздушного тракта тепловозного дизеля с использованием интеллектуального классификатора / В. В. Грачев, М. В. Федотов, А. В. Грищенко и др. // Бюллетень результатов научных исследований. - 2022. - № 2. - С. 124-140. - DOI: 10.20295/2223-9987-2022-2-124-140.</mixed-citation>
     <mixed-citation xml:lang="en">Grachev V. V. Diagnostirovanie gazovozdushnogo trakta teplovoznogo dizelya s ispol'zovaniem intellektual'nogo klassifikatora / V. V. Grachev, M. V. Fedotov, A. V. Grischenko i dr. // Byulleten' rezul'tatov nauchnyh issledovaniy. - 2022. - № 2. - S. 124-140. - DOI: 10.20295/2223-9987-2022-2-124-140.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B18">
    <label>18.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Фостер Д. Генеративное глубокое обучение. Творческий потенциал нейронных сетей / Д. Фостер. - СПб.: Питер, 2020. - 336 с.</mixed-citation>
     <mixed-citation xml:lang="en">Foster D. Generativnoe glubokoe obuchenie. Tvorcheskiy potencial neyronnyh setey / D. Foster. - SPb.: Piter, 2020. - 336 s.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B19">
    <label>19.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Методы измерения расстояния и подобия. - 2023. - URL: https://russianblogs.com/article/62221539035/ (дата обращения: 22.06.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Metody izmereniya rasstoyaniya i podobiya. - 2023. - URL: https://russianblogs.com/article/62221539035/ (data obrascheniya: 22.06.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B20">
    <label>20.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Rey S. Distance Based Statistical Method for Planar Point Patterns / S. Rey, W. Kang. - URL: https://pysal.org/notebooks/explore/pointpats/distance_statistics.html (дата обращения: 01.07.2023).</mixed-citation>
     <mixed-citation xml:lang="en">Rey S. Distance Based Statistical Method for Planar Point Patterns / S. Rey, W. Kang. - URL: https://pysal.org/notebooks/explore/pointpats/distance_statistics.html (data obrascheniya: 01.07.2023).</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
