АЛГОРИТМЫ ГЕНЕРАЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН
Авторы
Аннотация
Генеративные алгоритмы являются динамично развивающимся направлением в сфере искусственного интеллекта. Генерация и поиск текста, изображений, видео становятся наиболее восстребованными инструментами в создании контента. В последние годы обучение алгоритмов машинного обучения с использованием больших данных становится одной из ключевых задач современной науки и практики. Однако в ряде областей наличие действительно больших наборов данных ограничено или невозможно из-за конфиденциальности, высокой стоимости сбора информации или редкости событий. В таких случаях генерация синтетических данных приобретает особую значимость, обеспечивая возможности для аугментации, моделирования и проведения экспериментов без риска раскрытия личной информации. Современные подходы к синтетическим данным опираются как на статистические подходы генерации случайных величин, так и на передовые генеративные модели, такие как вариационные автоэнкодеры (VAE), генеративно-состязательные сети (GAN) и диффузионные модели, которые демонстрируют высокую точность и гибкость в различных прикладных задачах. В работе приводится обзор алгоритмов, которые генерируют дискретные и непрерывные случайные величины. Особое внимание уделяется моделям для последовательных данных, включая zGAN и RTSGAN, что позволяет эффективно работать с временными рядами в здравоохранении, финансовых прогнозах и системах автономного управления. В статье описываются архитектуры этих моделей. Кроме того, обсуждаются методы оценки качества синтетических данных, вопросы их достоверности и этические аспекты использования. На основе анализа последних исследований выделяются перспективные направления развития генеративных моделей, направленных на повышение интерпретируемости, надежности и специфической ориентированности на предметные области.
Ключевые слова
синтетические данные, генеративные алгоритмы, метод обобщенной энтропии, нейронные сети, состязательные генеративные модели, вариационные автоэнкодеры.
Список литературы
1. Azimi A., et.al. (2024), zGAN: An Outlier-focused Generative Adversarial Network For Realistic Synthetic Data Generation, Machine Learning, doi.org/10.48550/arXiv.2410.20808.
2. Diederik P. Kingma and Max Welling (2019), “An Introduction to Variational Autoencoders”, Foundations and Trends R in Machine Learning.
3. Hennig, P. (2012). Entropy Search for Information-Efficient Global Optimization. Journal of Machine Learning Research, 13, 1809–1837. https://jmlr.csail.mit.edu/papers/volume13/hennig12a /hennig12a.pdf.
4. Ian J.Goodfellow, et.al. (2014), Generative Adversarial Nets, Machine Learning, https://doi.org/10.48550/arXiv.1406.2661.
5. Jaynes, E.T. Information theory and statistical mechanics / E.T. Jaynes // Physical Reviews – 1957– N106 – P.620-630.
6. Kapur, J.N., Kesavan, H.K. Entropy optimization principles with applications, New York: Academic Press. – 1992, 360 p.
7. Laurens de Haan and Ana Ferreira. Extreme Value Theory. Springer New York, 2006.
8. Sasmita Manjari Nayak and Minakhi Rout. Impact of different outlier handling techniques on gan based hybrid bankruptcy prediction models. Indian Journal Of Science And Technology, 17:373–385, 1 2024.
9. Shamilov, A. (2007). Generalized entropy optimization problems and the existence of their solutions, Physica A: Statistical mechanics and its applications, 382, 465–472.
10. Shamilov, A. Generalized entropy optimization problems with finite moment function sets,/ A. Shamilov // Journal of Statistics and Management Systems –2010– N 13– P. 595-603.
11. Shannon, C.E. A mathematical theory of communications / C.E. Shannon // Bell System technical Journal – 1948 – N 27 – P.379–623.
12. Song, L. (2025). Adaptive generative adversarial maximum entropy inverse reinforcement learning. Information Sciences, Volume 695, pp.202-208.
Дата публикации
2026-03-30