Аннотация:С ростом применения систем на базе машинного обучения, которые, на сегодняшний день, с практической точки зрения, рассматриваются как системы искусственного интеллекта, растет и внимание к вопросам надежности (устойчивости) такого рода систем и решений. Естественно, что для критических применений, например, систем, принимающих решения в реальном времени вопросы устойчивости являются самыми главными с точки зрения практического использования систем машинного обучения. Собственно говоря, именно оценка устойчивости определяет саму возможность использования машинного обучения в таких системах. Это, естественным образом, отражается в большом количестве работ, посвященных вопросам оценки устойчивости систем машинного обучения, архитектуре таких систем и защите систем машинного обучения от зловредных действий, которые могут повлиять на их работу. При этом необходимо понимать, что проблемы с устойчивостью могут возникать как естественным образом, в силу разного распределения данных на этапах обучения и практического применения (на этапе обучения модели мы используем только часть данных из генеральной совокупности), так и в результате целенаправленных действий (атак на системы машинного обучения). Атаки при этом могут быть направлены как на данные, так и на сами модели.