Аннотация:В работе приводится сравнение двух подходов к дистилляции: с предварительной аугментацией данных и аугментацией данных после применения сети-учителя. Из поставленного эксперимента студент делает вывод, что можно сэкономить вычислительные мощности и видеопамять, предвычислив сегментационные маски сетью-учителем, а потом провести обучение на полученной базе. В работе проводится сравнение популярных функций потерь BCE, FocalLoss, TverskyLoss, DiceLoss и показывается, метод дистилляции знаний даёт прирост во всех слуаях, а лучше всего подходят (по абсолютному значению IoU) бинарная кросс-энтропия и FocalLoss. Применение FocalLoss предпочтительнее, так как результаты хороши и в случае исходных данных и в случае дистилляции.