Аннотация:Функции, выразимые нейронными сетями, называются нейронными функциями. Если рассматривать нейронные схемы со ступенчатой функцией активации Хевисайда, то получатся всевозможные кусочно-параллельные функции, то есть кусочно-постоянные с линейной добавкой, одинаковой во всех классах. Верно и обратное: любая кусочно-параллельная функция представима нейронной схемой. В настоящее время из-за невозможности обучения нейронных сетей в модели Мак-Каллока-Питтса методом градиентного спуска, используются альтернативные функции активации. Большое распространение в качестве функции активации для нейронов в сетях получила функция ReLU=max(0,x). Очевидно, что функции, реализуемые нейронными сетями прямого распространения с функцией активации ReLU будут принадлежать классу CPL – непрерывных кусочно-линейных функций. В 2017 году Кану А.Н. удалось доказать выразимость всех двуместных непрерывных кусочно-линейных функций в эквивалентном базисе (вместо ReLU использовалась функция модуль |x|). В данной работе доказывается выразимость функций произвольного числа аргументов, но лишь в нескольких частных случаях расположения гиперплоскостей, задающих нейронную функцию. Можно надеяться, что продемонстрированная студентом техника доказательства поможет в дальнейшем вывести общий результат.