Аннотация:Состязательные примеры представляют серьезную опасность для моделей глубокого обучения, неправильно классифицируя их, даже в областях, где такие модели достигают самых современных характеристик. Большая часть исследований состязательных атак сосредоточена на распознавании изображений, в первую очередь с использованием сверточных нейронных сетей. Меньшая часть работ в последние годы затрагивают методы генерации состязательных примеров для рекуррентных нейронных сетей (RNN), демонстрирующие, что классификаторы RNN также уязвимы для подобных атак. В данной работе рассмотрены существующие алгоритмы генерации состязательных примеров на классификаторы RNN, реализован алгоритм Forward Derivative, проведены эксперименты с различными архитектурами рекуррентных нейронных сетей, выявлены наиболее устойчивые к данной атаке архитектуры.