Аннотация:Курсовая работа посвящена задаче автоматического реферирования текстов (Automatic Text Summarization) для русскоязычных научных статей. С появлением предобученных моделей архитектуры Transformer особенно активно развиваются методы абстрагирующего подхода. В работе ставится задача исследования абстрагирующих методов, опирающиеся на нейронные сети. Сравниваются существующие наборы данных на русском языке и результаты для них, показанные нейронными языковыми моделями. Рассматривается вопрос применимости существующих моделей к поставленной задаче. Модели архитектуры T5, демонстрирующие лучшие результаты для русского языка, используются для проведения экспериментального исследования. В частности, модель rut5-small была дообучена для автоматического реферирования на датасете Gazeta. Также поднимается вопрос о необходимости создания русскоязычного набора данных для создания информативных систем ATS.