• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Новости

Две статьи приняты на конференцию NAACL 2021

Иллюстрация предложенного метода

Иллюстрация предложенного метода
Надежда Чиркова

Две статьи сотрудников центра приняты на одну из ведущих мировых конференций по обработке естественного языка, Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2021)

Финальные версии статей и сопровождающий код будут доступны в ближайшее время. Исследование выполнено с использованием вычислительных ресурсов Суперкомпьютерного комплекса НИУ ВШЭ.

Обе статьи решают задачу совершенствования нейросетевых моделей, анализирующих исходный код программ, с помощью учета специфики имен переменных. В первой статье предлагается рекуррентная архитектура, в явном виде моделирующая роль переменных в программе. Во второй статье предлагается простой метод предобработки редко используемых переменных, позволяющий нейросетям (в частности, архитектуре Трансформер) более качественно анализировать программу. Оба метода значительно повышают качество нейросетевого автодополнения кода и автоматического обнаружения неправильно использованной переменной.