• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Сотрудники факультета представили результаты своих исследований на крупнейшей мировой конференции по машинному обучению NeurIPS

Кирилл Струминский и Антон Осокин представляют свой постер участникам конференции

Кирилл Струминский и Антон Осокин представляют свой постер участникам конференции

С 2 по 8 декабря 2018 года в Монреале прошла 32-я международная конференция Neural Information Processing Systems (NeurIPS 2018). Ежегодно NeurIPS собирает тысячи исследователей в области машинного обучении, которые представляют свои научные результаты в области глубинного обучения, обучения с подкреплением, масштабируемой оптимизации, байесовских методах и других подразделах машинного обучения. Количество статей, подаваемых на конференцию, каждый год растет, и в этом году составило 4854 (из них 1019 принято).


В этом году в основной сетке конференции было представлено три работы сотрудников факультета компьютерных наук: «Loss Surfaces, Mode Connectivity, and Fast Ensembling of DNNs» (короткий устный доклад, авторы: Тимур Гарипов, Павел Измаилов, Дмитрий Подоприхин, Дмитрий Ветров и Эндрю Гордон Уилсон), «Quantifying Learning Guarantees for Convex but Inconsistent Surrogates» (постерный доклад, авторы: Кирилл Струминский, Симон Лакост-Жульен и Антон Осокин), обе — от исследовательской группы байесовских методов, и «Non-metric Similarity Graphs for Maximum Inner Product Search» (постерный доклад, авторы: Станислав Морозов и Артем Бабенко) от Базовой кафедры Яндекс.


Профессор-исследователь ФКН Дмитрий Ветров выступил с приглашенным докладом в дополнительной секции (workshop) Bayesian Deep Learning. В своем докладе он рассказал о полу-неявных вероятностных моделях (semi-implicit modeling) — моделях, позволяющих совместить гибкость неявных вероятностных моделей (таких, как GAN), и простоту обучения явных (например, Normalizing Flows).


Кроме того, в дополнительных секциях были представлены несколько работ исследовательской группы байесовских методов (сотрудники Центра глубинного обучения и байесовских методов, Лаборатории компании Самсунг в НИУ ВШЭ, Центра искусственного интеллекта компании Самсунг в Москве):





Дмитрий Ветров
Профессор-исследователь ФКН

В работе “Loss Surfaces, Mode Connectivity, and Fast Ensembling of DNNs” мы выявили и эмпирически исследовали важное свойство нейронных сетей: оказывается, что независимо найденные оптимумы функционала качества соеденены непрерывной кривой, вдоль которой ошибка на тестовой выборке остается приблизительно постоянной. Это открывает возможности для более эффективного ансамблирования нейронных сетей. В настоящий момент мы продолжаем исследования в этом направлении.