Два доклада от ФКН представлены на международной конференции NIPS 2017
Сотрудники Факультета компьютерных наук представили свои доклады на ежегодной конференции Neural Information Processing Systems (NIPS), которая проходила с 4 по 9 декабря в Лонг Бич, США.
В этом году ФКН был представлен двумя докладами: пленарным «On Structured Prediction Theory with Calibrated Convex Surrogate Losses» доцента Департамента больших данных и информационного поиска Антона Осокина и постерным «Structured Bayesian Pruning via Log-Normal Multiplicative Noise» от коллектива Международной лаборатории глубинного обучения и байесовских методов.
На сегодняшний день существует две крупнейшие международные конференции в области машинного обучения – Neural Information Processing Systems (NIPS) и International Conference on Machine Learning (ICML). Большинство значимых научных работ в данной сфере впервые представляются именно на этих конференциях. NIPS проводится ежегодно, начиная с 1986 года. Основными элементами программы традиционно являются лекции приглашенных гостей, пленарные выступления (15 минут) и постерные доклады. Как правило, не более 1% от поданных работ получают статус пленарных докладов. Всего в этом году из 3240 присланных было принято 678, из них только 40 были заявлены как пленарные. Кроме того, в 2017 поставлен новый рекорд по количеству участников – 7850 человек, в то время как в 2016 году их было 5600.
В отличие от большинства работ, представленных на конференции, которые носили практический характер, пленарный доклад Антона Осокина был посвящен теоретическим вопросам в одной из областей машинного обучения – структурном предсказании. В представленном им исследовании впервые три такие задачи, как consistency, сложность решения задач оптимизации и количественные характеристики сложности структуры были объединены в рамках одного формализма.
Доцент Департамента больших данных и информационного поиска
«Наша работа создает теоретическую основу для практических исследований в области структурного предсказания. Фактически мы определяем свойства задач, которые могут быть использованы для создания эффективных решений».
Международная лаборатория глубинного обучения и байесовских методов: Заведующий лабораторией
Декан факультета компьютерных наук
В рамках дополнительной секции (workshop) OPT 2017: Optimization for Machine Learning с докладом выступил профессор-исследователь Департамента больших данных и информационного поиска Юрий Нестеров. Кроме того, с постерным докладом «Recycling Privileged Learning and Distribution Matching for Fairness» выступил научный руководитель Международной лаборатории глубинного обучения и байесовских методов Нови Квадрианто. Также в дополнительных секциях выступили представители МФТИ и Яндекса.
Новость на сайте Вышки: https://www.hse.ru/science/news/213458890.html
Ашуха Арсений Павлович
Квадрианто Нови
Молчанов Дмитрий Александрович
Нестеров Юрий Евгеньевич
Осокин Антон Александрович