• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: 109028, г. Москва, Покровский бульвар, д. 11

Телефон: +7 (495) 531-00-00 *27254

Email: computerscience@hse.ru

 

Руководство
Первый заместитель декана Вознесенская Тамара Васильевна
Заместитель декана по научной работе и международному сотрудничеству Объедков Сергей Александрович
Заместитель декана по учебно-методической работе Самоненко Илья Юрьевич
Заместитель декана по развитию и административно-финансовой работе Плисецкая Ирина Александровна
Образовательные программы
Бакалаврская программа

Прикладная математика и информатика

4 года
Очная форма обучения
117/80/30
117 бюджетных мест
80 платных мест
30 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Бакалаврская программа

Программа двух дипломов НИУ ВШЭ и Лондонского университета "Прикладной анализ данных"

4 года
Очная форма обучения
80/12
80 платных мест
12 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Бакалаврская программа

Программная инженерия

4 года
Очная форма обучения
110/70/30
110 бюджетных мест
70 платных мест
30 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Анализ данных в биологии и медицине

2 года
Очная форма обучения
20/5/1
20 бюджетных мест
5 платных мест
1 платное место для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Магистр по наукам о данных

2 года
Заочная
100
100 платных мест
ENG
Обучение ведётся на английском языке
Магистерская программа

Науки о данных

2 года
Очная форма обучения
60/15/20
60 бюджетных мест
15 платных мест
20 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Системная и программная инженерия

2 года
Очная форма обучения
25/5/15
25 бюджетных мест
5 платных мест
15 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Системное программирование

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Статистическая теория обучения

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Финансовые технологии и анализ данных

2 года
Очная форма обучения
35/1
35 платных мест
1 платное место для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Статья
Sparse covariance matrix estimation in high-dimensional deconvolution

Belomestny D., Trabs M., Tsybakov A.

Bernoulli: a journal of mathematical statistics and probability. 2019. Vol. 25. No. 3. P. 1901-1938.

Статья
Axiomatization of provable n-provability

Beklemishev L. D., Kolmakov E.

Journal of Symbolic Logic. 2019. Vol. Volume 84. No. Issue 2. P. 849-869.

Глава в книге
ChronosDB in Action: Manage, Process, and Visualize Big Geospatial Arrays in the Cloud

Rodriges Zalipynis R. A.

In bk.: Proceedings of the ACM SIGMOD International Conference on Management of Data. NY: ACM, 2019. P. 1985-1988.

NeurIPS 2019

С 8 по 14 декабря в Ванкувере пройдет 33-я конференция Neural Information Processing Systems (NeurIPS).

NeurIPS 2019

Neural Information Processing Systems (NeurIPS) является некоммерческой ассоциацией, цель которой – содействие обмену результатами исследований по системам обработки нейронной информации в их биологическом, технологическом, математическом и теоретическом аспектах. Обработка нейронной информации – это область, которая выигрывает от комбинированного взгляда на биологические, физические, математические и вычислительные науки. 

Ежегодно NeurIPS собирает тысячи исследователей в области машинного обучении, которые представляют свои научные результаты в области глубинного обучения, обучения с подкреплением, масштабируемой оптимизации, байесовских методов и других подразделов машинного обучения. Это крупнейшая и наиболее престижная конференция в области искусственного интеллекта и машинного обучения в мире. Число желающих попасть на эту конференцию столь велико, что в этом году принято решение разыграть оставшиеся (после регистрации авторов принятых статей и лучших рецензентов) места в лотерею среди изъявивших желание поехать на конференцию.

В 2019 году на конференцию было подано рекордное число работ, из которых принято примерно 20% (1428 из 6743) работ. Среди принятых статей – четыре работы членов исследовательской группы байесовских методов, в авторах которых есть два сотрудника факультета компьютерных наук – Дмитрий Ветров и Кирилл Неклюдов.


Importance Weighted Hierarchical Variational Inference 

Авторы: Артём Соболев (Samsung AI Center Moscow) и Дмитрий Ветров.

В этой работе мы предлагаем способ обучения более выразительных вариационных аппроксимаций апостериорного распределения латентных переменных в нейросетевых генеративных моделях, а также обобщаем и улучшаем несколько ранее известных методов.


The Implicit Metropolis-Hastings Algorithm

Авторы: Кирилл Неклюдов, Евгений Егоров (Skoltech) и Дмитрий Ветров.

В недавних работах было предложено использовать дискриминатор GAN-а (генеративных соревновательных нейросетей) для фильтрации нереалистичных сэмплов генератора. В нашей работе мы обобщаем эту идею, предлагая неявный алгоритм Метрополиса-Гастингса. Для любой неявной вероятностной модели и целевого распределения, представленного в виде выборки, неявный Метрополис-Гастингс обучает дискриминатор для оценки отношения плотностей, а затем генерирует цепочку сэмплов. Поскольку аппроксимация отношения плотностей вносит ошибку на каждом шаге цепочки, крайне важно проанализировать стационарное распределение такой цепочки. С этой целью мы приводим теоретический результат, утверждающий, что верхняя оценка на функцию потерь дискриминатора ограничивает расстояние между целевым распределением и стационарным распределением сгенерированной цепочки. Наконец, мы проверяем предложенный алгоритм как для независимых, так и для Марковских предложных распределений на реальных наборах данных CIFAR-10 и CelebA.


A Simple Baseline for Bayesian Uncertainty in Deep Learning

Авторы: Уэлси Мэддокс (Cornell University), Тимур Гарипов (Samsung AI Center Moscow), Павел Измайлов (Cornell University), Дмитрий Ветров, Эндрю Гордон Уилсон (Cornell University).

В работе предложен метод SWA-Gaussian (SWAG) — масштабируемый метод построения оценок неопределенности предсказаний для глубинных нейронных сетей. Метод приближает траекторию стохастического градиентного спуска низкоранговым нормальным распределением над весами нейронной сети. На этапе предсказания сэмплы из построенного распределение используются в байесовском усреднении моделей для оценки неопределенности предсказаний. В экспериментах на CIFAR-10 и ImageNet показано, что SWAG позволяет добиться лучшего качества в задачах out of sample detection, calibration, и transfer learning.


A Prior of a Googol Gaussians: a Tensor Ring Induced Prior for Generative Models

Авторы: Максим Кузнецов (Insilico Medicine), Даниил Полыковский (Insilico Medicine), Дмитрий Ветров, Александр Жебрак (Insilico Medicine)

В статье был предложен новый класс обучаемых априорных распределений, названный Tensor Ring Induced Prior (TRIP). Экспериментально было показано, что замена стандартного нормального априорного распределения на TRIP в генеративных моделях позволяет значимо повысить качество: в GAN улучшается визуальное качество сгенерированных изображений, а в VAE замена априорного распределения приводит к более высокому значению ELBO при том же количестве параметров модели.

Кроме того, у группы байесовских методов есть еще один, связанный с конференцией, результат: все члены группы, рецензировавшие статьи - Арсений Ашуха, приглашенный преподаватель Департамента больших данных и информационного поиска,  а также сотрудники центра глубинного обучения и байесовских методов Дмитрий Ветров, Екатерина Лобачева, Дмитрий МолчановКирилл Струминский и Дмитрий Кропотов попали в число лучших рецензентов и получили возможность гарантированной регистрации на конференцию.