• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Тел.: +7 (495) 772-95-90 * 12332

computerscience@hse.ru

125319, Москва, Кочновский проезд, д. 3 (недалеко от станции метро "Аэропорт"). 

 

Руководство

Декан — Аржанцев Иван Владимирович

 

Первый заместитель декана факультета — Вознесенская Тамара Васильевна

 

Заместитель декана по научной работе и международным связям — Объедков Сергей Александрович

 

Заместитель декана по административно-финансовой работе — Плисецкая Ирина Александровна

Мероприятия
Образовательные программы
Бакалаврская программа

Прикладная математика и информатика

4 года
Очная форма обучения
100/80/15
100 бюджетных мест
80 платных мест
15 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Бакалаврская программа

Программа двух дипломов НИУ ВШЭ и Лондонского университета "Прикладной анализ данных"

4 года
Очная форма обучения
50/10
50 платных мест
10 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Бакалаврская программа

Программная инженерия

4 года
Очная форма обучения
80/80/15
80 бюджетных мест
80 платных мест
15 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Анализ данных в биологии и медицине

2 года
Очная форма обучения
15/5/3
15 бюджетных мест
5 платных мест
3 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Математические методы оптимизации и стохастики

2 года
Очная форма обучения
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Науки о данных

2 года
Очная форма обучения
55/15/6
55 бюджетных мест
15 платных мест
6 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Системная и программная инженерия

2 года
Очная форма обучения
20/10/12
20 бюджетных мест
10 платных мест
12 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Системное программирование

2 года
Очная форма обучения
20/10/5
20 бюджетных мест
10 платных мест
5 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Статистическая теория обучения

2 года
Очная форма обучения
20/5/5
20 бюджетных мест
5 платных мест
5 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Финансовые технологии и анализ данных

2 года
Очная форма обучения
30/3
30 платных мест
3 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Статья
Colourings of Uniform Hypergraphs with Large Girth and Applications

Shabanov D. S., Kupavskii A.

Combinatorics Probability and Computing. 2017.

Глава в книге
A Fast Scaling Algorithm for the Weighted Triangle-Free 2-Matching Problem

Artamonov S., Babenko M. A.

In bk.: Combinatorial Algorithms. 26th International Workshop, IWOCA 2015, Verona, Italy, October 5-7, 2015, Revised Selected Papers. Vol. 9538. Switzerland: Springer International Publishing, 2016. P. 25-37.

Глава в книге
Any-Angle Pathfinding for Multiple Agents Based on SIPP Algorithm

Yakovlev K., Andreychuk A.

In bk.: Proceedings of the 27th International Conference on Automated Planning and Scheduling (ICAPS 2017). Palo Alto: AAAI Press, 2017. P. 586-594.

Статья
Cohomology of toric origami manifolds with acyclic proper faces

Ayzenberg A., Masuda M., Park S. et al.

Journal of Symplectic Geometry. 2017. Vol. 15. No. 3. P. 645-685.

Шесть работ сотрудников факультета и аспирантов школы представлено на конференции NIPS 2016

С 5 по 10 декабря в Барселоне прошла конференция Neural Information Processing Systems (NIPS), собравшая ведущих мировых специалистов по машинному обучению, анализу данных и искусственному интеллекту.

Международная конференция по машинному обучению NIPS проводится с 1989 года. Конференции присвоен высший рейтинг A* по международному классификатору CORE. В последние годы на NIPS публикуются новые прорывные работы в области глубинного обучения. Число участников в этом году увеличилось практически вдвое и составило 5680 человек. На основную секцию было подано 2500 статей, из них принято для докладов 568 работ.

В основной секции конференции был представлен постерный доклад профессора-исследователя департамента больших данных и информационного поиска Юрия Нестерова, написанный в соавторстве с сотрудниками Яндекса Львом Боголюбским, Глебом Гусевым и Алексеем Тихоновым и сотрудниками МФТИ Александром Гасниковым, Павлом Двуреченским, Максимом Жуковским и Андреем Райгородским. Работа по теме “Learning Supervised PageRank with Gradient-Based and Gradient-Free Optimization Methods” посвящена эффективному вычислению ссылочного ранжирования.

Также в данной секции состоялся постерный доклад стажёра-исследователя Научно-учебной лаборатории методов анализа больших данных Михаила Фигурнова и профессора-исследователя Дмитрия Ветрова. Работа была выполнена в соавторстве с Айжан Ибрагимовой, на момент выполнения работы магистром Сколтеха, и Пушмитом Коли, ведущим исследователем Microsoft Research. Доклад носит название "PerforatedCNNs: Acceleration through Elimination of Redundant Convolutions" и посвящён ускорению свёрточных нейронных сетей. Тема работы очень актуальна и вызывает интерес среди представителей индустрии, поскольку ускорение нейронных сетей применяется в мобильных устройствах.

Михаил Фигурнов также выступил соавтором приглашенного доклада исследователя DeepMind Алекса Грейвса на тему "Learning When to Halt With Adaptive Computation Time" на воркшопе “Neural Abstract Machines & Program Induction”. В работе были подробно освещены последние результаты, полученные Михаилом совместно с Дмитрием Ветровым, исследователями из Google и профессором Carnegie Mellon University Русланом Салахутдиновым, по использованию адаптивного времени вычислений для ускорения остаточных нейронных сетей (Residual Neural Networks). Данные результаты опубликованы в препринте "Spatially Adaptive Computation Time for Residual Networks".

На воркшопе “Advances in Approximate Bayesian Inference” была представлена работа "Robust Variational Inference” Михаила Фигурнова, аспиранта школы по компьютерным наукам Кирилла Струминского и профессора-исследователя Дмитрия Ветрова. В этой статье предлагается простой способ повышения устойчивости моделей байесовского вывода к шумовым объектам в данных.

Результаты двух статей сотрудников факультета были сообщены на воркшопе "Learning with Tensors". Первая – "Ultimate Tensorization: Convolutions and FC alike", написанная стажёром-исследователем Научно-учебной лаборатории методов анализа больших данных  Александром Новиковым и профессором-исследователем Дмитрием Ветровым, студентом бакалавриата МГУ Тимуром Гариповым и аспирантом МГУ Дмитрием Подоприхиным. В данной работе предложена техника, позволяющая заменять свёрточные слои нейронных сетей на тензорные, которые требуют намного меньше параметров и обладают большей выразительной способностью. Вторая статья – "Searching for optimal patterns in Boolean tensors" профессора департамента анализа данных и искусственного интеллекта Сергея Кузнецова, доцента департамента анализа данных и искусственного интеллекта Дмитрия Игнатова и аспиранта школы по компьютерным наукам Дмитрия Гнатышака. Соавтором работы является доцент Политехнического университета Каталонии Жауме Башерье (Jaume Baixeries). В статье предлагается альтернативный тензорной факторизации взгляд на поиск закономерностей в виде плотных мультимодальных кластеров в булевых тензорах и подчеркивается их прямая связь с бинарными отношениями, а также предлагаются вычислительно эффективные методы поиска.

На воркшопе Bayesian Deep Learning была представлена работа "Dropout-based Automatic Relevance Determination" профессора-исследователя факультета Дмитрия Ветрова, магистра МФТИ Арсением Ашухой и магистра Сколтеха Дмитрия Молчанова. В статье предложен байесовский метод прореживания линейных моделей, что позволяет сжать однослойные нейронные сети.

После завершения основной части конференции были проведены симпозиумы. На симпозиуме по  глубинному обучению был представлен постерный доклад старшего преподавателя департамента больших данных и информационного поиска Сергея Бартунова в соавторстве с исследователями из DeepMind "One-shot learning with memory-augmented neural networks". Статья посвящена актуальной задачи обучения по сверхмалым выборкам данных. Эта работа была прежде представлена на международной конференции ICML 2016.