• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Тел.: +7 (495) 772-95-90 * 12332

computerscience@hse.ru

125319, Москва, Кочновский проезд, д. 3 (недалеко от станции метро "Аэропорт"). 

 

Руководство

Декан — Аржанцев Иван Владимирович

 

Первый заместитель декана факультета — Вознесенская Тамара Васильевна

 

Заместитель декана по научной работе и международным связям — Объедков Сергей Александрович

 

Заместитель декана по административно-финансовой работе — Плисецкая Ирина Александровна

Образовательные программы
Бакалаврская программа

Прикладная математика и информатика

4 года
Очная форма обучения
100/90/10
100 бюджетных мест
90 платных мест
10 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Бакалаврская программа

Программная инженерия

4 года
Очная форма обучения
80/100/10
80 бюджетных мест
100 платных мест
10 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Анализ данных в биологии и медицине

2 года
Очная форма обучения
20/5/5
20 бюджетных мест
5 платных мест
5 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Математические методы оптимизации и стохастики

2 года
Очная форма обучения
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Науки о данных

2 года
Очная форма обучения
40/10/5
40 бюджетных мест
10 платных мест
5 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Системная и программная инженерия

2 года
Очная форма обучения
20/10/10
20 бюджетных мест
10 платных мест
10 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Системное программирование

2 года
Очная форма обучения
20/5/5
20 бюджетных мест
5 платных мест
5 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Статистическая теория обучения

2 года
Очная форма обучения
20/5/5
20 бюджетных мест
5 платных мест
5 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Финансовые технологии и анализ данных

2 года
Очная форма обучения
30
30 платных мест
RUS/ENG
Обучение ведётся на русском и английском языках
Статья
Bias-Corrected Estimation in Continuous Sampling Plans
В печати

Decrouez G. G., Robinson A.

Risk Analysis: An International Journal. 2017.

Статья
Regularized Newton methods for minimizing functions with Hölder continuous Hessians

Nesterov Y., Grapiglia G.

2017 SIAM Journal on Optimization. 2017.

Глава в книге
Resource Equivalences in Petri Nets

Lomazova I. A.

In bk.: Application and Theory of Petri Nets and Concurrency. 38th International Conference, PETRI NETS 2017, Zaragoza, Spain, June 25–30, 2017, Proceedings. Vol. 10258: Lecture Notes in Computer Science. Switzerland: Springer International Publishing AG, 2017. P. 19-34.

Статья
Some Properties of Antistochastic Strings

Milovanov A.

Theory of Computing Systems. 2017. P. 1-15.

Статья
The Euler binary partition function and subdivision schemes

Protasov V. Y.

Mathematics of Computation. 2017. No. 86. P. 1499-1524.

Шесть работ сотрудников факультета и аспирантов школы представлено на конференции NIPS 2016

С 5 по 10 декабря в Барселоне прошла конференция Neural Information Processing Systems (NIPS), собравшая ведущих мировых специалистов по машинному обучению, анализу данных и искусственному интеллекту.

Международная конференция по машинному обучению NIPS проводится с 1989 года. Конференции присвоен высший рейтинг A* по международному классификатору CORE. В последние годы на NIPS публикуются новые прорывные работы в области глубинного обучения. Число участников в этом году увеличилось практически вдвое и составило 5680 человек. На основную секцию было подано 2500 статей, из них принято для докладов 568 работ.

В основной секции конференции был представлен постерный доклад профессора-исследователя департамента больших данных и информационного поиска Юрия Нестерова, написанный в соавторстве с сотрудниками Яндекса Львом Боголюбским, Глебом Гусевым и Алексеем Тихоновым и сотрудниками МФТИ Александром Гасниковым, Павлом Двуреченским, Максимом Жуковским и Андреем Райгородским. Работа по теме “Learning Supervised PageRank with Gradient-Based and Gradient-Free Optimization Methods” посвящена эффективному вычислению ссылочного ранжирования.

Также в данной секции состоялся постерный доклад стажёра-исследователя Научно-учебной лаборатории методов анализа больших данных Михаила Фигурнова и профессора-исследователя Дмитрия Ветрова. Работа была выполнена в соавторстве с Айжан Ибрагимовой, на момент выполнения работы магистром Сколтеха, и Пушмитом Коли, ведущим исследователем Microsoft Research. Доклад носит название "PerforatedCNNs: Acceleration through Elimination of Redundant Convolutions" и посвящён ускорению свёрточных нейронных сетей. Тема работы очень актуальна и вызывает интерес среди представителей индустрии, поскольку ускорение нейронных сетей применяется в мобильных устройствах.

Михаил Фигурнов также выступил соавтором приглашенного доклада исследователя DeepMind Алекса Грейвса на тему "Learning When to Halt With Adaptive Computation Time" на воркшопе “Neural Abstract Machines & Program Induction”. В работе были подробно освещены последние результаты, полученные Михаилом совместно с Дмитрием Ветровым, исследователями из Google и профессором Carnegie Mellon University Русланом Салахутдиновым, по использованию адаптивного времени вычислений для ускорения остаточных нейронных сетей (Residual Neural Networks). Данные результаты опубликованы в препринте "Spatially Adaptive Computation Time for Residual Networks".

На воркшопе “Advances in Approximate Bayesian Inference” была представлена работа "Robust Variational Inference” Михаила Фигурнова, аспиранта школы по компьютерным наукам Кирилла Струминского и профессора-исследователя Дмитрия Ветрова. В этой статье предлагается простой способ повышения устойчивости моделей байесовского вывода к шумовым объектам в данных.

Результаты двух статей сотрудников факультета были сообщены на воркшопе "Learning with Tensors". Первая – "Ultimate Tensorization: Convolutions and FC alike", написанная стажёром-исследователем Научно-учебной лаборатории методов анализа больших данных  Александром Новиковым и профессором-исследователем Дмитрием Ветровым, студентом бакалавриата МГУ Тимуром Гариповым и аспирантом МГУ Дмитрием Подоприхиным. В данной работе предложена техника, позволяющая заменять свёрточные слои нейронных сетей на тензорные, которые требуют намного меньше параметров и обладают большей выразительной способностью. Вторая статья – "Searching for optimal patterns in Boolean tensors" профессора департамента анализа данных и искусственного интеллекта Сергея Кузнецова, доцента департамента анализа данных и искусственного интеллекта Дмитрия Игнатова и аспиранта школы по компьютерным наукам Дмитрия Гнатышака. Соавтором работы является доцент Политехнического университета Каталонии Жауме Башерье (Jaume Baixeries). В статье предлагается альтернативный тензорной факторизации взгляд на поиск закономерностей в виде плотных мультимодальных кластеров в булевых тензорах и подчеркивается их прямая связь с бинарными отношениями, а также предлагаются вычислительно эффективные методы поиска.

На воркшопе Bayesian Deep Learning была представлена работа "Dropout-based Automatic Relevance Determination" профессора-исследователя факультета Дмитрия Ветрова, магистра МФТИ Арсением Ашухой и магистра Сколтеха Дмитрия Молчанова. В статье предложен байесовский метод прореживания линейных моделей, что позволяет сжать однослойные нейронные сети.

После завершения основной части конференции были проведены симпозиумы. На симпозиуме по  глубинному обучению был представлен постерный доклад старшего преподавателя департамента больших данных и информационного поиска Сергея Бартунова в соавторстве с исследователями из DeepMind "One-shot learning with memory-augmented neural networks". Статья посвящена актуальной задачи обучения по сверхмалым выборкам данных. Эта работа была прежде представлена на международной конференции ICML 2016.