• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: 109028, г. Москва, Покровский бульвар, д. 11

Телефон: +7 (495) 531-00-00 *27254

Email: computerscience@hse.ru

 

Руководство
Первый заместитель декана Вознесенская Тамара Васильевна
Заместитель декана по научной работе и международному сотрудничеству Объедков Сергей Александрович
Заместитель декана по учебно-методической работе Самоненко Илья Юрьевич
Заместитель декана по развитию и административно-финансовой работе Плисецкая Ирина Александровна
Образовательные программы
Бакалаврская программа

Прикладная математика и информатика

4 года
Очная форма обучения
110/100/15
110 бюджетных мест
100 платных мест
15 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Бакалаврская программа

Программа двух дипломов НИУ ВШЭ и Лондонского университета "Прикладной анализ данных"

4 года
Очная форма обучения
90/12
90 платных мест
12 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Бакалаврская программа

Программная инженерия

4 года
Очная форма обучения
80/120/15
80 бюджетных мест
120 платных мест
15 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Анализ данных в биологии и медицине

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Науки о данных

2 года
Очная форма обучения
55/15/6
55 бюджетных мест
15 платных мест
6 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Системная и программная инженерия

2 года
Очная форма обучения
25/5/8
25 бюджетных мест
5 платных мест
8 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Системное программирование

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Статистическая теория обучения

2 года
Очная форма обучения
20/5/4
20 бюджетных мест
5 платных мест
4 платных места для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Финансовые технологии и анализ данных

2 года
Очная форма обучения
35/3
35 платных мест
3 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Статья
Sparse covariance matrix estimation in high-dimensional deconvolution

Belomestny D., Trabs M., Tsybakov A.

Bernoulli: a journal of mathematical statistics and probability. 2019. Vol. 25. No. 3. P. 1901-1938.

Статья
Axiomatization of provable n-provability

Beklemishev L. D., Kolmakov E.

Journal of Symbolic Logic. 2019. Vol. Volume 84. No. Issue 2. P. 849-869.

Глава в книге
ChronosDB in Action: Manage, Process, and Visualize Big Geospatial Arrays in the Cloud

Rodriges Zalipynis R. A.

In bk.: Proceedings of the ACM SIGMOD International Conference on Management of Data. NY: ACM, 2019. P. 1985-1988.

В весеннем семестре ФКН принял 11 стажеров из ведущих мировых вузов

В весеннем семестре ФКН принял 11 стажеров из ведущих мировых вузов

Студенты из Франции, Великобритании, Швейцарии, Того и Албании работали над исследовательскими проектами в лабораториях ФКН в весеннем семестре 2019. Стажеры представляют следующие вузы: Оксфордский университет (Великобритания),Высшая нормальная школа Парижа (Франция), Падуанский университет (Италия), Тулузский университет (Франция), Высший технический институт Лиссабона (Португалия), Центральная высшая школа Марселя (Франция), INSA Lyon (Франция).

Один из стажеров – Диего Гранзиол, PhD студент Оксфордского университета, который провел два месяца в Центре глубинного обучения и байесовских методов ФКН. Диего рассказал нам подробнее о своем проекте в рамках стажировки:

Диего Гранзиол

"Во время моего пребывания я работал в Группe байесовских методов под руководством Дмитрия Ветрова. Основную часть исследований я работал совместно с Тимуром Гариповым, который является членом группы. Мы начали с внедрения кодовой базы Тимура в мой предыдущий проект (спектральный стохастический градиентный спуск) и подведения некоторых теоретических результатов в его предыдущую работу “stochastic weight averaged gaussians”. 

Что интересно, мы заметили, что, в то время как кривизна, полученная в начале обучения, была очень близка к подобранной вручную, связанное с этим снижение скорости градиентного спуска может «взорвать» спектр, что в свою очередь замедлит скорость спуска ещё больше и тем самым полностью остановит его. Это было небольшое разочарование. Более того, для выпуклой квадратичной задачи можно доказать, что метод главных компонент, использующийся в SWAG, не даст того же базиса из собственных векторов, что и для основной выпуклой задачи.

Следующей нашей целью было понять общий принцип: мы посмотрели работу Ледуа и Вольфа для ковариационных матриц больших размерностей из многомерной статистики и реализовали метод сжатия коэффициента для глубоких нейронных сетей для обучения коэффициента L2 регуляризации. Мы поняли, что коэффициент регуляризации, полученный из спектра с использованием нашей реализации, достаточно хорошо соответствует коэффициенту выбранному вручную перебором по решетке, и что он увеличился во время обучения, в течение которого доверие к эмпирическому гессиану уменьшится из-за переобучения. Результаты выглядели многообещающе вплоть до конца, когда скорость обучения снижалась, а ширина и дисперсия спектра увеличивались до уровня, при котором доверие к эмпирическому гессиану становилось равным 0, что останавливало обучение и давало плохую производительность. Однако мы это исправили, выбрав графики скорости обучения, в которых скорость не снижается так быстро.

Последняя часть работы, которая была представлена NeurIPS и workshop ICML, «Теоретическая физика в области глубинного обучения» (она была принята и представлена на прошлой неделе) была сосредоточена на понимании обобщения с точки зрения отклонений от истинной поверхности риска до поверхности эмпирического риска. Это была особенно тяжелая неделя, так как у моего партнера по исследованиям были экзамены и постоянные встречи по поводу получения визы, поэтому большая часть работы (написание статей, разработка идей и всей математической части, которая основывалась на низкоранговых возмущениях группы Вигнера) легла на мои плечи. Были проведены обширные эксперименты с использованием аугментации данных о спектрах, пакетных спектрах и методах Ньютона по логистической регрессии в качестве "игрушечного" примера.

Я не могу не подчеркнуть, насколько мне повезло и какой честью для меня было приехать в Россию, работать со всей Группой байесовских методов. Атмосфера была теплой и гостеприимной. Тимур – по-настоящему изумительный кодер, и без него я бы не сдвинулся с мертвой точки ни по одной из моих собственных идей. Я думаю, у него есть потенциал заниматься поистине совершенно исключительными исследованиями, и я невероятно рад следить за его успехами. Я благодарю Дмитрия, чей финальный вклад в документ, который мы отправили в NeurIPS, был совершенно необходим, за наши регулярные встречи, советы, вопросы, поддержку и время.

Я надеюсь, что у меня появится возможность вернуться и поработать снова с Исследовательской группой байесовских методов".


Узнай больше о возможностях стажировок на факультете компьютерных наук.