• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: 125319, г. Москва, 
Кочновский проезд, д. 3 (станция метро "Аэропорт").

Телефон: +7 (495) 772-95-90 *12332

Email: computerscience@hse.ru

 

Руководство

Декан Аржанцев Иван Владимирович

Первый заместитель декана Вознесенская Тамара Васильевна

Заместитель декана по научной работе и международному сотрудничеству Объедков Сергей Александрович

Заместитель декана по учебно-методической работе Самоненко Илья Юрьевич

Заместитель декана по развитию и административно-финансовой работе Плисецкая Ирина Александровна

Образовательные программы
Бакалаврская программа

Прикладная математика и информатика

4 года
Очная форма обучения
110/80/15
110 бюджетных мест
80 платных мест
15 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Бакалаврская программа

Программа двух дипломов НИУ ВШЭ и Лондонского университета "Прикладной анализ данных"

4 года
Очная форма обучения
70/12
70 платных мест
12 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Бакалаврская программа

Программная инженерия

4 года
Очная форма обучения
80/70/15
80 бюджетных мест
70 платных мест
15 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Анализ данных в биологии и медицине

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Науки о данных

2 года
Очная форма обучения
55/15/6
55 бюджетных мест
15 платных мест
6 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Системная и программная инженерия

2 года
Очная форма обучения
25/5/8
25 бюджетных мест
5 платных мест
8 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Системное программирование

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Статистическая теория обучения

2 года
Очная форма обучения
20/5/4
20 бюджетных мест
5 платных мест
4 платных места для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Финансовые технологии и анализ данных

2 года
Очная форма обучения
35/3
35 платных мест
3 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Статья
Infinite transitivity, finite generation, and Demazure roots

Arzhantsev I., Kuyumzhiyan K., Zaidenberg M.

Advances in Mathematics. 2019. Vol. 351. P. 1-32.

Статья
Bias in False Discovery Rate Estimation in Mass-Spectrometry-Based Peptide Identification

Sulimov P., Voronkova A., Danilova Y. et al.

Journal of Proteome Research. 2019. Vol. 18. No. 5. P. 2354-2358.

Статья
Compression of recurrent neural networks for efficient language modeling

Grachev A., Ignatov D. I., Savchenko A.

Applied Soft Computing Journal. 2019. Vol. 79. P. 354-362.

Глава в книге
Numerical Pattern Mining Through Compression

Makhalova T., Kuznetsov S., Napoli A.

In bk.: 2019 Data Compression Conference Proceedings. IEEE, 2019.

В весеннем семестре ФКН принял 11 стажеров из ведущих мировых вузов

В весеннем семестре ФКН принял 11 стажеров из ведущих мировых вузов

Студенты из Франции, Великобритании, Швейцарии, Того и Албании работали над исследовательскими проектами в лабораториях ФКН в весеннем семестре 2019. Стажеры представляют следующие вузы: Оксфордский университет (Великобритания),Высшая нормальная школа Парижа (Франция), Падуанский университет (Италия), Тулузский университет (Франция), Высший технический институт Лиссабона (Португалия), Центральная высшая школа Марселя (Франция), INSA Lyon (Франция).

Один из стажеров – Диего Гранзиол, PhD студент Оксфордского университета, который провел два месяца в Центре глубинного обучения и байесовских методов ФКН. Диего рассказал нам подробнее о своем проекте в рамках стажировки:

Диего Гранзиол

"Во время моего пребывания я работал в Группe байесовских методов под руководством Дмитрия Ветрова. Основную часть исследований я работал совместно с Тимуром Гариповым, который является членом группы. Мы начали с внедрения кодовой базы Тимура в мой предыдущий проект (спектральный стохастический градиентный спуск) и подведения некоторых теоретических результатов в его предыдущую работу “stochastic weight averaged gaussians”. 

Что интересно, мы заметили, что, в то время как кривизна, полученная в начале обучения, была очень близка к подобранной вручную, связанное с этим снижение скорости градиентного спуска может «взорвать» спектр, что в свою очередь замедлит скорость спуска ещё больше и тем самым полностью остановит его. Это было небольшое разочарование. Более того, для выпуклой квадратичной задачи можно доказать, что метод главных компонент, использующийся в SWAG, не даст того же базиса из собственных векторов, что и для основной выпуклой задачи.

Следующей нашей целью было понять общий принцип: мы посмотрели работу Ледуа и Вольфа для ковариационных матриц больших размерностей из многомерной статистики и реализовали метод сжатия коэффициента для глубоких нейронных сетей для обучения коэффициента L2 регуляризации. Мы поняли, что коэффициент регуляризации, полученный из спектра с использованием нашей реализации, достаточно хорошо соответствует коэффициенту выбранному вручную перебором по решетке, и что он увеличился во время обучения, в течение которого доверие к эмпирическому гессиану уменьшится из-за переобучения. Результаты выглядели многообещающе вплоть до конца, когда скорость обучения снижалась, а ширина и дисперсия спектра увеличивались до уровня, при котором доверие к эмпирическому гессиану становилось равным 0, что останавливало обучение и давало плохую производительность. Однако мы это исправили, выбрав графики скорости обучения, в которых скорость не снижается так быстро.

Последняя часть работы, которая была представлена NeurIPS и workshop ICML, «Теоретическая физика в области глубинного обучения» (она была принята и представлена на прошлой неделе) была сосредоточена на понимании обобщения с точки зрения отклонений от истинной поверхности риска до поверхности эмпирического риска. Это была особенно тяжелая неделя, так как у моего партнера по исследованиям были экзамены и постоянные встречи по поводу получения визы, поэтому большая часть работы (написание статей, разработка идей и всей математической части, которая основывалась на низкоранговых возмущениях группы Вигнера) легла на мои плечи. Были проведены обширные эксперименты с использованием аугментации данных о спектрах, пакетных спектрах и методах Ньютона по логистической регрессии в качестве "игрушечного" примера.

Я не могу не подчеркнуть, насколько мне повезло и какой честью для меня было приехать в Россию, работать со всей Группой байесовских методов. Атмосфера была теплой и гостеприимной. Тимур – по-настоящему изумительный кодер, и без него я бы не сдвинулся с мертвой точки ни по одной из моих собственных идей. Я думаю, у него есть потенциал заниматься поистине совершенно исключительными исследованиями, и я невероятно рад следить за его успехами. Я благодарю Дмитрия, чей финальный вклад в документ, который мы отправили в NeurIPS, был совершенно необходим, за наши регулярные встречи, советы, вопросы, поддержку и время.

Я надеюсь, что у меня появится возможность вернуться и поработать снова с Исследовательской группой байесовских методов".


Узнай больше о возможностях стажировок на факультете компьютерных наук.