• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: 109028, г. Москва, Покровский бульвар, д. 11

Телефон: +7 (495) 531-00-00 *27254

Email: computerscience@hse.ru

 

Руководство
Первый заместитель декана Вознесенская Тамара Васильевна
Заместитель декана по научной работе и международному сотрудничеству Объедков Сергей Александрович
Заместитель декана по учебно-методической работе Самоненко Илья Юрьевич
Заместитель декана по развитию и административно-финансовой работе Плисецкая Ирина Александровна
Образовательные программы
Бакалаврская программа

Компьютерные науки и анализ данных

4 года
Очная форма обучения
75/5
75 платных мест
5 платных мест для иностранцев
RUS
Обучение ведётся на русском языке
Бакалаврская программа

Прикладная математика и информатика

4 года
Очная форма обучения
125/60/30
125 бюджетных мест
60 платных мест
30 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Бакалаврская программа

Программа двух дипломов НИУ ВШЭ и Лондонского университета "Прикладной анализ данных"

4 года
Очная форма обучения
90/12
90 платных мест
12 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Бакалаврская программа

Программная инженерия

4 года
Очная форма обучения
120/80/30
120 бюджетных мест
80 платных мест
30 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Анализ данных в биологии и медицине

2 года
Очная форма обучения
25/5/1
25 бюджетных мест
5 платных мест
1 платное место для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Магистр по наукам о данных

2 года
Заочная
63/27
63 платных мест
27 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Математика машинного обучения

2 года
Очная форма обучения
15/5/1
15 бюджетных мест
5 платных мест
1 платное место для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Машинное обучение и высоконагруженные системы

2 года
Очная форма обучения
28/2
28 платных мест
2 платных места для иностранцев
RUS
Обучение ведётся на русском языке
Магистерская программа

Науки о данных

2 года
Очная форма обучения
65/15/20
65 бюджетных мест
15 платных мест
20 платных мест для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Системная и программная инженерия

2 года
Очная форма обучения
25/5/10
25 бюджетных мест
5 платных мест
10 платных мест для иностранцев
ENG
Обучение ведётся на английском языке
Магистерская программа

Системное программирование

2 года
Очная форма обучения
15/5/2
15 бюджетных мест
5 платных мест
2 платных места для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Магистерская программа

Финансовые технологии и анализ данных

2 года
Очная форма обучения
50/1
50 платных мест
1 платное место для иностранцев
RUS/ENG
Обучение ведётся на русском и английском языках
Препринт
Robust covariance estimation under L_4-L_2 norm equivalence

Mendelson S., Zhivotovskiy N.

math. arxive. Cornell University, 2018

Статья
Random hypergraphs and property B

Shabanov D. A., Kozik J., Duraj L.

European Journal of Combinatorics. 2021. Vol. 91. P. 1-11.

Глава в книге
On pattern setups and pattern multistructures

Kuznetsov S., Kaytoue M., Belfodil A.

In bk.: International Journal of General Systems. Iss. 49. 2020. P. 271-285.

Глава в книге
Finite Time Analysis of Linear Two-timescale Stochastic Approximation with Markovian Noise

Kaledin M., Moulines E., Naumov A. et al.

In bk.: Proceedings of Machine Learning Research. Vol. 125: Proceedings of Thirty Third Conference on Learning Theory. 2020. P. 2144-2203.

Три статьи сотрудников ФКН приняты на конференцию NeurIPS — 2020

Три статьи сотрудников ФКН приняты на конференцию NeurIPS — 2020

34-ая конференция по машинному обучению и нейровычислениям NeurIPS 2020 — одна из крупнейших в мире конференций по машинному обучению, которая проводится с 1989 года. Она должна была пройти 6 — 12 декабря в Ванкувере, но, ожидаемо, была перенесена в онлайн-формат. 

NeurIPS всегда пользуется большой популярностью, и в этом году на нее было подано 9 454 статьи, а принято — 1900. Среди них — три статьи сотрудников ФКН: 

Мы попросили авторов статей рассказать о своих исследованиях.

Чиркова Надежда Александровна
Лаборатория компании Самсунг: Научный сотрудник

В нашей статье мы изучаем законы, согласно которым меняется качество ансамблей нейронных сетей. Ансамблирование — это простая процедура, подразумевающая обучение нескольких нейронных сетей и усреднение их предсказаний. Усреднение сокращает количество ошибок модели, а также помогает ей точнее оценить, уверена ли она в своих предсказаниях, или лучше отказаться от них и воспользоваться альтернативным источником информации. Например, при распознавании отпечатка пальца в смартфоне модель может в 99% случаев верно распознавать его, а в 1% случаев отказаться от предсказания и запросить у пользователя пароль. Чем больше нейросетей в ансамбле, тем выше качество предсказания, но тем медленнее оно вычисляется. В статье “On Power Laws in Deep Ensembles” мы изучаем, как меняется качество предсказания уверенности ансамбля при увеличении количества нейросетей, а обнаруженный нами закон помогает определить, какое минимальное количество нейросетей нужно, чтобы достичь желаемого уровня качества. При проведении исследования мы активно использовали вычислительные ресурсы Суперкомпьютерного комлекса НИУ ВШЭ.
Левый столбец: качество ансамбля следует степенному закону, что позволяет предсказывать качество больших ансамблей с высокой точностью. Правый столбец: при изменении процедуры ансамблирования степенной закон не наблюдается.
Левый столбец: качество ансамбля следует степенному закону, что позволяет предсказывать качество больших ансамблей с высокой точностью. Правый столбец: при изменении процедуры ансамблирования степенной закон не наблюдается.
Екатерина Лобачева, Надежда Чиркова

Устюжанин Андрей Евгеньевич
Заведующий научно-учебной лабораторией методов анализа больших данных

Можно придумать много случаев в естественной физике или инженерных процессах, которые можно смоделировать недифференцируемыми симуляторами с трудноразрешимыми правдоподобиями. Оптимизация этих моделей в пространстве параметров P очень сложна, особенно когда смоделированный процесс стохастичен. Для решения этой проблемы мы представляем глубокие генеративные суррогатные модели для итеративного приближения симулятора в локальных районах пространства параметров Р. Мы работали над этой темой более года: первый раз ее обсуждение началось в неформальной обстановке с коллегами Владом Белавиным, Сергеем Широбоковым (Имперский колледж Лондона), Майклом Каганом (Национальная ускорительная лаборатория SLAC) и Атилимом Гюнеш Байдиным (Оксфорд) на конференции ACAT 2019 в Зас-Фе, Швейцария.
Симуляция и суррогатное обучение
Симуляция и суррогатное обучение
Владислав Белавин, Андрей Устюжанин

Рябинин Максим Константинович
Научно-учебная лаборатория компании Яндекс: Стажер-исследователь

Последние год-два в сфере deep learning наблюдается настоящая гонка вооружений: крупные корпорации (Google, Microsoft, NVIDIA, OpenAI) каждые несколько месяцев бьют рекорды по размеру обученных языковых моделей и демонстрируют, что это приводит к всё более внушительным результатам. Из-за вычислительных затрат обучение таких моделей может стоить миллионы долларов, а сами модели уже содержат столько параметров, что даже разместить их в памяти пользовательских GPU затруднительно. Такой тренд может привести к невоспроизводимости новых результатов в глубинном обучении, а также их недоступности для независимых исследователей и организаций с меньшими ресурсами. В других науках уже научились решать такую проблему: проекты наподобие Folding@home позволяют исследователям использовать свободные вычислительные ресурсы компьютеров волонтёров для решения трудоёмких, но важных проблем в своей области. Нашей целью было предложить аналогичный подход для машинного обучения с учётом специфики задачи и данных, которыми необходимо обмениваться для её решения. Предлагаемый в статье подход позволяет обучать нейросеть на компьютерах участников, соединённых по Интернету, даже если целиком её параметры нельзя поместить на одно устройcтво. Специализированный слой Decentralized Mixture-of-Experts, разработанный нами для такого сценария применения, позволяет стабильно учиться в присутствии больших сетевых задержек или даже потери связи между узлами. В частности, для обеспечения устойчивости мы адаптируем для распределённого обучения распределённые хэш-таблицы — технологию, которая получила популярность благодаря протоколу BitTorrent для обмена файлами. Статью на конференцию мы подавали ещё в июне, рецензии на неё появились в начале августа. Очень обрадовались, когда увидели, что по итогам нашего ответа рецензентам получилось заметно повысить их оценки: скорее всего, благодаря этому работу и приняли.
Схематичное изображение сети Learning@home
Схематичное изображение сети Learning@home
Максим Рябинин