• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Центр глубинного обучения и байесовских методов

Социальные сети Центра
Публикации
Глава в книге
FFC-SE: Fast Fourier Convolution for Speech Enhancement

Shchekotov I., Andreev P., Ivanov O. et al.

In bk.: InterSpeech 2022. International Speech Communication Association, 2022. P. 1188-1192.

Статья
Study on precoding optimization algorithms in massive MIMO system with multi-antenna users

Bobrov E., Kropotov D., Troshin S. et al.

Optimization Methods and Software. 2022. P. 1-16.

Глава в книге
Leveraging Recursive Gumbel-Max Trick for Approximate Inference in Combinatorial Spaces

Kirill Struminsky, Artyom Gadetsky, Denis Rakitin et al.

In bk.: Advances in Neural Information Processing Systems 34 (NeurIPS 2021). Curran Associates, Inc., 2021. P. 10999-11011.

Глава в книге
On the Periodic Behavior of Neural Network Training with Batch Normalization and Weight Decay

Lobacheva E., Kodryan M., Chirkova N. et al.

In bk.: Advances in Neural Information Processing Systems 34 (NeurIPS 2021). Curran Associates, Inc., 2021. P. 21545-21556.

Глава в книге
Deterministic Decoding for Discrete Data in Variational Autoencoders

Polykovskiy D., Vetrov D.

In bk.: Proceedings of the Twenty Third International Conference on Artificial Intelligence and Statistics, PMLR 108. Iss. 108. PMLR, 2020. P. 3046-3056.

О Центре

Центр ведет исследования на стыке двух активно развивающихcя сегодня областей анализа данных: глубинного обучения и байесовских методов машинного обучения. Глубинное обучение - это раздел, подразумевающий построение очень сложных моделей (нейронных сетей) для решения таких задач, как классификация изображений или музыки, перенос художественного стиля с картины на фотографию, предсказание следующих слов в тексте. В рамках байесовского подхода для решения подобных задач рассматриваются вероятностные модели, опирающиеся на аппарат теории вероятностей и математической статистики. 

Центр создан на основе исследовательской группы байесовских методов машинного обучения Д.П. Ветрова


Иллюстрация к новости: Ученые ВШЭ оптимизировали обучение генеративных потоковых нейросетей

Ученые ВШЭ оптимизировали обучение генеративных потоковых нейросетей

Исследователи факультета компьютерных наук НИУ ВШЭ улучшили метод обучения генеративных потоковых нейросетей для работы с неструктурированными задачами. Это поможет искать новые лекарства эффективнее. Результаты работы были представлены на одной из ведущих конференций по машинному обучению — ICLR 2025. Текст работы доступен в репозитории Arxiv.org.

Иллюстрация к новости: Смешать, но не взбалтывать: ВШЭ и AIRI ускорили дообучение нейросетей

Смешать, но не взбалтывать: ВШЭ и AIRI ускорили дообучение нейросетей

Исследователи из ВШЭ и AIRI предложили метод быстрой донастройки нейросетей: данные обрабатываются по группам, которые затем перемешивают оптимальным образом, чтобы улучшить их взаимодействие. Метод лучше аналогов справляется с генерацией и анализом изображений, дообучением текстовых моделей. При этом он требует меньше памяти и времени на обучение. Результаты работы были представлены на конференции NeurIPS 2024.