• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Центр глубинного обучения и байесовских методов

Публикации
Статья
A randomized coordinate descent method with volume sampling

Rodomanov A., Kropotov D.

SIAM Journal on Optimization. 2020. Vol. 30. No. 3. P. 1878-1904.

Глава в книге
Empirical Study of Transformers for Source Code

Chirkova N., Troshin S.

In bk.: ESEC/FSE 2021: Proceedings of the 29th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering. Association for Computing Machinery (ACM), 2021. P. 703-715.

Препринт
MARS: Masked Automatic Ranks Selection in Tensor Decompositions

Kodryan M., Kropotov D., Vetrov D.

First Workshop on Quantum Tensor Networks in Machine Learning, NeurIPS 2020. QTNML 2020. First Workshop on Quantum Tensor Networks in Machine Learning, 34th Conference on Neural Information Processing Systems (NeurIPS 2020), 2020

О Центре

Центр ведет исследования на стыке двух активно развивающихcя сегодня областей анализа данных: глубинного обучения и байесовских методов машинного обучения. Глубинное обучение - это раздел, подразумевающий построение очень сложных моделей (нейронных сетей) для решения таких задач, как классификация изображений или музыки, перенос художественного стиля с картины на фотографию, предсказание следующих слов в тексте. В рамках байесовского подхода для решения подобных задач рассматриваются вероятностные модели, опирающиеся на аппарат теории вероятностей и математической статистики. 

Центр создан на основе исследовательской группы байесовских методов машинного обучения Д.П. Ветрова


Иллюстрация к новости: 35th Conference on Neural Information Processing System s

35th Conference on Neural Information Processing System s

This year, NeurIPS has accepted ten papers by the researchers of the Faculty of Computer Science:On the Periodic Behavior of Neural Network Training with Batch Normalization and Weight Decay (Ekaterina Lobacheva, Maxim Kodryan, Nadezhda Chirkova, Andrey Malinin, Dmitry Vetrov)Leveraging Recursive Gumbel-Max Trick for Approximate Inference in Combinatorial Spaces (Kirill Struminsky, Artyom Gadetsky, Denis Rakitin, D. Karpushkin, Dmitry Vetrov)Distributed Saddle-Point Problems Under Similarity (Aleksandr Beznosikov, G. Scutari, Alexander Rogozin, Alexander Gasnikov)Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex Decentralized Optimization Over Time-Varying Networks (D. Kovalev, E. Gasanov, P. Richtárik, Alexander Gasnikov)Moshpit SGD: Communication-Efficient Decentralized Training on Heterogeneous Unreliable Devices (Max Ryabinin, Eduard Gorbunov, Vsevolod Plokhotnyuk, G. Pekhimenko)Tight High Probability Bounds for Linear Stochastic Approximation with Fixed Stepsize (A. Durmus, Eric Moulines, Alexey Naumov, Sergey Samsonov, K. Scaman, H. Wai)Distributed Deep Learning in Open Collaborations (Michael Diskin, A. Bukhtiyarov, Max Ryabinin, L. Saulnier, Q. Lhoest, Anton Sinitsin, Dmitry Popov, Dmitry Pyrkin, Maxim Kashirin, Alexander Borzunov, A. Villanova del Moral, D. Mazur, I. Kobelev, Y. Jernite, T. Wolf, G. Pekhimenko)Scaling Ensemble Distribution Distillation to Many Classes with Proxy Targets (Max Ryabinin, Andrey Malinin, M. Gales)Revisiting Deep Learning Models for Tabular Data (Y. Gorishniy, Ivan Rubachev, V. Khrulkov, Artem Babenko)Good Classification Measures and How to Find Them (M. Gösgens, A. Zhiyanov, A. Tikhonov, Liudmila Prokhorenkova)

Иллюстрация к новости: New events

New events