Записи докладов и лекций гостей и сотрудников HDI Lab
- Доклад Сергея Самосонова (НИУ ВШЭ) по статье «(Linear) Stochastic Approximation: old and new», Spring into ML 2024, 6-11 февраля 2024 г.
- Доклад Никиты Пучкина (НИУ ВШЭ) по статье «Exploring Local Norm in Exp-concave Statistical Learning», Fall into ML 2023: Conference on Machine Learning (Fall into ML 2023) , 26-28 октября 2023 г.
- Доклад Сергея Самсонова (НИУ ВШЭ) по статье «First Order Methods with Markovian Noise from Acceleration to Variational Inequalities», Fall into ML 2023: Conference on Machine Learning (Fall into ML 2023) , 26-28 октября 2023 г.
- Доклад Варвары Руденко (НИУ ВШЭ) по результатам совместной работы с Александром Гасниковым (НИУ ВШЭ) по статье «Algorithm for Constrained Markov Decision Process with Linear Convergence», Fall into ML 2023: Conference on Machine Learning (Fall into ML 2023) , 26-28 октября 2023 г.
- Доклад Алексея Наумова (НИУ ВШЭ) по статье «Fast Rates for Maximum Entropy Exploration», Fall into ML 2023: Conference on Machine Learning (Fall into ML 2023) , 26-28 октября 2023 г.
- Алексей Наумов (НИУ ВШЭ) принял участие в панельной дискуссии «Science in academy vs industry» (НИУ ВШЭ), Fall into ML 2023: Conference on Machine Learning (Fall into ML 2023) , 26-28 октября 2023 г.
- Доклад Наумова Алексея (НИУ ВШЭ),Posterior sampling and Bayesian bootstrap: sample complexity and regret bounds (1), Autumn School on Machine Learning (Fall into ML 2022) , 01-03 ноября 2022 г.
- Доклад Тяпкина Даниила (НИУ ВШЭ),Posterior sampling and Bayesian bootstrap: sample complexity and regret bounds (2), Autumn School on Machine Learning (Fall into ML 2022) , 01-03 ноября 2022 г.
- Доклад Сергея Самсонова (НИУ ВШЭ),Local-Global MCMC kernels: the best of both worlds, Autumn School on Machine Learning (Fall into ML 2022) , 01-03 ноября 2022 г.
-
Алексей Наумов (НИУ ВШЭ), Сергей Самсонов (НИУ ВШЭ), Даниил Тяпкин (НИУ ВШЭ) о проекте в рамках Центра ИИ НИУ ВШЭ «Разработка и верификация алгоритмов и дополнительных математических моделей улучшения эффективности исследования среды в обучении с подкреплением".
- Доклад Мулине Эрика (Политехническая школа, НИУ ВШЭ), DoStoVoq: doubly stochastic VQ for communication efficient Federated Learning, на конференции "Оптимизация без границ", 12-18 июля 2021 г.
- Доклад Владимира Протасова (НИУ ВШЭ, МГУ), Optimization tools in the Lyapunov stability problem, на конференции "Оптимизация без границ", 12-18 июля 2021 г.
- Доклад Владимира Спокойного (WIAS, Humboldt University, НИУ ВШЭ, ИППИ РАН), Random gradient free optimization: Bayesian view, на конференции "Оптимизация без границ", 12-18 июля 2021 г.
- Доклад Александра Гасникова (МФТИ, НИУ ВШЭ), Nesterov's method and its influence on approaches to solving optimization problems, на конференции "Оптимизация без границ", 12-18 июля 2021 г.
- Доклад Александра Гасникова (МФТИ, НИУ ВШЭ), Sum-type convex optimization under similarity, на конференции "Оптимизация без границ", 12-18 июля 2021 г.
- Доклад Дениса Беломестного (НИУ ВШЭ, University of Duisburg-Essen), Model-Free Approach to Evaluate Reinforcement Learning Algorithms, на конференции "Оптимизация без границ", 12-18 июля 2021 г.
- Доклад Дмитрия Островского (University of Southern California), Near-Optimal Model Discrimination with Non-Disclosure, 22 июля 2021 г.
- Доклад Алексея Наумова (НИУ ВШЭ) на первом открытом заседании Ученого совета ФКН, Model-Free Approach to Evaluate Reinforcement Learning Algorithms, 24 июня 2021 г.
- Доклад Сергея Самсонова (НИУ ВШЭ), UVIP: Model-Free Approach to Evaluate Reinforcement Learning Algorithms, 1 июня 2021 г.
- Доклад Мулине Эрика (Политехничская школа, НИУ ВШЭ, Высшая нормальная школа) на Международной конференции «Теория вероятностей и ее применения: П. Л. Чебышев – 200» 20 мая 2021 г.: MCMC, Langevin diffusion, and control variates for MCMC.
- Доклад Егора Клочкова (Cambridge University), Fast rates for strongly convex optimization via stability, 18 мая 2021 г.
- Доклад Пари Кентана Поль Бернара (НИУ ВШЭ), Online learning with exponential weights in metric spaces, 20 апреля 2021 г.
- Доклад Алексея Крошнина (ИППИ РАН, НИУ ВШЭ), Robust k-means clustering in metric spaces, 13 апреля 2021 г.
- Доклад Dmytro Perekrestenko (ETH Zurich), Constructive Universal High-Dimensional Distribution Generation through Deep ReLU, 30 марта 2021 г.
- Доклад Максима Панова (Сколтех), Stochastic normalizing flows, 23 марта 2021 г.
- Доклад Никиты Животовского (ETH Zurich), Distribution-Free Robust Linear Regression, 16 марта 2021 г.
- Доклад Никиты Пучкина (НИУ ВШЭ, ИППИ РАН), Exponential Savings in Agnostic Active Learning through Abstention, 9 марта 2021 г.
- Доклад Дмитрия Яроцкого (Сколковский Институт Науки и Технологий), Approximation with deep neural networks, 2 марта 2021 г.
- Доклад Сергея Самсонова (НИУ ВШЭ), On the Stability of Random Matrix Product with Markovian Noise: Application to Linear Stochastic Approximation and TD Learning, 16 февраля 2021 г.
- Доклад Никиты Пучкина (НИУ ВШЭ, ИППИ РАН), Rates of convergence for density estimation with GANs, 9 февраля 2021 г.
- Доклад Алексея Наумова (НИУ ВШЭ), Случайные матрицы: теория и приложения, 2 февраля 2021 г.
- Доклад Мишеля Лиду (Университет Тулузы, Франция) “On optimal matching of random samples”, 17 сентября 2019.
- Мини-курс Эрика Мулинэ (Политехническая Школа (Париж), ВШЭ) “Introduction to reinforcement learning”, 16 и 23 апреля 2019.
Видеозапись лекции №1:
Видеозапись лекции №2:
- Мини-курс Сергея Бобкова (Университет Миннесоты, ВШЭ) “Strong probability distances and limit theorems”, 17 и 24 мая 2018.
Видеозапись лекции №1:
Видеозапись лекции №2:
- Доклад Эрика Мулинэ (Политехническая Школа (Париж), ВШЭ) Perturbed Proximal Gradient Algorithms на коллоквиуме ФКН , 22 февраля 2018 г
Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!
Сервис предназначен только для отправки сообщений об орфографических и пунктуационных ошибках.