Научный семинар MTML Lab
Подписывайтесь на телеграм-канал семинара!
Уточняйте информацию о семинаре у: Ирины igoloborodko@hse.ru
Если вам необходим пропуск в здание НИУ ВШЭ обратитесь к Елене Алямовской: ealyamovskaya@hse.ru (указывайте ваши Ф.И.О.)
Прошедшие семинары:
- 22.10.2024, Иван Новиков (Сколковский институт науки и технологий): Машинное обучение в атомистическом моделировании
Аннотация. За последние 15 лет машинное обучение стало широко применяться в атомистическом моделировании. В частности, были разработаны так называемые машинно-обучаемые потенциалы (МОПы) межатомного взаимодействия – модели, описывающие взаимодействие атомов (предсказывающие энергии и силы взаимодействия) в различных атомистических системах. МОПы, обученные на данных достаточно точных квантово-механических вычислений, позволяют эффективно предсказывать свойства материалов и проводить атомистическое моделирование при различных условиях.В докладе будет обсуждаться один из разработанных машинно-обучаемых потенциалов межатомного взаимодействия, а именно, Moment Tensor Potential (MTP) и алгоритмы его обучения. Кроме того, будет обсуждаться обобщение MTP на случай его применения к магнитным материалам. Также будут продемонстрированы результаты решения нескольких задач атомистического моделирования.
- 01.10.2024, Вячеслав Юсупов (НИУ ВШЭ): Гиперболические подходы для предсказания связей в графах знаний
- 26.06.24, Иван Пешехонов (НИУ ВШЭ, Яндекс): Matrices in DL are dead. Long live KANs
- 19.06.24, Екатерина Гришина (НИУ ВШЭ): Точная и эффективная оценка спектральной нормы свёрточных слоев нейросетей
- 04.06.24, Михаил Горбунов, Николай Юдин (НИУ ВШЭ): Эффективная структурированная ортогональная параметризация на основе GS-матриц
- 17.04.24, Александр Моложавенко (НИУ ВШЭ, МФТИ): Riemannian Optimization on a Quotient Tensor Train manifold
- 03.04.24, Сергей Матвеев (МГУ, ИВМ РАН): Методы переменного проектирования для приближенно-малоранговых неотрицательных тензоров
- 06.03.24, Salman Ahmadi Asl (Skoltech): Randomized tensor algorithms for fast tensor completion.
The randomization framework has been proven to be an efficient technique for low-rank matrix computation and recently was generalized to the tensors. It is known that randomized algorithms reduce the computational complexity of the deterministic counterparts and also their communication costs.
The latter benefit is especially important when the data tensor is very large and stored on several machines. Here, the communication cost is the main concern and we need to access the data tensor as few times as possible. In this talk, we talk about these fast techniques and their computational aspects. In particular two applications namely image/video completion and image super-resolution are presented.
- 21.02.24, Екатерина Булатова (Цинхуа): Диффузионные модели в генерации естественных текстур для одежды, помогающей избегать детекции.
- 14.02.24, Данил Гусак (НИУ ВШЭ, Сколтех): Масштабируемая кросс-энтропия для последовательных рекомендаций с большими каталогами айтемов.
- 21.12.23, Екатерина Гришина (НИУ ВШЭ): разбор статьи "On the explainable properties of 1-Lipschitz Neural Networks: An Optimal Transport Perspective".
- 14.12.23, Ирина Голобородько (НИУ ВШЭ): Спектральные свойства матриц Якоби в нейронных сетях.
- 30.11.23, Александра Сендерович (НИУ ВШЭ): Методы обучения нейронных сетей с ограниченной константой Липшица.
- 16.11.23, Евгений Фролов (НИУ ВШЭ, Сколтех, AIRI): Гиперболические эмбеддинги в задаче предсказания следующих действий пользователя в рекомендательных системах.
- 02.11.23, Иван Пешехонов (НИУ ВШЭ): Exploring the benefits of Riemannian optimization for machine learning tasks on matrix/tensor manifolds.
Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!
Сервис предназначен только для отправки сообщений об орфографических и пунктуационных ошибках.