Научные семинары

Организатор семинара: Гущин Михаил Иванович, mhushchyn@hse.ru


Ближайший семинар:
Будет аннонсирован позже.


Где: Покровский бульвар, 11, Т305; zoom

Прошедшие семинары:


ДатаДокладчикОрганизацияНазваниеАннотация
12 февраля 2024Аржанцев Иван ВладимировичНИУ ВШЭЧто и зачем изучает фундаментальная математикаСпециалистам из других областей науки бывает трудно понять, почему одни задачи считаются в математике важными, и над их решением математическая наука готова работать веками, в то время как другие постановки задач признаются искусственными и не заслуживающими внимания. При этом в самом математическом сообществе по таким вопросам как правило имеется консенсус. Как возникают математические задачи и как математики определяют, что по-настоящему полезно и интересно? В докладе планирует обсудить эти вопросы на примере старых и новых задач из теории чисел, дискретной математики, алгебры, геометрии и топологии.
29 января 2024 Mikhail MasliaevITMO UniversityMachine learning of differenital equationsApplication of physically based machine learning methods, adapted to the specifics of the processed phenomena, allows the reduction of the complexity of the trained model and achieve its interpretability for  experts. In classical continuous processes modeling, one of the most commonly models are differential equations and systems of differential equations. Data-driven modeling can allow the combination of the advantages of tools based on analytically derived differential equations with the capabilities of a data-driven approach.
11 декабря 2023Андрей Игоревич РябиковФедеральный исследовательский центр «Информатика и управление» РАНПоиск неподвижной точки монотонного отображения полуупорядоченного топологического пространстваРассматривается задача поиска неподвижной точки непрерывного монотонного отображения топологического пространства в себя. Решение задачи основано на методе последовательных приближений. Доказывается теорема о необходимых и достаточных условиях сходимости итерационного процесса к одной из неподвижных точек отображения. В отличие от других работ, посвященных неподвижным точкам монотонных отображений, в предлагаемой теореме не требуется существование точной верхней грани у любого частично упорядоченного подмножества топологического пространства.
27 ноября 2023Alexey BoldyrevHSE University, LAMBDAOptimization of electromagnetic calorimeter using deep learningThe talk is dedicated to the neural network approach developed at the LAMBDA laboratory for the reconstruction of the properties of electromagnetic showers in a calorimeter. We discuss the architecture of a unified neural network model for the reconstruction of electromagnetic shower properties from data of different dimensions obtained with different calorimeter configurations. Using the GEANT4 physics simulator, it is possible to control the complexity of the input data and to generate data from different domains. The ability of the developed model to generalise to such data is investigated.
16 октября 2023Цгоев ЧерменММФ НГУЭффективное решение дифференциальных уравнений с помощью PINN-ADTДанная работа представляет разработку универсального и гибкого программного комплекса, основанного на методе Physics-Informed Neural Networks (PINN), для решения разнообразных задач, связанных с дифференциальными уравнениями. Программный комплекс обеспечивает исследователей и инженеров средствами, позволяющими эффективно моделировать и анализировать различные типы систем дифференциальных уравнений, независимо от их количества и порядка. Дополнительно в работе представлены интегрированные инструменты, такие как адаптивные сетки и адаптивные регуляризационные члены, а также разнообразные нейросетевые архитектуры, улучшающие производительность и способность адаптации комплекса к различным задачам. Исследуется эффективность внедренных инструментов в различных конфигурациях.Соавторы работы:  Травников В.А., Сахаров Д.И., Калинин В.А., Братенков М.А., Середкин А.В., Мулляджанов Р.И.
9 октября 2023Андрей Петрович Коваленко, Перминов Андрей Игоревич ИСП РАН Геометрическая и вероятностная интерпретация MLPМногослойный перцептрон (MLP), нареченный так Френком Розенблаттом в далеком 1957 году, по сей день часто встречается в современных моделях машинного обучения в качестве одного из ключевых элементов. Простейшая, по сути линейная форма и глубокое (благодаря основной аппроксимационной теореме) математическое содержание делает перцептрон весьма интересным объектом для изучения. Тем более, что несмотря на преклонный возраст, во многих работах его предпочитают называть "черным ящиком" и приписывают ему магические свойства "искусственного интеллекта". Использование кусочно-линейных функций активации (в частности, ReLU, как же без него) позволяет в двумерном случае заглянуть внутрь перцептрона и увидеть такое..., что позволить его  глубже понять  и, возможно, сделать лучше.
25 сентября 2023Aziz TemirkhanovHSE University, LAMBDAFast Data Storage simulation with generative models In a modern world, large amount of data is being accumulating every day. To store such data, a complex data storage system (DSS) is required. But industrial-level DSS must also satisfy several additional conditions besides storage volume. To be able to adjust various specifications to different tasks, one may use a precise modeling of industrial DSS. In this work, we develop several methods of modeling data storage systems using generative models.
10 июля 2023Сластников Вадим, Дунаева Арина, Карданова Бэла, Воронков Никита, Ситникова Анастасия, Бердников Артёмстуденты НИУ ВШЭ, Высшая Школа Бизнеса, ОП «Управление бизнесом»Техническое задание на построение цифрового двойника для девелоперской компанииМангазея Девелопмент - это девелоперская компания, у которой есть гипотеза о том, что внедрение цифрового двойника в долгосрочной перспективе поможет им повысить эффективность процессов и выйти в топ-игроков.

Текущий доклад формирует видение того, какой станет девелоперская компания в результате трансформации. Проект реализован в два этапа: диагностика и разработка технического задания на внедрение технологии цифрового двойника. 

10 апреля 2023Yana KhassanHSE University, HDI LabSampling from Energy-based generative modelsIn this talk I would like to discuss the features of sampling from Generative Adversarial networks. Main topic of the presentation is sampling from GANs on long trajectories in particular with discriminator driven latent sampling. Sampling from a starting image that could be an artefact may improve the quality of resulting new image after process of MCMC in the latent space. However, during sampling on long trajectories using Langevin dynamics there exists an effect of deteriorating quality the is indicated, by decrease in Inception Score metric and increase in FID metrics after some period of time. In the paper [1], this issue was tackled by early stopping. Nevertheless, this effect is particularly in interesting in terms of stabilising sampling procedure on long trajectory.

[1] Che, Tong, et al. "Your gan is secretly an energy-based model and you should use discriminator driven latent sampling." Advances in Neural Information Processing Systems 33 (2020): 12275-12287.

20 марта 2023Mr. Nand Kumar YadavIndian Institute of Information Technology, AllahabadImage to Image Translations Using Generative Adversarial NetworksImage-to-image translation is a widespread computer vision task capable of dealing with problems related to image generation, image colorization, semantic map to scene generation, etc. Visible image synthesis from complex input image modalities, such as sketch face to visual face transformation, thermal face to visual face transformation, and nearinfrared (NIR) image to visual optical image generation, is a crucial computer vision task using deep learning. Usually, complex input image modalities lacks with the rich visual information such as texture, color, fine details, etc., than the actual ground truth images in target domain. In such problems, there is a large domain gap between the input images and the corresponding target images. The traditional methods of image-to-image translation is unable to learn the accurate mapping between input and target images. However, in recent years, deep learning based Generative Adversarial Networks (GANs) have shown very promising results for image generation as well as image-to-image translation. The GANbased models are generally trained in an adversarial manner which is advantageous for the high quality image synthesis. GAN consists of generator and discriminator networks for training purposes. While for inference, only the trained generator network is required for synthesizing the images. For the better generalization ability in fewer training epoch, attention based methods have been proposed. Such methods focus over the important regions in the learning phase leading to better output. The existing image-to-image translation methods, such as Pix2pix, CycleGAN, DualGAN, CSGAN, and PCSGAN, miss the ingredients of attention mechanism. The existing GAN models require intense training. 
27 февраля 2023Бузаев Федор


Младший научный сотрудник, 
Huawei RRI Theory Lab
Обзор на Physics Informed Neural Networks (PINNs), решающие уравнения частных производных, и для чего они нужны.Нейронные сети, которые учитывают при обучении законы физики, помогают решать различные задачи, например такие как: прогноз погоды, описание электростатического поля и др.В этом обзоре будут разобраны нейронные сети, которые при обучении соблюдают любой заданный закон физики.  Также в этом обзоре будут разобраны сферы применения таких нейронных сетей, как нейронные сети научились решать уравнения частных производных (уравнение Пуассона, уравнение Гельмгольца, уравнение Аллена-Кана), основные концепции обучения моделей.
20 февраля 2023Nikita KazeevPhD, NUS Institute for Functional Intelligent MaterialsSparse representation for machine learning the properties of defects is 2D materialsThe family of two-dimensional materials now includes dozens of crystals, which exhibit a wide range of electronic and optical properties, utilisable for the next generation devices. Furthermore, 2D crystals offer an opportunity of controlling their properties through a variety of knobs. Our particular interest is the possibility of obtaining desirable properties via controlled defect introduction. However, the search space for such structures is enormous, and proper ab-initio computations become prohibitively expensive. It makes essential to develop a way of precise and efficient prediction of the properties of a crystal with a specific defect configuration. We propose a machine learning approach for rapidly estimating 2D material properties given lattice structure and defect configuration. The method suggests a way to represent a 2D material configuration that allows a neural network to train quickly and accurately. We compare it with the state-of-the-art approaches and demonstrate at least $3.7$ times energy prediction error drop. Also, our approach is an order of magnitude more resource-efficient than its contenders both for the training and inference part.