• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: 109028, г. Москва, Покровский бульвар, д. 11

Телефон: +7 (495) 531-00-00 *27254

Email: computerscience@hse.ru

 

Руководство
Первый заместитель декана Вознесенская Тамара Васильевна
Заместитель декана по научной работе и международному сотрудничеству Объедков Сергей Александрович
Заместитель декана по учебно-методической работе Самоненко Илья Юрьевич
Заместитель декана по развитию и административно-финансовой работе Плисецкая Ирина Александровна

Межкампусный семинар по компьютерным наукам

Межкампусный семинар НИУ ВШЭ по компьютерным наукам начал работу в сентябре 2020 г. На семинаре сотрудники лабораторий НИУ ВШЭ из Москвы, Нижнего Новгорода, Перми и Санкт-Петербурга рассказывают о своих исследованиях, обсуждают возможные подходы к решению открытых задач и применение разрабатываемых методов в смежных областях.
 
Семинары проходят в Zoom примерно раз в две недели по вторникам в 16:20 – 17:40 по московскому времени.

 

11 мая, 16:20 – 17:40

Докладчик: Рауф Курбанов (НИУ ВШЭ СПб, Syntesis AI)

Тема доклада: "Генеративное моделирование с ограниченными ресурсами"

Благодаря современным подходам в сфере глубоких генеративных моделей мы значительно продвинулись в задачах визуальной генерации в высоком разрешении с достойным уровнем детализации и разнообразия.

В среде обучения без учителя мы редко сталкиваемся с ограничениями размера набора данных и обычно упираемся в вычислительные возможности.  Однако иногда мы прибегаем к генеративному подходу, чтобы расширить имеющуюся у нас базу визуальных ресурсов. В такой постановке мы скорее всего не имеем доступа к большому количеству изображений,

На предстоящем семинаре мы рассмотрим подходы к генерации изображений в высоком разрешении из небольших наборов данных.  C этим знанием мы планируем получить ключ к широкому спектру image2image задач, имея в руках всего несколько сотен изображений.

 

13 апреля, 16:20 – 17:40

Ссылка на запись 

Докладчик: Лядова Людмила Николаевна

Факультет экономики, менеджмента и бизнес-информатики (Пермь)

Тема доклада: "О подходе к разработке DSM-платформы, основанной на знаниях"

Предметно-ориентированное моделирование (Domain Specific Modelling, DSM), использование средств моделирования, позволяющих строить модели на языках, отражающих особенности конкретной предметной области и задач пользователей, становится шагом в направлении привлечения к процессу разработки программного обеспечения пользователей, экспертов в соответствующих областях. В докладе будет представлено описание архитектуры DSM-платформы, разработанной математической модели и алгоритмов, а также метаязыка DSM-платформы, предназначенного для описания новых языков предметно-ориентированного моделирования DSL. 

В архитектуру DSM-платформы включаются средства, автоматизирующие построение DSL на основе существующих языков и онтологий предметных областей, для которых создаются языки. Разработка DSL основывается на выполнении проекции онтологии предметной области на онтологию языков моделирования, результатом которой является метамодель нового языка. Онтология является также основой реализации семантических трансформаций моделей. Математическая основа реализации языкового инструментария – гиперграфы с полюсами. Новый формализм, предложенный при разработке DSM-платформы, обеспечивает снижение сложности алгоритмов реализации операций над моделями. 

В докладе будут приведены примеры, иллюстрирующие описанные возможности языкового инструментария.

 

16 марта, 16:20 – 17:40

Ссылка на запись

Докладчик: Мария Попцова

Факультет компьютерных наук (Москва)

Тема доклада: "Методы глубинного обучения для предсказаний функциональных областей Z-ДНК с использованием омиксных данных"

Разработка компьютерных методов предсказания областей Z-ДНК необходима для понимания функциональной роли Z-ДНК. Предыдущий компьютерный метод Z-Hunt основан на статистико-механических и энергетических допущениях о переходе B- в Z-ДНК с использованием информации о последовательности. Результаты экспериментов ChIP-seq по обнаружению ДНК показали небольшое совпадение с предсказаниями Z-Hunt, подразумевающими, что информации о последовательности недостаточно для объяснения появления Z-ДНК в разных участках генома. Добавление информации об эпигенетических и других функциональных геномных участках на уровне последовательности ДНК может помочь выявить функциональные сайты Z-ДНК.  В нашей работе мы использовали подход глубинного обучения, с помощью которого возможно анализировать и извлекать информацию из больших объемов данных молекулярной биологии. Мы разработали модель машинного обучения DeepZ, которая объединяет информацию из полногеномных карт эпигенетических маркеров, сайтов связывания факторов транскрипции и РНК-полимеразы, а также карт доступности хроматина. С помощью разработанной модели нам удалось не только подтвердить экспериментальные предсказания Z-ДНК, но и сгенерировать аннотацию всего генома, открывая новые потенциально возможные участки Z-ДНК, которые еще не были обнаружены в экспериментах и могут представлять интерес для исследователей.

 

16 февраля, 16:20 – 17:40

Подключиться

Докладчик: Нина Лукашина

Лаборатория прикладного машинного обучения и глубокого обучения, JetBrains Research (Санкт-Петербург)

Тема доклада: "Машинное обучение на графах и его применение в задачах биологии и химии"

В последние годы машинное обучение на графах является особенно популярной темой для исследований. Многие из методов, разработанных в этой области, находят широкое применение в биологических и химических задачах.

Доклад будет посвящен обзору основных методов машинного обучения на статических графах. Отдельно будут рассмотрены некоторые из новых работ, опубликованных в 2020 году, включающих работу с динамическими графами и relational structure discovery. При обсуждении применения методов машинного обучения на графах, основной фокус будет направлен на последние работы в области биологии, медицины и химии.

В заключение, мы обсудим ограничения графовых моделей машинного обучения, такие как “bottleneck problem” и over-smoothing, и открытые исследовательские вопросы.

Meeting ID: 841 5296 3545

Passcode: 235913

 

19 января, 16:20 – 17:40

Ссылка на запись

Докладчик: Дмитрий Грибанов

Лаборатория ЛАТАС, НИУ ВШЭ Нижний Новгород

Тема доклада: "Некоторые новые результаты в области целочисленного линейного и нелинейного программирования"

Доклад будет посвящен обзору новых результатов относительно следующих тем:

1) Сложность задачи минимизации квазивыпуклой функции на целочисленной решетке (функция задана оракулом). 

2) Сложность задачи целочисленного линейного программирования с k-модулярной матрицей ограничений;

3) Свойства полиэдров, порожденных системами с k-модулярными матрицами;

4) Сложность задачи подсчета количества целых точек в таких полиэдрах.

В докладе также будут освещены возможные приложения некоторых из приведенных результатов.

 

8 декабря, 16:20 – 17:40

Ссылка на запись

Презентация (PDF, 2,28 Мб)

Докладчик: Максим Кодрян
Центр глубинного обучения и байесовских методов (Москва)

Тема доклада: "Двойной спуск, широкие минимумы и стохастический градиентный спуск"

Феномен двойного спуска (Double Descent, DD) недавно стал особенно интригующим открытием в сообществе Deep Learning. В то время как в большинстве работ рассматривается более известный DD по размеру модели (тестовый риск против размера модели) как с эмпирической, так и с теоретической точек зрения, гораздо меньше внимания уделяется не менее загадочному эффекту DD по итерациям обучения (тестовый риск против количества эпох обучения). Еще одно интересное наблюдение, набирающее обороты в самых последних исследованиях, — это классический аргумент о «широких минимумах»: чем шире минимум, тем лучшую обобщающую способность он обеспечивает. В этом докладе мы попытаемся связать двойной спуск по эпохам с динамикой модели на поверхности функции потерь: модель претерпевает второй спуск тестового риска именно тогда, когда она движется из изначально обнаруженных узких нестабильных областей к широким хорошо обобщающим минимумам. Мы также рассмотрим неявную регуляризацию стохастического градиентного спуска (Stochastic Gradient Descent, SGD), помогающую нейронным сетям сходиться к подобным широким «однородным» оптимумам.

 

24 ноября, 16:20 – 17:40

Ссылка на запись

Докладчик: Михаил Вялый 

Международная лаборатория теоретической информатики

Тема доклада: "О трудности решения беспристрастных игр​"

В докладе будет рассказано об одном сюжете из теории алгоритмических игр — анализе сложности решения беспристрастных игр. Хорошо известный алгоритм построения ядра ориентированного графа решает такую игру за время, линейное от размера графа позиций игры. Оказывается, существуют игры, для которых этот алгоритм оптимален с точностью до полиномиального ускорения. Будет дана точная формулировка этого результата и кратко описаны основные идеи доказательства. Доклад основан на результатах, полученных М. Вялым и В. Гурвичем (Международная лаборатория теоретической информатики ФКН ВШЭ).

 

10 ноября, 16:20 – 17:40

Ссылка на запись

Докладчик: Устюжанин Андрей Евгеньевич

Научно-учебная лаборатория методов анализа больших данных

Тема доклада: "Искусственный интеллект и решения оптимизационных задач в физических науках"

В докладе дается обзор нетривиальных задач оптимизации, возникающих в различных естественно-научных дисциплинах. Особенный акцент делается на проблемах, связанных с использованием различных симуляционных инструментов и подходов. Решения таких задач опираются на использование генеративных моделей для аппроксимации имеющихся наблюдений. Будут описаны такие подходы как Local Generative Surrogate Optimization (L-GSO), Adaptive divergence и probabilistic inference, использующие различные свойства симулятора и суррогатных моделей. Демонстрируются решения задач физических детекторов некоторых современных экспериментов, разрабатываемых лабораторией методов анализа больших данных НИУ ВШЭ.

 

13 октября, 16:20 – 17:40

Ссылка на запись

Докладчик: Бузмаков Алексей Владимирович

Тема доклада: "Subgroup Discovery как инструмент для анализа данных. Достижения и вызовы"

Многие имеющиеся данные можно рассматривать как множество исследуемых объектов, также называемых наблюдениями. Каждый объект имеет описание, которое позволяет выделять группы объектов. Так, например, объектами могут быть клиенты некоторой компании, а их описанием вся доступная информация от пола и возраста клиента, до его истории покупок. Так по такому описанию, можно определить подгруппу мужчин или подгруппу людей младше 30 лет и имеющих хотя бы две покупки, и т.д. Также относительно объектов известна некоторая информация, с точки зрения которой мы хотим определять наилучшие подгруппы. Так, например, для клиентов это может быть средний чек или факт прихода клиента в определённый период времени. Тогда целью Subgroup Discovery, является нахождение определения подгруппы, наиболее "сильно" связанной с такой дополнительной информацией. Так, например, можно определить, какие клиенты имеют наибольший средний чек, или имеют наибольшую вероятность прихода в следующие 2 недели. Данная задача отличается от задач обучения с учителем прежде всего тем, что требуется найти определение подгруппы, т.е. получить интерпретируемый результат, а не получить предсказания той или иной характеристики на индивидуальном уровне.

В рамках доклада мы рассмотрим прежде всего "полные" методы обнаружения подгрупп с точки зрения дополнительной информации. В частности, будет рассмотрено, как такие методы решают задачи эффективного обхода пространства поиска, анализ статистической значимости результатов и работы с разными типами дополнительной информации. Доклад планируется на русском языке, слайды будут на английском языке.

 

29 сентября, 16:20 – 17:40

Ссылка на запись

Докладчик: Бацын Михаил Владимирович

Тема доклада: "On some discrete optimization problems"

In this talk we present an overview of the research our team makes in LATNA laboratory (Laboratory of Algorithms and Technologies for Network Analysis). We start with classical combinatorial optimization problems including Vertex Coloring Problem (VCP), Maximum Clique Problem (MCP), Maximum Independent Set Problem (MISP), Minimum Vertex Cover Problem (MVCP). A number of state-of-art exact algorithms for these problems belong to Pablo San Segundo (2011-2017) and his coauthors including our team. One of the main ideas providing the high performance of these algorithms is the smart application of CPU bitwise operations. We present this approach for the VCP and MCP problems. The applications of the considered classical problems include radio frequency allocation, CPU register allocation, scheduling, graph clustering, 3D molecular structures matching.

 

15 сентября, 16:20 – 17:40

Ссылка на запись

​​​​​Докладчик: Иванов Дмитрий Игоревич

Тема доклада: "Проблемы и решения в мультиагентном обучении с подкреплением”

На семинаре мы рассмотрим мультиагентное обучение с подкреплением высокоуровнево и под разными углами. Начнем с обсуждения отличий и специфичных проблем мальтиагентного обучения — non-stationarity, credit assignment, partial observability, coordination, cooperation. Далее поговорим о методах решения каждой из проблем. В ходе семинара затронем централизованные и децентрализованные алгоритмы, кооперативные и состязательные среды, связь мультиагентного обучения c теорией игр, межагентную коммуникацию, моделирование других агентов, успехи мультиагентного обучения с подкреплением в компьютерных играх.