• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Препринт
Spatially Adaptive Computation Time for Residual Networks

Figurnov M., Collins M. D., Zhu Y. et al.

arXiv:1612.02297. arXiv. Cornell University, 2016

Глава в книге
Computing majority by constant depth majority circuits with low fan-in gates

Kulikov A., Podolskii V. V.

In bk.: 34th Symposium on Theoretical Aspects of Computer Science (STACS 2017). March 8–11, 2017, Hannover, Germany. Vol. 66. Leipzig: Schloss Dagstuhl--Leibniz-Zentrum fuer Informatik, 2017. P. 1-14.

Глава в книге
GANs for Biological Image Synthesis

Osokin A., Chessel A., Carazo Salas R. E. et al.

In bk.: Proceedings of the IEEE International Conference on Computer Vision (ICCV 2017). Venice: IEEE, 2017. P. 2252-2261.

Статья
Correction to the leading term of asymptotics in the problem of counting the number of points moving on a metric tree

V.L. Chernyshev, Tolchennikov A.

Russian Journal of Mathematical Physics. 2017. Vol. 24. No. 3. P. 290-298.

Глава в книге
Stochasticity in Algorithmic Statistics for Polynomial Time

Vereshchagin N., Milovanov A.

In bk.: 32nd Computational Complexity Conference. Вадерн: Schloss Dagstuhl – Leibniz-Zentrum für Informatik, Dagstuhl Publishing, 2017. P. 1-18.

Байесовские методы в машинном обучении

Еженедельный семинар группы байесовских методов. На семинаре разбираются статьи с основных международных конференций, заслушиваются доклады сотрудников группы об исследованиях, проводятся мозговые штурмы, устраиваются лекции приглашенных ведущих российских и зарубежных специалистов. Семинар открыт для всех желающих.

Основным направлением работы семинара является исследование и применение т.н. байесовского подхода к теории вероятностей в решении задач машинного обучения и компьютерного зрения. Байесовские методы получили большое распространение в мире в течение последних 15 лет. Их основными достоинствами являются:

  • возможность автоматической настройки структурных параметров алгоритмов машинного обучения (выбор количества кластеров, определение коэффициента регуляризации, отбор релевантных признаков и объектов, определение топологии нейросети и пр.);
  • корректная работа с фактами, достоверность которых точно неизвестна, позволяющая обобщить методы классической булевой логики на ситуации, содержащие значительный элемент неопределенности, которая позволяет успешно применить байесовские методы в экспертных системах;
  • возможность учета структурных и вероятностных взаимосвязей в массивах данных, опирающаяся на активно развиваемый в настоящее время аппарат графических моделей;
  • представление данных и настраиваемых параметров, позволяющее объединять результаты наблюдений косвенных показателей неизвестной величины с априорными представлениями о ее характерных значениях.

Участники спецсеминара активно участвуют в теоретической работе по разработке новых методов настройки структурных параметров и алгоритмов машинного обучения для нестандартных задач.

Методическая поддержка спецсеминара осуществляется курсами «Байесовские методы машинного обучения» и  «Графические модели», читаемыми на ФКН ВШЭ и факультете ВМК МГУ.

С более подробной информацией можно ознакомиться на сайте семинара.
Руководители семинара: Дмитрий Ветров, Дмитрий Кропотов, Михаил Фигурнов.