• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Семинары 2026

Семинар НУЛ Искусственного интеллекта для вычислительной биологии

Дата: 15.04.2026  

Тема: Latest features in C++26

Докладчик: Анкудинова Екатерина Евгеньевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: The seminar talk will briefly present the latest features introduced in C++26.

Место проведения: S325

Дата: 01.04.2026  

Тема: Cross-linked peptides fragmentation

Докладчик: Лихачева София Андреевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: В данной работе рассматривается анализ фрагментации сшитых пептидов с использованием расщепляемых (DSSO) и нерасщепляемых (DSS) сшивающих реагентов. Определены три типа продуктов: внутрипептидные, межпептидные сшивки и «глухие» монолинки. Показано, что DSSO образует характерные ионные пары за счет лабильной связи, в отличие от DSS, не дающего диагностических ионов. Описана вычислительная стратегия идентификации сшитых пар пептидов по масс-спектру: определение изотопного кластера предшественника, учет фиксированных масс остатков линкера (54,0106 Да для A-фрагмента и 104,0136 Да для B-фрагмента) и проверка условий для подтверждения подлинности сшитого предшественника.

Место проведения: S325

Дата: 18.03.2026  9:30-11:00

Тема: Polymer fragmentation in Gas Chromatography-Mass Spectrometry

Докладчик: Костин Василий Васильевич, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: The talk will investigate the fragmentation of polymers in GC-MS

Место проведения: S325

Дата: 04.03.2026

Тема: De Novo Sequencing

Докладчик: Шемель Валерия Дмитриевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: De novo peptide sequencing determines amino acid sequences directly from tandem mass spectrometry (MS/MS) spectra without relying on protein databases. It excels at identifying novel peptides, post-translational modifications, and sequences from uncharacterized organisms, using approaches like deep learning transformers (e.g., Casanovo).

Дата: 11.02.2026

Тема: Graph Neural Networks

Докладчик: Губич Александр Сергеевич, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: A concise overview of Graph Neural Networks, focusing on the message-passing paradigm, key challenges in architecture design, and state-of-the-art research directions in the field.

Дата: 28.01.2026

Тема: Score calibration

Докладчик: Зорина Евдокия Юрьевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: Accurate identification of peptide-spectrum matches in shotgun proteomics critically depends on proper calibration of scoring functions. Raw identification scores are influenced by spectrum-specific characteristics, which makes them non-comparable across spectra and undermines reliable FDR estimation. Spectrum-specific calibration addresses this problem by transforming raw scores into statistically interpretable p-values. Empirical calibration methods estimate null score distributions through Monte Carlo sampling of decoy peptides, while exact approaches compute these distributions analytically. These approaches demonstrate that spectrum-specific score calibration is essential for improving identification validity and statistical reliability in shotgun proteomics.

Дата: 14.01.2026

Тема:  QLoRA: Finetuning 65B Language Models on a Single GPU

Докладчик: Асад Мухаммад, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии

Аннотация: QLoRA is a memory-efficient finetuning method that enables training 65-billion-parameter language models on a single 48GB GPU—without compromising performance. It achieves this by freezing a pretrained model quantized to 4-bit NormalFloat (NF4) precision and injecting small, trainable Low-Rank Adapters (LoRA) into attention layers. Three key innovations make this possible: (1) NF4 quantization optimized for neural weight distributions, (2) double quantization to compress metadata overhead, and (3) paged optimizers that prevent memory spikes during training. Evaluated across 19 NLP tasks and multiple model families (LLaMA, OPT), QLoRA matches full 16-bit finetuning performance—including 99.3% of ChatGPT's score on chat benchmarks—while reducing memory requirements by 16×. This democratizes LLM customization, enabling state-of-the-art finetuning for under $1,000 on accessible hardware.


 

Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!
Сервис предназначен только для отправки сообщений об орфографических и пунктуационных ошибках.