Семинары 2026
Семинар НУЛ Искусственного интеллекта для вычислительной биологии
Дата: 15.04.2026
Тема: Latest features in C++26
Докладчик: Анкудинова Екатерина Евгеньевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: The seminar talk will briefly present the latest features introduced in C++26.
Место проведения: S325
Дата: 01.04.2026
Тема: Cross-linked peptides fragmentation
Докладчик: Лихачева София Андреевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: В данной работе рассматривается анализ фрагментации сшитых пептидов с использованием расщепляемых (DSSO) и нерасщепляемых (DSS) сшивающих реагентов. Определены три типа продуктов: внутрипептидные, межпептидные сшивки и «глухие» монолинки. Показано, что DSSO образует характерные ионные пары за счет лабильной связи, в отличие от DSS, не дающего диагностических ионов. Описана вычислительная стратегия идентификации сшитых пар пептидов по масс-спектру: определение изотопного кластера предшественника, учет фиксированных масс остатков линкера (54,0106 Да для A-фрагмента и 104,0136 Да для B-фрагмента) и проверка условий для подтверждения подлинности сшитого предшественника.
Место проведения: S325
Дата: 18.03.2026 9:30-11:00
Тема: Polymer fragmentation in Gas Chromatography-Mass Spectrometry
Докладчик: Костин Василий Васильевич, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: The talk will investigate the fragmentation of polymers in GC-MS
Место проведения: S325
Дата: 04.03.2026
Тема: De Novo Sequencing
Докладчик: Шемель Валерия Дмитриевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: De novo peptide sequencing determines amino acid sequences directly from tandem mass spectrometry (MS/MS) spectra without relying on protein databases. It excels at identifying novel peptides, post-translational modifications, and sequences from uncharacterized organisms, using approaches like deep learning transformers (e.g., Casanovo).
Дата: 11.02.2026
Тема: Graph Neural Networks
Докладчик: Губич Александр Сергеевич, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: A concise overview of Graph Neural Networks, focusing on the message-passing paradigm, key challenges in architecture design, and state-of-the-art research directions in the field.
Дата: 28.01.2026
Тема: Score calibration
Докладчик: Зорина Евдокия Юрьевна, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: Accurate identification of peptide-spectrum matches in shotgun proteomics critically depends on proper calibration of scoring functions. Raw identification scores are influenced by spectrum-specific characteristics, which makes them non-comparable across spectra and undermines reliable FDR estimation. Spectrum-specific calibration addresses this problem by transforming raw scores into statistically interpretable p-values. Empirical calibration methods estimate null score distributions through Monte Carlo sampling of decoy peptides, while exact approaches compute these distributions analytically. These approaches demonstrate that spectrum-specific score calibration is essential for improving identification validity and statistical reliability in shotgun proteomics.
Дата: 14.01.2026
Тема: QLoRA: Finetuning 65B Language Models on a Single GPU
Докладчик: Асад Мухаммад, стажер-исследователь Научно-учебной лаборатории искусственного интеллекта для вычислительной биологии
Аннотация: QLoRA is a memory-efficient finetuning method that enables training 65-billion-parameter language models on a single 48GB GPU—without compromising performance. It achieves this by freezing a pretrained model quantized to 4-bit NormalFloat (NF4) precision and injecting small, trainable Low-Rank Adapters (LoRA) into attention layers. Three key innovations make this possible: (1) NF4 quantization optimized for neural weight distributions, (2) double quantization to compress metadata overhead, and (3) paged optimizers that prevent memory spikes during training. Evaluated across 19 NLP tasks and multiple model families (LLaMA, OPT), QLoRA matches full 16-bit finetuning performance—including 99.3% of ChatGPT's score on chat benchmarks—while reducing memory requirements by 16×. This democratizes LLM customization, enabling state-of-the-art finetuning for under $1,000 on accessible hardware.
Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!
Сервис предназначен только для отправки сообщений об орфографических и пунктуационных ошибках.