В Центре ИИ разрабатываются подходы, обеспечивающие прозрачность и надежность решений, принимаемых ИИ, особенно в критически важных областях, таких как управление, медицина и юриспруденция. Специалисты создают инструменты верификации используемых библиотек и модулей, гарантирующие отсутствие уязвимостей и возможность безопасного внедрения ИИ в важнейшие инфраструктурные компоненты. Одновременно команда над методами защиты от возможных злоупотреблений технологиями ИИ, предотвращая их использование в противоправных целях.
Безопасный ИИ: алгоритмическое обеспечение и инструментальные средства
Задачи
-
Разработка методов и инструментальных средств MLSecOps для обеспечения разработки безопасных систем с искусственным интеллектом, алгоритмического и программного обеспечения для встраивания цифровых водяных знаков (водяных меток) в цифровые данные, отличающихся повышенной устойчивостью к деструктивным воздействиям
Практические результаты
-
Программное решение для автоматического выявления и/или нейтрализации атак на данные, используемые в обучении ИИ-моделей (обнаружение аномалий, «data poisoning», несбалансированных выборок, атак на распределение данных, выбросов, скрытых паттернов)
-
Наборы данных для проведения испытаний и тестирования
-
Программное решение для защиты моделей ИИ разных классов, в том числе для защиты от атак класса «model stealing»
-
Рекомендательная модель для устранения угроз