Центр искусственного интеллекта НИУ ВШЭ

Роль этики в сфере ИИ

Итоги первого этапа исследований по проекту «Этическая экспертиза в сфере искусственного интеллекта» в рамках программы Центра ИИ НИУ ВШЭ.

Photo by Tara Winstead: Pexels

Photo by Tara Winstead: Pexels
Этика и ИИ
Этика в сфере ИИ – часть цифровой этики, которая решает проблемы, возникающие в связи с разработкой новых технологий: аналитики больших данных, технологии блокчейн и непосредственно искусственный интеллект. Сейчас юридическая нормативная база недостаточно сформирована и нет четких договоренностей между обществом, государством, бизнесом и отдельными разработчиками в толковании и практике следования ключевым моральным принципам и этическим требованиям при разработке и внедрении систем ИИ. К сожалению, очень велики риски злоупотребления при широком применении ИИ как для общества, так и для отдельных людей.

Какие вопросы решают исследователи
В 2021 году в рамках проекта «Этическая экспертиза в сфере ИИ» группа исследователей во главе с Анастасией Углевой, руководителем Школы философии и культурологии НИУ ВШЭ, кандидатом философских наук, PhD, анализировала существующие на данный момент подходы в нормативной регуляции данной сферы: регуляция через “принципы”, через “процессы” и через “этическое сознание”.
Этическое сегодня все чаще воспринимают как «вотчину» права. Такой подход затрудняет понимание и осмысление неочевидных рисков, которые в принципе не поддаются правовому регулированию и не могут быть выявлены путем использования традиционных методов социологического анализа и правовых регуляторных механизмов. Так, большая часть дискуссий об этических аспектах ИИ происходит вокруг разнообразных тем – от манипулирования доступностью информации, сексизма и расизма в алгоритмах распознавания лиц и особенностей таргетированной рекламы с использованием ИИ до обеспечения “этичного” поведения интеллектуальных систем в ситуациях принятия решений, оказывающих непосредственное влияние на человека или целые сообщества людей. В ряде передовых стран сегодня разработаны законодательные акты, посвященные лишь конкретным разновидностям систем ИИ: автоматизированные автомобили, здравоохранение, концепт «умный» город, финансы. Такой подход касается социально значимых проблем, но не решает в полной мере ключевую задачу этики – обеспечение безопасности и неприкосновенности частной жизни, сохранение достоинства каждой отдельной личности и жизни как высшей ценности. Отсюда задача исследования «Этическая экспертиза в сфере ИИ» – предложить новую специальную этическую методику оценки неочевидных личностных и общественно значимых рисков внедрения ИИ. С этой целью в ноябре 2021 года в рамках программы Центра ИИ на базе Школы философии и культурологии начал работу регулярный научный семинар «Искусственный интеллект в мире людей: гуманистические, этические и правовые аспекты развития цифровых технологий», особая задача которого выработать общий язык профессиональной дискуссии, коды конвертации ключевых понятий, необходимых для выстраивания единого экспертного диалогового пространства.

Этика и право
На сегодняшний день понятие гуманитарной экспертизы практически никак не специфицировано с точки зрения внутренних различий и дифференцирования разнородных дисциплинарных сред. И прежде всего нет четкого разделения на собственно правовые и этические аспекты регулирования отношений между человеком и машиной. К правовым аспектам относятся вопросы, подлежащие ясной и категориально разработанной кодификации нормами права. Взаимодействие человека и машины, которые полностью укладываются в формат действующих норм права, описываются законодательными и иными нормативными актами, прописаны в действующих кодексах и могут стать предметом судебных разбирательств. В свою очередь, существует значительная область таких аспектов взаимодействия между машиной и человеком, которые не укладываются в область права. Эти аспекты взаимодействия требуют иного языка описания, отличного от языка правовой, социальной и политической риторики. Ближайшим способом их обозначения является область этики (более узкими могут быть названы психологические или валюативно значимые аспекты). Это те элементы собственно этического дискурса в сфере ИИ, которые при всей своей значимости не могут стать предметом правовой экспертизы.

Задача исследования – найти области ИИ, которые имеют значительный проблемный этический потенциал, но не подпадают под правовые или другие формы процедур регулирования. Трудность в том, что некоторые сферы взаимодействия человека и машины не согласованы с юридическими практиками регулирования, поэтому они превращаются в своего рода слепые пятна. Следовательно, требуется особая процедура выявления данных проблем, позволяющая не только обнаружить их, но и должным образом устранить негативные последствия, создать условия для профилактики возникновения подобных осложнений.

В России был запущен процесс формирования общих этических принципов и стандартов поведения в сфере развития технологий искусственного интеллекта. В октябре 2021 года на международном форуме «Этика ИИ: начало доверия» был подписан Кодекс этики в сфере искусственного интеллекта (https://www.aiethic.ru/code). Кодекс разрабатывали Центр экспертизы по реализации федерального проекта «Искусственный интеллект», Альянс в сфере искусственного интеллекта, Минэкономразвития России при содействии представителей Совета Федерации Федерального собрания РФ, Общественной палаты РФ, РСПП, АНО «Цифровая экономика» и других членов профессионального и академического сообщества. Это универсальный документ в сфере разработки и применения ИИ, где прописаны человеко-ориентированный и гуманистический подходы при развитии ИИ-технологий, принципы недискриминации, информационной безопасности и ответственности за последствия применения ИИ.  При этом кодекс — это инструмент «мягкого» регулирования, то есть зафиксированные принципы носят рекомендательный характер. К настоящему моменту более 50 организаций уже подписали кодекс и приступили к реализации его положений.