Этика в сфере искусственного интеллекта
Этика
Этический аспект разработки и внедрения технологий искусственного интеллекта крайне важен для понимания развития современной цивилизации и места в ней человека. Философские вопросы, возникающие в этой связи, имеют отношение к искусственному интеллекту как исследовательскому пространству. Что такое интеллект, чем искусственный интеллект отличается от интеллекта естественного? Как искусственный интеллект может влиять на человеческое сознание и что такое сознание? Как сохранить человеческое достоинство и права человека в быстро меняющихся условиях смены одной инновации другой? Может ли машина мыслить и может ли она быть моральным агентом? Соответственно, помимо эпистемологических, антропологических, онтологических вопросов, встают остро и вопросы этические, заставляющие осмысливать границы допустимого и определять должное. Уже сейчас существуют технологии, которые можно использовать для противоправных действий. Например, deepfake — подмена изображения в видео одного человека изображением другого. Новые инструменты могут нести и новые социальные, в том числе, коммуникативные риски, представлять угрозу человеческой идентичности, сохранности личных данных и прочее. Их предвидение и предупреждение являются важными элементами прогрессивного развития технологической цивилизации.
В 2021 году был подписан Кодекс этики в сфере ИИ. Его важнейшей особенностью является человеко-ориентированный и риск-ориентированный подходы к пониманию перспектив развития искусственного интеллекта. В нем четко обозначена сугубо человеческая ответственность за моральные риски разработки и внедрения искусственного интеллекта и фиксируется необходимость учета гуманистической направленности этих разработок, то есть они не должны препятствовать, но призваны способствовать совершенствованию личности человека, его когнитивных способностей и сохранности человеческой цивилизации и культуры.
В рамках Центра разрабатывается отдельный проект, в котором ставится задача выработки методологических указаний по проведению этической экспертизы на всех этапах разработки и внедрения ИИ.
Искусственный интеллект
Искусственный интеллект — понятие широкое, значение часто зависит от контекста. Специалисты чаще используют понятия интеллектуальная система и методы искусственного интеллекта. ИИ — это система, которая способна решать интеллектуальные задачи. Наименование artificial intelligence было предложено ученым Джоном Маккарти в рамках Дартмутского семинара в 1956 году, где обсуждались ключевые вопросы, связанные с разработкой ИИ.
Следует различать концепции сильного или общего искусственного интеллекта (artificial general intelligence) и слабого или специализированного искусственного интеллекта (narrow artificial intelligence). Примеры слабого ИИ окружают людей в повседневной жизни: технологии «умного дома», онлайн-переводчики, распознавание изображений. Другими словами, слабый ИИ может решать конкретные задачи, под которые он был создан. Если система была обучена, чтобы играть в шахматы, то без дополнительных усовершенствований она сможет играть только в эту игру.
Сильного искусственного интеллекта пока не существует. Мнения ученых и экспертов расходятся в вопросе, возможно ли создание таких систем.
Сильный ИИ отличается от слабого тем, что должен решать разные интеллектуальные задачи, а не только те, под которые он был сконструирован. Кроме этого, среди отличительных свойств сильного ИИ называют сознание, самообучаемость для выполнения принципиально новых задач и целеполагание. Системы слабого ИИ не обладают этими качествами, но уже могут превосходить человека в решении тех проблем, для которых они были разработаны.