Центр искусственного интеллекта НИУ ВШЭ

Ответственный подход к "медийным диетам" ИИ

Интервью с Ильей Кирией, руководителем проекта «Искусственный интеллект в информационных процессах: алгоритмизация выбора, ограничение и ответственное медиапотребление»

Photo by Andrea Piacquadio

Photo by Andrea Piacquadio

Расскажите, пожалуйста, о чем ваш проект?
Наш проект в рамках Центра ИИ НИУ ВШЭ исследует роль технологий ИИ в информационных процессах. Мы анализируем, каким образом алгоритмы и технологии влияют на наше медийное потребление, создают «рамки», которые обычные люди как рамки не воспринимают. В результате алгоритмы по сути детерминируют нашу «медийную диету», регулируют то, что мы потребляем и как мы это делаем в медийном пространстве.

Как и для чего применяют технологии ИИ в информационных процессах?
Технологии ИИ в информационных процессах используются очень широко. Современные медиа – это цифровые медиа, с которыми мы взаимодействуем при помощи различных, как правило, цифровых устройств. Но в медиапространстве очень много разного контента, невооруженный определенными навыками человек в нем теряется. Поэтому именно алгоритмы ИИ определяют, что показывать, а что нет в цифровом пространстве, что «поднимать в топ», а что «убирать в подвал». Эти алгоритмы чаще всего определяются бизнес-моделью платформы. Большая часть социальных медиа и поисковиков – коммерческие системы, которые монетизируют данные пользователей, предлагая им контекстную рекламу. Наш проект нацелен на разработку инструментов, которые помогают видеть за такими алгоритмами способы влияния на пользователя и формирования у него определенных видов предвзятости по отношению к полученной информации.

Как ИИ способствует ответственному медиапотреблению?
Как я уже сказал, ИИ создает рамку медиапотребления, которую человек не воспринимает как рамку. Медиапотребление становится ответственным, когда человек такие риски понимает и может отличать один тип информации от другого, одну бизнес-модель от другой. Так он предвидит возможные способы давления. В то же время ИИ используется для того, чтобы «ловить» различные виды предвзятости в текстах. Например, мы можем проверить происхождение картинки (а сегодня в фейковых новостях зачастую используются изображения, которые просто «гуляют» по интернету и относятся к другим событиям), экспертов, на которые ссылаются масс-медиа и т.п. Наш проект ориентирован на то, чтобы разрабатывать такие инструменты и тестировать их использование.

Какие задачи вы ставите перед собой в рамках проекта?
Данный проект условно делится на две части: мы исследуем фейки и роль алгоритмов в их распространении, то, каким образом люди видят или не видят рамки медиапотребления. При этом у нас есть выраженная образовательная компонента. С одной стороны, мы хотим, чтобы наши подходы были доступны студентам. А с другой стороны, мы разрабатываем свободные цифровые инструменты для того, чтобы обычные пользователи могли, условно говоря, проверять новости и тексты на предмет их предвзятости.

Какие этапы исследования уже осуществлены? Какие результаты получены?
Мы уже выполнили ряд образовательных задач проекта, внедрили некоторые образовательные курсы и опубликовали статьи. Однако самое главное – мы собираемся в скором времени тестировать алгоритм, который помогает потребителю информации оценить, насколько тот или иной текстовый массив стилистически «окрашен». Это фактически может означать, что такому тексту не стоит доверять.

Какое прикладное значение имеет ваш проект? Как он поможет широкой аудитории?
В первую очередь мы хотим дать аудитории открытый инструмент, который будет помогать людям критически оценивать тот контент, с которым они взаимодействуют. Это и будет нашим вкладом в ответственное медиапотребление.

Принимают ли участие в исследованиях студенты и аспиранты?
Да, несмотря на то, что у нас небольшой проект, в нем участвует один аспирант. Также мы собираемся привлекать студентов для отдельных видов работ.

Каких результатов вы планируете достичь в итоге?
Мы хотим получить на выходе, с одной стороны, описанный мной выше алгоритмизированный продукт, а с другой – все-таки определенные научные ответы на вопросы о том, как алгоритмы обуславливают наш медийный рацион.