ФКН рассказал об особенностях использования ИИ на барном лектории в «Ровеснике»
Факультет компьютерных наук совместно с баром «Ровесник» запустил барный лекторий. Вечером 3 октября в баре прошла первая встреча — «ИИ всемогущий: изнанка сферы». В неформальной обстановке эксперты факультета выступили с короткими рассказами об использовании искусственного интеллекта. Одна из целей барного лектория — популяризировать науку, поэтому спикеры говорили на языке, понятном любой аудитории.
Дарья Касьяненко, академический руководитель образовательной программы «Инженерия данных» и старший преподаватель департамента больших данных и информационного поиска ФКН, рассказала о неэтичной стороне искусственного интеллекта и темных делах компаний-разработчиков.
Очень важно, на каких данных обучаются модели искусственного интеллекта. Рассмотрим опыт компании Amazon по внедрению ИИ в отдел найма. Они заметили, что 60 процентов кандидатов на вакансии, которых подбирал ИИ, — мужчины. Иногда они даже не проходили по критериям отбора, но между подходящей женщиной и неподходящим мужчиной выбирали именно его. Почему? Исторически в компании работало больше мужчин. На данных о текущих сотрудниках обучили модель, и она стала предпочитать мужчин.
Еще один пример некорректного обучения моделей ИИ — медицинская рекомендательная система. В 2020 году вышел большой обзор на нее — исследователи поняли, что дополнительные процедуры чаще предлагаются тем, у кого есть деньги. И это было связано не с тем, что им действительно нужны эти процедуры, а с тем, что более состоятельные люди ранее получали больше медицинской помощи.
Кто же следит за инженерами, которые внедряют эти алгоритмы? Есть так называемые команды super alignment, которые выравнивают систему, чтобы она соответствовала нашей этике и пониманию того, что происходит с людьми.
Дарья добавила, что сейчас в компаниях ИТ-гигантах увольняют специалистов по этике искусственного интеллекта. При этом стоит отметить, что тот ИИ, который есть сейчас, считается «слабым» — он не может превзойти алгоритмы, которые в него заложили. AGI (artificial general intelligence) — следующий уровень искусственного интеллекта, который будет мыслить почти как человек или даже превосходить его. Пока это теоретическая, нереализованная концепция, однако уже сейчас появляются опасения и вопросы: если у нас уже нет команд, которые разрабатывают этичные алгоритмы, способны ли мы вообще контролировать такие системы и что с ними делать, когда они появятся? Предубеждения уже есть в текущих моделях, не усугубятся ли они в следующих?
Далее Дмитрий Ильвовский, доцент департамента анализа данных и искусственного интеллекта ФКН и научный сотрудник международной лаборатории интеллектуальных систем и структурного анализа, в своем выступлении поделился, как используются ИИ и методы обработки естественного языка для фактчекинга и анализа манипулятивного контента.
Люди давно создают и распространяют фейки, но в последнее время эффект приобрел глобальный масштаб, и это стало особенно очевидно, когда появился коронавирус. Параллельно с ним возникла настоящая «инфодемия» — так этот феномен назвали. Появился поток фейков и манипуляций, связанных с коронавирусом. ВОЗ даже включил «инфодемию» в список глобальных угроз.
Фейки создаются в том числе при помощи искусственного интеллекта. Но поговорим о светлой стороне — как можно использовать нейросети для анализа текстов и фактчекинга. Люди, которые занимаются проверкой фактов, хотят знать, какие утверждения наиболее важны для проверки сегодня, не проверялись ли они раньше, а также хотят проверять все максимально быстро. В этом им может помочь ИИ. Однако в ближайшее время не предвидится перехода на полностью автоматическую проверку фактов: общество не доверяет искусственному интеллекту настолько сильно, но доверяет тем людям, которые проверяют факты. Поэтому сейчас самый верный сценарий работы с ИИ в этом направлении — чтобы нейросеть помогала таким людям, а не делала все за них.
Можно ли проверить все и перспективный ли это путь? На самом деле, не очень. Любой журналист знает, что прежде чем проверять конкретный факт, нужно посмотреть, кто его опубликовал. Важное значение имеет такая вещь, как репутация, поэтому если что-то опубликовано в источнике, у которого она ненадежная, то с высокой долей вероятности информация будет фейком, тут и проверять нечего.
Дмитрий отметил, что борьба с фейковыми новостями — это довольно сложная проблема и простого решения здесь нет. Необходимо тесное сотрудничество сразу нескольких сторон: социальных сетей, технологических компаний, правительства, международных организаций, гражданского общества, в том числе журналистов, проверяющих факты, СМИ, а также исследователей.
Александр Баранов, преподаватель департамента больших данных и информационного поиска ФКН и стажер-исследователь научно-учебной лаборатории моделей и методов вычислительной прагматики, выступил с рассказом о том, как машины учатся понимать и создавать юмор.
Большие языковые модели становятся все более способными улавливать неявную и контекстуальную информацию. Некоторые, такие как ChatGPT, могут общаться практически на человеческом уровне и даже рассказывать анекдоты.
ChatGPT пытается быть смешным, но действительно ли он такой? Провели такое исследование: его тысячу раз попросили сгенерировать шутку. Потом вручную попробовали определить, какие механизмы ChatGPT использовал, чтобы эти шутки сделать. Оказалось, что он способен оперировать только 25 паттернами.
Конечно, ИИ не совсем бесполезен в плане шуток: иногда он может стать ассистентом в этом деле. С нуля он шутку может и не напишет, но способен помочь закрутить ее, придумать историю. Однако, как показывает еще одно исследование, несмотря на то, что части юмористов понравилось писать шутки с помощью ИИ, их отношение к работе с нейросетями неоднозначно и большинство не считает такой контент уникальным.
Следующая встреча барного лектория уже скоро — следите за анонсами в социальных сетях факультета.