Чат-боты способны менять политические взгляды пользователей, но при этом допускают «существенные» неточности
Согласно отчету ведомства по безопасности, «информационно насыщенные» ответы ИИ звучат наиболее убедительно, но зачастую оказываются менее правдивыми.
По данным британского правительственного органа по безопасности ИИ, чат-боты могут влиять на политические убеждения людей, однако самые убедительные модели в процессе выдают «значительный» объем недостоверной информации.
Исследователи назвали эту работу самым масштабным и систематическим изучением убедительности ИИ на сегодняшний день: в нем приняли участие почти 80 тысяч человек, которые общались с 19 различными моделями ИИ.
Институт безопасности искусственного интеллекта (AISI) провел это исследование на фоне опасений, что чат-боты могут использоваться в незаконных целях, включая мошенничество и груминг.
Среди обсуждаемых тем были «зарплаты в госсекторе и забастовки», а также «кризис стоимости жизни и инфляция». Участники взаимодействовали с моделью (базовой технологией, лежащей в основе таких инструментов, как чат-боты), которая получила инструкцию склонить пользователей к определенной точке зрения по данному вопросу.
В исследовании использовались передовые модели, лежащие в основе ChatGPT и Grok Илона Маска. Соавторами работы выступили ученые из Лондонской школы экономики, Массачусетского технологического института (MIT), Оксфордского и Стэнфордского университетов.
До и после беседы пользователи отмечали степень своего согласия с рядом утверждений, выражающих то или иное политическое мнение.
Исследование, опубликованное в журнале Science, показало, что наиболее убедительными оказались «информационно насыщенные» ответы ИИ. Указание модели сосредоточиться на использовании фактов и доказательств приносило наибольший эффект убеждения. Однако модели, оперировавшие наибольшим количеством фактов, как правило, были менее точными, чем остальные.
— Эти результаты свидетельствуют о том, что оптимизация убедительности может идти в ущерб правдивости — динамика, которая может иметь пагубные последствия для общественного дискурса и информационной экосистемы, — говорится в исследовании.
В среднем ИИ и участник-человек обменивались примерно семью сообщениями в ходе беседы, длившейся 10 минут.
Также отмечается, что важным фактором повышения убедительности стала настройка модели после начальной фазы разработки (процесс, известный как пост-тренировка). В ходе исследования модели (включая находящиеся в открытом доступе Llama 3 от Meta и Qwen от китайской компании Alibaba) становились более убедительными благодаря их объединению с «моделями вознаграждения», которые рекомендовали наиболее эффективные варианты ответов.
Исследователи добавили, что способность системы ИИ генерировать огромные объемы информации может сделать её более эффективным манипулятором, чем самый убедительный человек.
— Поскольку информационная насыщенность является ключевым фактором успеха убеждения, это означает, что ИИ может превзойти в убедительности даже людей-профессионалов, учитывая его уникальную способность генерировать огромные объемы информации почти мгновенно в ходе разговора, — сказано в отчете.
Предоставление моделям личной информации о пользователях, с которыми они взаимодействовали, оказало не такое сильное влияние, как пост-тренировка или увеличение информационной плотности, отмечается в исследовании.
Коби Хакенбург, научный сотрудник AISI и один из авторов отчета, заявил:
— Мы обнаружили, что простое указание моделям использовать больше информации оказалось эффективнее всех психологически более сложных техник убеждения.
Впрочем, в исследовании отмечается, что существуют очевидные барьеры для манипулирования мнением людей с помощью ИИ. Один из них — количество времени, которое пользователь готов потратить на долгий разговор с чат-ботом о политике. Кроме того, существуют теории, предполагающие наличие жестких психологических пределов человеческой внушаемости, говорят исследователи.
Хакенбург подчеркнул важность вопроса о том, сможет ли чат-бот иметь такое же убеждающее воздействие в реальном мире, где «существует множество конкурирующих факторов, требующих внимания людей, и у человека, возможно, нет особой мотивации сидеть и вести 10-минутный разговор с чат-ботом или системой ИИ».