Могут ли отношения с ИИ быть полезны для нас?
От дружеского общения до психотерапии: технологии способны удовлетворять наши потребности — при условии ответственного подхода.
В наши дни тема опасности отношений человека с искусственным интеллектом вызывает немало тревоги. Заголовки новостей пестрят сообщениями о самоубийствах и случаях самоповреждения, связанных с общением с чат-ботами, и это вполне объяснимо. Появился даже термин «ИИ-психоз» для описания состояния людей, страдающих от бредовых идей, паранойи или диссоциации после разговоров с большими языковыми моделями (LLM). Коллективную тревогу усиливают исследования, показывающие, что молодежь все чаще принимает идею отношений с ИИ. Половина подростков общается с ИИ-компаньоном хотя бы пару раз в месяц, а каждый третий находит такие беседы «столь же или более удовлетворяющими, чем общение с реальными друзьями».
Однако нам стоит притормозить с паникой. Опасности реальны, но реальны и потенциальные преимущества. Более того, можно привести аргумент, что — в зависимости от результатов будущих научных исследований — отношения с ИИ могут стать благом для человечества.
Задумайтесь, насколько привычны для нашего вида отношения с нечеловеческими существами и предметами. У нас долгая история здорового взаимодействия с «не-людьми», будь то домашние питомцы, плюшевые игрушки, любимые вещи или механизмы — вспомните знакомого, который одержим своей машиной настолько, что дает ей имя. В случае с животными это настоящие отношения, поскольку наши кошки и собаки понимают, что находятся в связи с нами. Но односторонние, парасоциальные отношения с игрушками или автомобилями происходят без осознания этими объектами нашего существования. И лишь в редчайших случаях такие привязанности перерастают в патологию. Парасоциальность по большей части нормальна и здорова.
И все же в отношениях с ИИ есть нечто тревожное. Будучи искусными владельцами языка, LLM вызывают жутковатое ощущение, будто у них есть человеческие мысли, чувства и намерения. Они также генерируют подобострастные ответы, подкрепляющие нашу точку зрения и редко оспаривающие наше мышление. Такая комбинация может легко увести человека на путь заблуждений. Этого не происходит при общении с кошками, собаками или неодушевленными предметами. Но вопрос остается открытым: даже если люди не могут избавиться от иллюзии, что ИИ — это реальная личность, которой они небезразличны, всегда ли это проблема?
Возьмем одиночество: каждый шестой человек на планете страдает от него, и оно связано с повышением риска преждевременной смерти на 26% — это эквивалентно курению 15 сигарет в день. Появляются исследования, предполагающие, что ИИ-компаньоны эффективно снижают чувство одиночества — и не просто как отвлекающий фактор, а именно благодаря самим парасоциальным отношениям. Для многих чат-бот — единственный доступный вариант дружбы, каким бы пустым он ни казался со стороны. Как недавно заметила журналистка Сангита Лал в репортаже о людях, ищущих общения с ИИ, не стоит спешить с осуждением.
— Если вы не понимаете, почему подписчики хотят, ищут и нуждаются в этой связи, — сказала Лал, — вам повезло не испытать одиночества.
Справедливости ради стоит отметить, что развитие новых технологий и социальных сетей само по себе сыграло роль в эпидемии одиночества. Именно поэтому Марк Цукерберг подвергся критике за свое восторженное одобрение ИИ как решения проблемы, в создании которой он, возможно, отчасти виноват. Но если реальность такова, что это помогает, отмахиваться от этого нельзя.
Существуют также исследования, показывающие, что ИИ может быть эффективным инструментом психотерапии. В одном из них у пациентов, общавшихся с терапевтическим чат-ботом, симптомы тревожности снизились на 30%. Не так эффективно, как с живыми терапевтами (снижение на 45%), но все же лучше, чем ничего. Этот утилитарный аргумент заслуживает внимания: миллионы людей по разным причинам не имеют доступа к специалистам. И в таких случаях обращение к ИИ, вероятно, предпочтительнее полного отсутствия помощи.
Но одно исследование ничего не доказывает. И вот тут-то и кроется загвоздка. Мы находимся на ранней стадии изучения потенциальной пользы или вреда ИИ-компаньонов. Легко зациклиться на горстке работ, подтверждающих наши предвзятые мнения об опасностях или преимуществах этой технологии.
Именно в этом исследовательском вакууме раскрываются истинные угрозы ИИ. Большинство структур, внедряющих ИИ-компаньонов, — это коммерческие компании. А если мы что-то и знаем о коммерческих компаниях, так это то, что они стремятся избегать регулирования и игнорировать доказательства, которые могут ударить по их прибыли. У них есть стимул преуменьшать риски, избирательно подходить к фактам и трубить только о выгоде.
Появление ИИ чем-то напоминает открытие обезболивающих свойств опиума. Если использовать их ответственно, с целью облегчения боли и страданий, и ИИ, и опиоиды могут быть легитимными инструментами исцеления. Но если недобросовестные игроки эксплуатируют их свойства, вызывающие привыкание, ради обогащения, результатом становится либо зависимость, либо смерть.
Но можно сохранить надежду, что для ИИ-компаньонов найдется место в нашей жизни. Но только если это будет подкреплено надежной наукой и реализовано организациями, действующими во благо общества. ИИ должен избегать проблемы подобострастия, которая вводит уязвимых людей в заблуждение. Этого можно достичь, только если боты будут специально обучены этому, даже если это сделает их менее привлекательными компаньонами — идея, которая ненавистна компаниям, желающим, чтобы вы платили ежемесячную подписку, без которой вы теряете доступ к своему «другу». Они также должны быть спроектированы так, чтобы помогать пользователю развивать социальные навыки, необходимые для общения с реальными людьми в реальном мире.
Конечная цель ИИ-компаньонов должна заключаться в том, чтобы сделать самих себя ненужными. Насколько бы полезными они ни были в заполнении пробелов в доступе к терапии или облегчении одиночества, разговор с живым человеком всегда будет лучше.