Гарри и Меган присоединились к пионерам ИИ, призвавшим запретить сверхразумные системы
Нобелевские лауреаты также подписали письмо, в котором говорится, что технологию ИСИ следует запретить до тех пор, пока не будет достигнут консенсус о возможности её «безопасной» разработки.
Герцог и герцогиня Сассекские присоединились к пионерам в области искусственного интеллекта и нобелевским лауреатам, призывающим запретить разработку сверхразумных систем ИИ.
Гарри и Меган оказались в числе подписавших заявление с призывом «запретить разработку сверхинтеллекта». Искусственный сверхинтеллект (ИСИ) — это термин для пока ещё не созданных систем ИИ, которые превзойдут человеческий уровень интеллекта во всех когнитивных задачах.
В заявлении содержится призыв сохранить запрет до тех пор, пока не будет достигнут «широкий научный консенсус» относительно «безопасной и контролируемой» разработки ИСИ и пока не будет получена «широкая общественная поддержка».
Документ также подписали пионер в области ИИ и нобелевский лауреат Джеффри Хинтон, его коллега, «крёстный отец» современного ИИ Йошуа Бенжио, сооснователь Apple Стив Возняк, британский предприниматель Ричард Брэнсон, бывший советник по национальной безопасности США при Бараке Обаме Сьюзан Райс, бывший президент Ирландии Мэри Робинсон, а также британский писатель и телеведущий Стивен Фрай. Среди других подписавших нобелевских лауреатов — Беатрис Фин, Фрэнк Вильчек, Джон К. Мазер и Дарон Аджемоглу.
Заявление, адресованное правительствам, технологическим компаниям и законодателям, было организовано Институтом будущей жизни (Future of Life Institute, FLI) — американской группой, занимающейся вопросами безопасности ИИ. В 2023 году, вскоре после того как появление ChatGPT сделало ИИ предметом политических и общественных дискуссий по всему миру, институт уже призывал к мораторию на разработку мощных систем искусственного интеллекта.
В июле Марк Цукерберг, глава компании Meta (материнской компании Facebook) и один из крупнейших разработчиков ИИ в США, заявил, что создание сверхинтеллекта «уже не за горами». Однако некоторые эксперты считают, что разговоры об ИСИ скорее отражают конкурентное позиционирование между технологическими компаниями, которые только в этом году тратят на ИИ сотни миллиардов долларов, а не свидетельствуют о том, что сектор близок к каким-либо техническим прорывам.
Тем не менее, по мнению FLI, перспектива создания ИСИ «в ближайшее десятилетие» несёт в себе целый ряд угроз: от лишения людей всех рабочих мест и потери гражданских свобод до создания рисков для национальной безопасности стран и даже угрозы вымирания человечества. Экзистенциальные страхи, связанные с ИИ, сосредоточены на потенциальной способности системы выйти из-под контроля человека, обойти протоколы безопасности и инициировать действия, противоречащие интересам человечества.
Институт будущей жизни также опубликовал результаты национального опроса в США, который показал, что примерно три четверти американцев выступают за жёсткое регулирование продвинутого ИИ, а шесть из десяти считают, что сверхчеловеческий ИИ не следует создавать до тех пор, пока не будет доказана его безопасность и контролируемость. Опрос 2000 взрослых американцев также показал, что лишь 5% поддерживают статус-кво, то есть быстрое и нерегулируемое развитие.