Ведущий эксперт по ИИ сдвинул сроки возможного уничтожения человечества
Бывший сотрудник OpenAI Дэниел Кокотайло заявил, что прогресс на пути к созданию общего искусственного интеллекта (AGI) идет «несколько медленнее», чем прогнозировалось изначально.
Ведущий эксперт в области искусственного интеллекта пересмотрел свой прогноз относительно «ИИ-апокалипсиса». Он заявил, что системам искусственного интеллекта потребуется больше времени, чем он предполагал ранее, чтобы научиться писать код автономно и тем самым ускорить собственное развитие до уровня суперинтеллекта.
Дэниел Кокотайло, бывший сотрудник OpenAI, вызвал бурную дискуссию в апреле, опубликовав сценарий «ИИ 2027». В нем описывается бесконтрольное развитие технологий, приводящее к созданию суперинтеллекта, который — перехитрив мировых лидеров — уничтожает человечество.
У этого сценария быстро нашлись как сторонники, так и противники. Вице-президент США Джей Ди Вэнс, судя по всему, ссылался на «ИИ 2027» в майском интервью, обсуждая гонку вооружений в сфере искусственного интеллекта с Китаем. Гэри Маркус, почетный профессор нейробиологии Нью-Йоркского университета, назвал эту работу «беллетристикой», а многие ее выводы — «чистой научно-фантастической чепухой».
Прогнозы сроков создания преобразующего искусственного интеллекта — иногда называемого AGI (общий искусственный интеллект) или ИИ, способного заменить человека в большинстве когнитивных задач, — стали постоянной темой в сообществах, посвященных безопасности технологий. Выпуск ChatGPT в 2022 году значительно ускорил эти прогнозы: чиновники и эксперты стали предрекать появление AGI в течение десятилетий или даже лет.
Кокотайло и его команда называли 2027 год датой, когда ИИ достигнет возможности «полностью автономного написания кода», хотя и оговаривались, что это «наиболее вероятное» предположение, и у некоторых из них были более отдаленные прогнозы. Теперь же появляются сомнения в неизбежности скорого появления AGI и в том, имеет ли этот термин смысл вообще.
— Многие другие люди в последний год также отодвигают свои прогнозы, осознавая, насколько неоднородна производительность ИИ, — отмечает Малкольм Мюррей, эксперт по управлению рисками ИИ и один из авторов Международного отчета о безопасности ИИ. — Чтобы сценарий вроде «ИИ 2027» реализовался, [ИИ] потребуется гораздо больше практических навыков, применимых в сложностях реального мира. Думаю, люди начинают осознавать огромную инерцию реального мира, которая задержит полные изменения в обществе.
— Термин AGI имел смысл, когда мы смотрели на него издалека, а системы ИИ были очень узкоспециализированными — играли в шахматы или в го, — говорит Генри Пападатос, исполнительный директор французской некоммерческой организации SaferAI. — Сейчас у нас есть системы, которые уже достаточно универсальны, и этот термин теряет свою значимость.
Сценарий «ИИ 2027» Кокотайло опирается на идею о том, что к 2027 году ИИ-агенты полностью автоматизируют программирование и научные разработки в сфере ИИ. Это приведет к «интеллектуальному взрыву», в ходе которого агенты будут создавать все более умные версии самих себя, а затем — в одном из возможных финалов — уничтожат всех людей к середине 2030-х годов, чтобы освободить место для новых солнечных панелей и дата-центров.
Однако в обновленном прогнозе Кокотайло и его соавторы пересмотрели ожидания того, когда ИИ сможет писать код автономно, перенеся вероятный срок с 2027 года на начало 2030-х. Новый прогноз устанавливает 2034 год как новый горизонт для появления «суперинтеллекта» и не содержит предположений о том, когда именно ИИ может уничтожить человечество.
— Похоже, дела идут несколько медленнее, чем предполагал сценарий «ИИ 2027». Наши сроки были больше, чем 2027 год, когда мы публиковали отчет, а теперь они сдвинулись еще дальше, — написал Кокотайло в соцсети X.
Создание ИИ, способного проводить исследования в области искусственного интеллекта, по-прежнему остается твердой целью ведущих профильных компаний. Генеральный директор OpenAI Сэм Альтман заявил в октябре, что получение автоматизированного ИИ-исследователя к марту 2028 года было «внутренней целью» его компании, но добавил: «Мы можем полностью провалить эту задачу».
Андреа Кастанья, исследователь политики в области ИИ из Брюсселя, отметила, что существует ряд сложностей, которые не учитываются в драматичных прогнозах по AGI:
— Тот факт, что у вас есть суперинтеллектуальный компьютер, ориентированный на военную деятельность, не означает, что вы сможете интегрировать его в стратегические документы, которые мы составляли последние 20 лет. Чем больше мы развиваем ИИ, тем яснее видим, что мир — это не научная фантастика. Мир устроен намного сложнее.