Ведущий эксперт по ИИ сдвинул сроки возможного уничтожения человечества - Такое кино
 

Ведущий эксперт по ИИ сдвинул сроки возможного уничтожения человечества

06.01.2026, 8:08, Общество
Теги: , ,

Бывший сотрудник OpenAI Дэниел Кокотайло заявил, что прогресс на пути к созданию общего искусственного интеллекта (AGI) идет «несколько медленнее», чем прогнозировалось изначально.

Ведущий эксперт в области искусственного интеллекта пересмотрел свой прогноз относительно «ИИ-апокалипсиса». Он заявил, что системам искусственного интеллекта потребуется больше времени, чем он предполагал ранее, чтобы научиться писать код автономно и тем самым ускорить собственное развитие до уровня суперинтеллекта.

Дэниел Кокотайло, бывший сотрудник OpenAI, вызвал бурную дискуссию в апреле, опубликовав сценарий «ИИ 2027». В нем описывается бесконтрольное развитие технологий, приводящее к созданию суперинтеллекта, который — перехитрив мировых лидеров — уничтожает человечество.

У этого сценария быстро нашлись как сторонники, так и противники. Вице-президент США Джей Ди Вэнс, судя по всему, ссылался на «ИИ 2027» в майском интервью, обсуждая гонку вооружений в сфере искусственного интеллекта с Китаем. Гэри Маркус, почетный профессор нейробиологии Нью-Йоркского университета, назвал эту работу «беллетристикой», а многие ее выводы — «чистой научно-фантастической чепухой».

Прогнозы сроков создания преобразующего искусственного интеллекта — иногда называемого AGI (общий искусственный интеллект) или ИИ, способного заменить человека в большинстве когнитивных задач, — стали постоянной темой в сообществах, посвященных безопасности технологий. Выпуск ChatGPT в 2022 году значительно ускорил эти прогнозы: чиновники и эксперты стали предрекать появление AGI в течение десятилетий или даже лет.

Кокотайло и его команда называли 2027 год датой, когда ИИ достигнет возможности «полностью автономного написания кода», хотя и оговаривались, что это «наиболее вероятное» предположение, и у некоторых из них были более отдаленные прогнозы. Теперь же появляются сомнения в неизбежности скорого появления AGI и в том, имеет ли этот термин смысл вообще.

— Многие другие люди в последний год также отодвигают свои прогнозы, осознавая, насколько неоднородна производительность ИИ, — отмечает Малкольм Мюррей, эксперт по управлению рисками ИИ и один из авторов Международного отчета о безопасности ИИ. — Чтобы сценарий вроде «ИИ 2027» реализовался, [ИИ] потребуется гораздо больше практических навыков, применимых в сложностях реального мира. Думаю, люди начинают осознавать огромную инерцию реального мира, которая задержит полные изменения в обществе.

— Термин AGI имел смысл, когда мы смотрели на него издалека, а системы ИИ были очень узкоспециализированными — играли в шахматы или в го, — говорит Генри Пападатос, исполнительный директор французской некоммерческой организации SaferAI. — Сейчас у нас есть системы, которые уже достаточно универсальны, и этот термин теряет свою значимость.

Сценарий «ИИ 2027» Кокотайло опирается на идею о том, что к 2027 году ИИ-агенты полностью автоматизируют программирование и научные разработки в сфере ИИ. Это приведет к «интеллектуальному взрыву», в ходе которого агенты будут создавать все более умные версии самих себя, а затем — в одном из возможных финалов — уничтожат всех людей к середине 2030-х годов, чтобы освободить место для новых солнечных панелей и дата-центров.

Однако в обновленном прогнозе Кокотайло и его соавторы пересмотрели ожидания того, когда ИИ сможет писать код автономно, перенеся вероятный срок с 2027 года на начало 2030-х. Новый прогноз устанавливает 2034 год как новый горизонт для появления «суперинтеллекта» и не содержит предположений о том, когда именно ИИ может уничтожить человечество.

— Похоже, дела идут несколько медленнее, чем предполагал сценарий «ИИ 2027». Наши сроки были больше, чем 2027 год, когда мы публиковали отчет, а теперь они сдвинулись еще дальше, — написал Кокотайло в соцсети X.

Создание ИИ, способного проводить исследования в области искусственного интеллекта, по-прежнему остается твердой целью ведущих профильных компаний. Генеральный директор OpenAI Сэм Альтман заявил в октябре, что получение автоматизированного ИИ-исследователя к марту 2028 года было «внутренней целью» его компании, но добавил: «Мы можем полностью провалить эту задачу».

Андреа Кастанья, исследователь политики в области ИИ из Брюсселя, отметила, что существует ряд сложностей, которые не учитываются в драматичных прогнозах по AGI:

— Тот факт, что у вас есть суперинтеллектуальный компьютер, ориентированный на военную деятельность, не означает, что вы сможете интегрировать его в стратегические документы, которые мы составляли последние 20 лет. Чем больше мы развиваем ИИ, тем яснее видим, что мир — это не научная фантастика. Мир устроен намного сложнее.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal – [email protected]
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2026 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике