ЮНЕСКО: к 2028 году экспансия ИИ может сократить доходы авторов почти на четверть
В новом отчете ЮНЕСКО прогнозируются резкие финансовые потери для создателей музыки и видеоконтента, в то время как юристы заявляют, что доктрина добросовестного использования трещит по швам под натиском масштабов ИИ.
Искусственный интеллект готов откусить ощутимый кусок от мировой креативной экономики, а юридические инструменты, призванные защищать художников, уже демонстрируют свою несостоятельность.
Последний доклад ЮНЕСКО «Переосмысление политики в сфере творчества» (Re|Shaping Policies for Creativity) — глобальное мониторинговое исследование, основанное на данных из более чем 120 стран, — прогнозирует, что к 2028 году генеративный ИИ может спровоцировать падение мировых доходов музыкальных авторов на 24%, а создателей аудиовизуального контента — на 21%. Это произойдет по мере того, как сгенерированный ИИ контент будет расширять свое присутствие и конкурировать с произведениями, созданными человеком.
Ишита Шарма, управляющий партнер юридической фирмы Fathom Legal, считает, что эти прогнозы «значительно усиливают нормативные аргументы в пользу пересмотра рамок авторского и смежных прав». Она добавила, что дебаты сместились из плоскости абстрактных инноваций в плоскость «распределительного дисбаланса», когда системы ИИ извлекают ценность из защищенных произведений «в огромных масштабах и без соразмерной компенсации».
Это критически важно, поскольку творцы все больше зависят от цифровых каналов, которые одновременно и прибыльны, и нестабильны.
ЮНЕСКО выяснила, что цифровые доходы теперь составляют 35% заработка авторов (по сравнению с 17% в 2018 году), даже при том, что государственное финансирование культуры в мире остается ниже 0,6% ВВП. Это изменение сделало авторов более уязвимыми к нарушениям прав интеллектуальной собственности, в то время как мощь платформ и непрозрачные системы курирования контента (алгоритмы рекомендаций) вытесняют менее известных художников на обочину.
Шарма отметила, что «существующие доктрины добросовестного использования (fair use) и добросовестного поведения (fair dealing) выглядят все более натянутыми в контексте обучения ИИ и копирования результатов». По ее словам, эти доктрины создавались для оценки «человеческого, ситуативного и преобразующего использования, а не для массового поглощения огромных массивов защищенных авторским правом данных ради разработки коммерческих моделей».
Даже если обучение нейросетей подается как преобразующее (трансформативное) действие, использование результатов, которые выступают заменителями оригинальных работ, «усложняет анализ», часто создавая неопределенность, играющую на руку крупным технологическим компаниям.
В отчете ЮНЕСКО также отмечены структурные пробелы, которые могут усугубить эти потери, включая цифровое неравенство в навыках (67% в развитых странах против 28% в развивающихся) и ограниченные возможности государств по измерению потребления цифрового культурного продукта.
Для авторов, чей стиль или голос копируется нейросетями, средства правовой защиты остаются «фрагментарными и несовершенными», говорит Шарма. Это связано с тем, что авторское право защищает конкретное выражение идеи, а не «стиль», в то время как иски о праве на публичность и ложной поддержке (создание впечатления, что автор одобрил работу) рассматриваются по-разному в разных юрисдикциях. Это подогревает призывы к созданию более четких механизмов защиты, сфокусированных на вознаграждении авторов.
Вопрос о том, кто выигрывает от роста ИИ, активно оспаривается в судах.
OpenAI и другие ИИ-компании сталкиваются с растущим числом исков о нарушении авторских прав от писателей и издателей, заявляющих о нелицензионном скачивании книг и методах обучения моделей. Недавно судья в Нью-Йорке разрешил продолжить рассмотрение ключевых претензий о нарушении прав в рамках объединенного судебного процесса.
Издатели также присоединились к разбирательствам против Google, утверждая, что компания копировала книги без разрешения для обучения своего ИИ Gemini. При этом в похожих делах об обучении на книгах судьи присудили компаниям Meta и Anthropic частичные победы, опираясь на доктрину добросовестного использования.
В Голливуде более 500 сценаристов, актеров и технологов поддержали «Коалицию создателей по ИИ» (Creators Coalition on AI), призывая к введению обязательных стандартов, регулирующих обучение систем ИИ и компенсацию авторам.
В то же время часть технологического сектора инвестирует в адаптацию. Google объявил о вложении 2 миллионов долларов в Институт Сандэнс для обучения более 100 000 творцов базовым навыкам работы с ИИ, позиционируя ИИ-грамотность как базовую компетенцию для современного творчества.
1. Fair Use («Добросовестное использование»)
Это ключевой термин статьи. В законодательстве США (и ряда других стран) это лазейка, позволяющая использовать чужой контент без разрешения автора при соблюдении определенных условий (например, для обучения, критики, пародии или новостей).
- Проблема: Техногиганты утверждают, что «скармливание» миллионов книг и картин нейросети — это обучение (а значит, Fair Use).
- Контраргумент авторов: Нейросети не просто учатся, они создают конкурирующий продукт, который отбирает у авторов хлеб. Закон просто не был рассчитан на такие масштабы «поглощения» данных.
2. Защита «стиля» vs Защита «конкретного выражения»
Это очень тонкий юридический момент.
- Если вы нарисуете Микки Мауса — вас засудит Disney, так как персонаж защищен.
- Но если вы попросите Midjourney нарисовать «мышонка в стиле мультфильмов Disney 30-х годов» — это серая зона. Авторское право защищает конкретную картину, но обычно не защищает художественный стиль. Именно поэтому художники сейчас так уязвимы перед ИИ, который может копировать их манеру, не нарушая закон формально.
3. Право на публичность (Publicity Rights)
Это право человека контролировать коммерческое использование своего имени, образа или голоса.
- Пример: Скандал со Скарлетт Йоханссон и OpenAI, когда компания выпустила голосовой помощник с голосом, пугающе похожим на её голос (из фильма «Она»), хотя актриса отказалась сотрудничать.