В кейсе — как обновить айдентику растущего сервиса, сохранив узнаваемость и ДНК бренда, найти сильную визуальную метафору для сложного продукта и выстроить масштабируемую систему, одинаково работающую в интерфейсах и маркетинговых коммуникациях.
В 2025 году крупнейший мировой креативный фестиваль — «Каннские львы» — оказался в центре громкого скандала, связанного с использованием генеративного ИИ. Несколько конкурсных работ были лишены наград после расследований, показавших, что ИИ-сгенерированные материалы использовались без раскрытия, а отдельные элементы были представлены как документальные или созданные человеком.
Реакция индустрии оказалась показательной: отзыв кейсов, публичные извинения агентств, уход руководителей и ужесточение правил фестиваля. Впервые на таком уровне использование ИИ стало не вопросом креатива или этики, а вопросом профессиональной ответственности агентств.
За последние два года генеративный ИИ стал важной частью повседневной работы агентств и продакшенов. Он ускоряет производство, снижает издержки и позволяет делать больше за то же время. Вместе с этим ИИ меняет не только процесс, но и саму модель взаимодействия агентства с заказчиком.
В отличие от бизнеса, который использует ИИ как внутренний инструмент, агентства отвечают не только за результат, но и за способ его производства. Именно агентство выбирает инструменты, выстраивает пайплайн и формирует ожидания клиента. В этом смысле ИИ для агентств — не инфраструктурный, а репутационный и профессиональный риск.
Генеративные модели резко усиливают асимметрию ожиданий между агентством и клиентом. Клиент по-прежнему покупает привычные обещания — уникальность, авторство, эксклюзив. При этом результат все чаще создается с помощью инструментов, которые по своей природе не гарантируют ни уникальности, ни исключительных прав. Именно в этом разрыве и возникает основная зона напряжения.
Юридические риски использования ИИ со стороны бизнеса — договорные ограничения, работа с данными, трансграничная передача персональных данных и ответственность при взаимодействии с подрядчиками — мы уже подробно разбирали в отдельном материале для РБК Компаний. В этой статье мы предлагаем посмотреть на ИИ со стороны агентств и продакшенов: что они действительно имеют право обещать клиенту, где проходят границы допустимого и почему ИИ сегодня — это не shortcut, а зона профессиональной ответственности.
Главная юридическая ошибка агентств
Ключевая ошибка агентств при работе с ИИ — путаница между тремя разными вещами: правом использования результата, правом на его защиту и эксклюзивностью.
В пользовательских соглашениях большинства ИИ-сервисов коммерческое использование результата действительно разрешено. Но это разрешение означает лишь право использовать output в коммерческих целях. Оно не превращает результат в объект исключительного права и не дает агентству права гарантировать клиенту уникальность или запретить использование похожего контента другими.
На практике агентства часто продают клиенту то, чего юридически не существует. Особенно опасным в этом контексте становится слово «эксклюзив». В традиционной продакшен-логике оно означало уникальный результат, защищаемый правами. В логике генеративного ИИ это обещание почти всегда оказывается необеспеченным.
Важно понимать: это не тонкая юридическая деталь, а вопрос профессиональной репутации. Проблемы начинаются не в момент использования ИИ, а в момент, когда клиент обнаруживает, что полученный результат нельзя защитить так, как он ожидал.
Что агентствам действительно можно делать с ИИ
Генеративный ИИ относительно безопасен для агентств там, где он используется как вспомогательный инструмент, а не как источник финального коммерческого актива, который продается клиенту как уникальный результат.
К таким сценариям относятся генерация идей и гипотез, подготовка вариантов, черновые тексты и визуалы, вспомогательные элементы и ускорение production pipeline. Во всех этих случаях ИИ работает внутри процесса, а не становится тем, за что агентство берет на себя обязательства перед клиентом.
Ключевой момент здесь — управляемость ожиданий. Использование ИИ допустимо по умолчанию, если соблюдаются три условия: результат не выходит в публичный или долгоживущий оборот без переработки, проходит редакторский и управленческий контроль и не продается как эксклюзивный или авторский продукт агентства.
То есть агентство продает свою экспертизу, мышление и ответственность за финальное решение, а не саму работу нейросетей. ИИ в таком сценарии усиливает агентство, а не подрывает его профессиональную позицию.
Что агентствам делать нельзя или крайне рискованно
К наиболее рискованным практикам относятся попытки гарантировать уникальность или оригинальность ИИ-результата, продажа ИИ-контента как объекта авторского права агентства, использование образов и likeness реальных людей без прямого согласия, а также применение ИИ без раскрытия этого факта клиенту. Во всех этих случаях агентство берет на себя обязательства, которые технологически и юридически невозможно обеспечить.
Особенно опасна ситуация, когда ИИ становится «невидимой частью» процесса. Пока результат выглядит привычно, клиент исходит из традиционной логики продакшена: если агентство сделало — значит, отвечает за уникальность, права и защиту. Когда позже выясняется, что результат был сгенерирован или частично сгенерирован ИИ, конфликт возникает не на уровне технологий, а на уровне доверия.
Важно подчеркнуть: проблема не в том, что агентства используют ИИ, а в том, что они продолжают использовать старую модель обещаний в новых условиях производства. Чем выше ставка проекта — репутационная, финансовая или публичная, — тем более опасным становится такой разрыв между реальностью процесса и ожиданиями клиента.
Разграничение прав: как правильно объяснять это клиенту
Один из самых сложных, но ключевых навыков агентства при работе с ИИ — умение корректно объяснять клиенту, какие права он получает и каких ожиданий лучше не формировать.
В базовой конфигурации агентство передает клиенту право использования результата в согласованных коммерческих целях. При этом агентство не передает право запретить другим создавать схожий контент и не может гарантировать уникальность результата, если в процессе использовался генеративный ИИ. Продукт созданный таким образом перестает быть результатом интеллектуальной деятельности и не получает охраны как объект авторских прав.
Для клиента это часто звучит непривычно. Именно поэтому здесь важна не юридическая казуистика, а корректная рамка объяснения. Агентству важно заранее проговаривать, что ценность его работы заключается не в «магическом» создании уникального объекта, а в экспертизе, концепции, редакторском отборе и ответственности за итоговое решение.
Это принципиальный вопрос для репутации. Если агентство честно фиксирует границы прав и возможностей на старте, использование ИИ не становится проблемой. Если же клиент узнает об этих ограничениях постфактум, любой формально корректный договор перестает работать как инструмент доверия.
ИИ и договор с клиентом: что агентству важно зафиксировать
1. Сам факт использования генеративного ИИ в процессе работы и его роль — как вспомогательного инструмента, а не самостоятельного «автора» результата.
2. Границы гарантий: агентство передает право коммерческого использования результата, но не гарантирует его уникальность или исключительность в случае применения ИИ.
3. Распределение рисков, связанных с условиями конкретных платформ и использованием сторонних инструментов.
Если в процессе работы используются материалы клиента, важно заранее определить, могут ли они загружаться в ИИ-сервисы, и если да — на каких условиях. Отсутствие этой фиксации создает риски не только юридические, но и репутационные: для клиента часто принципиально не само использование ИИ, а контроль над тем, куда попадают его данные.
Хорошая новость в том, что эти формулировки не требуют сложных конструкций. В большинстве случаев достаточно честно и прямо описать реальный процесс.
Дисклеймеры про ИИ: зачем они нужны и как их писать
Дисклеймер про использование ИИ — это не юридическая формальность, а инструмент управления ожиданиями клиента. Его задача — зафиксировать факт применения технологии и границы обязательств агентства, не акцентируя на этом избыточное внимание.
Хороший дисклеймер должен быть понятным, неброским и юридически нейтральным. Слишком подробные или пугающие формулировки работают против доверия и создают ощущение, что агентство заранее готовится к конфликту.
Размещать такие дисклеймеры имеет смысл там, где формируются ожидания: в договоре, в коммерческом предложении и, при необходимости, в презентациях для клиента. Принцип здесь простой: дисклеймер подтверждает уже достигнутые договоренности, а не подменяет собой разговор с клиентом.
Когда агентству лучше осознанно отказаться от ИИ
Существуют сценарии, в которых использование генеративного ИИ для агентства становится не инструментом эффективности, а источником непропорционального риска. В этих случаях отказ от ИИ — не проявление консерватизма, а профессиональное решение.
В первую очередь речь идет о брендинге и айдентике, рассчитанных на долгий срок жизни. Здесь клиент ожидает не просто рабочий результат, а актив, который можно защищать, развивать и масштабировать. Генеративный ИИ по своей природе плохо совместим с такими ожиданиями, даже если формально используется как вспомогательный инструмент.
Отдельная зона риска — high-stakes проекты, где на кону стоит репутация клиента или самого агентства: крупные PR-кампании, публичные заявления, социально и политически чувствительные темы. В этих сценариях значение имеет не только юридическая корректность, но и восприятие процесса производства результата, которое ИИ может сделать уязвимым.
Наконец, ИИ плохо сочетается с проектами, связанными с жесткими NDA и повышенными требованиями к конфиденциальности. Даже при аккуратном использовании инструментов здесь часто невозможно обеспечить тот уровень контроля и доказуемости, который ожидает клиент.
Важно подчеркнуть: отказ от ИИ в таких случаях — это не отказ от технологий вообще, а осознанный выбор в пользу управляемости и доверия. Агентство, способное объяснить, почему оно не использует ИИ в конкретном проекте, демонстрирует зрелость, а не отставание.
Вывод для агентств и продакшенов
Генеративный ИИ — это не shortcut и не универсальный способ оптимизации. Для агентств он становится новым уровнем профессиональной ответственности, который требует пересмотра привычных обещаний, договорных формулировок и коммуникации с клиентами.
Выигрывают не те, кто просто использует ИИ, а те, кто умеет честно объяснить его ограничения, корректно зафиксировать риски и управлять ожиданиями клиента на всех этапах работы. В этой модели ИИ перестает быть источником конфликтов и становится частью зрелого производственного процесса — там, где его применение осмысленно и прозрачно.
В кейсе — как обновить айдентику растущего сервиса, сохранив узнаваемость и ДНК бренда, найти сильную визуальную метафору для сложного продукта и выстроить масштабируемую систему, одинаково работающую в интерфейсах и маркетинговых коммуникациях.
Российский PR продолжает работать в условиях жесткой турбулентности. Законодательные ограничения меняют подход к выбору инструментов продвижения, аудитория становится все более избирательной к контенту, а технологии развиваются быстрее, чем рынок успевает к ним адаптироваться. Что ждет PR-индустрию в 2026 году? О главных трендах отрасли рассказывает Наталья Белкова, генеральный директор Коммуникационного агентства 4D, автор Telegram-канала «Белки и сделки».