Привет, меня зовут Даниэль, я специализируюсь на n8n-автоматизациях. Недавно мы решали задачу по массовому производству видеоконтента и реализовали пайплайн, который полностью исключает человека из рутины. Речь идет о связке генеративных сценариев и новой модели Sora.
Ниже я разберу архитектуру этого решения. Мы добились того, что себестоимость одного готового к публикации видео составляет около $0.15. Сам файл workflow для n8n, чтобы вы не собирали его с нуля, можно скачать здесь.
Справка: Если кратко, контент-завод – это автоматический процесс для производства большого количества контента (видео, посты, статьи и т.д.). Этот контент можно монетизировать в соц.сетях, либо же приводить дешевых лидов в бизнес.
Взглянув на схему нашего процесса, можно выделить 5 ключевых узлов. Главная ошибка новичков — пытаться заставить GPT «придумать что-то вирусное» с нуля. Это путь к скучному контенту. Мы пошли по пути «контролируемого хаоса».
Вместо того чтобы мучить нейросеть просьбами «придумай идею», мы используем жестко заданные массивы данных в ноде Code. В скрипте зашиты три массива, которые можно расширять и обновлять:
Actions: «skydiving», «meditating», «playing guitar».
Subjects: «cyberpunk samurai», «giant marshmallow man», «majestic dragon».
Settings: «neon-lit Tokyo alley», «minecraft world», «Studio Ghibli landscape».
Скрипт случайно комбинирует эти параметры, создавая странные, но визуально интересные сетапы, например: «Cyberpunk samurai meditating in a forest made of candy». Только после этого в дело вступает Prompt Agent (на базе LangChain). Он получает эту «сырую» комбинацию и превращает её в детализированный кинематографический промт. Мы используем модель z-ai/glm-4.5-air через OpenRouter, так как она дешевая и отлично понимает визуальные стили, не уходя в цензуру, как GPT-4.
Важный нюанс: В ноде Formatting мы чистим вывод модели регулярками — убираем звездочки, лишние переносы строк и кавычки. Sora 2 чувствительна к чистоте JSON-пейлоада, и лишний символ может сломать API-запрос.
Официальный доступ к Sora API всё ещё ограничен или дорог для массовых тестов. В этом воркфлоу мы используем шлюз api.kie.ai. В ноде HTTP Request мы отправляем POST-запрос с параметрами:
model: "sora-2-text-to-video"
n_frames: 10 (оптимально для динамики, но не жрет бюджет).
aspect_ratio: "portrait" (формат 9:16 под Shorts/Reels).
remove_watermark: true (критично для белых каналов).
Это позволяет держать цену генерации в районе тех самых 15 центов.
Генерация видео — процесс небыстрый. API не отдает файл мгновенно, он возвращает taskId. Здесь мы применяем классический паттерн Polling (опрос), так как вебхуки не всегда стабильны на дешевых прокси.
Wait Node: Сценарий «засыпает» на 10 минут. Это время, достаточное для рендера сложной сцены.
Status Check: Просыпаясь, n8n делает GET-запрос recordInfo с ID задачи.
Conditional Logic: Нода If проверяет статус ответа (код 200 и наличие resultJson). Если видео не готово или ошибка — поток уходит в ветку Stop and Error. Если всё ок — парсим JSON и достаем прямую ссылку на mp4.
Получив ссылку на видео, мы не скачиваем его сразу. Сначала параллельно запускается еще один LLM-агент — Description Writer. Он получает промт, по которому создавалось видео, и генерирует короткий, кликбейтный заголовок для YouTube Shorts. Мы специально ограничили его вывод одной фразой без лишних «Here is your title», чтобы не ломать автоматизацию.
Финальный аккорд:
Скачивание: Нода HTTP Request2 забирает видеофайл в бинарном формате.
Загрузка: Нода YouTube Upload заливает ролик на канал, автоматически подставляя сгенерированный заголовок и проставляя категорию.
Весь этот процесс запускается по триггеру Schedule каждые 4 часа. Это дает 6 видео в сутки. При цене $0.15 за ролик, дневной бюджет вашего «личного телеканала» составляет меньше доллара. Человеческий фактор здесь сведен к нулю: система сама фантазирует (рандомайзер), сама снимает (Sora) и сама публикует. Вам остается только смотреть аналитику.
Сам файл n8n-workflow можно скачать здесь.
Источник


