ComfyUI для видео
Полный гайд по генерации видео на ИИ
Введение
Если вы хотите создавать видео с помощью искусственного интеллекта и не знаете, с чего начать, эта статья для вас. ComfyUI — это мощная и бесплатная программа, которая позволяет генерировать видео локально на вашем компьютере. Мы разберемся с установкой, первыми шагами и поговорим о том, как избежать типичных ошибок новичков.
Что такое ComfyUI и почему его выбирают создатели?
ComfyUI — это визуальная среда для работы с ИИ-моделями генерации изображений и видео. Главное преимущество перед веб-сервисами: вы не платите за каждую генерацию и не зависите от интернета. Программа работает полностью локально на вашем компьютере, используя вашу видеокарту для обработки.
В отличие от графических редакторов вроде Photoshop, ComfyUI работает с узлами (nodes). Каждый узел — это отдельная функция: загрузка модели, кодирование текста, настройка параметров генерации. Вы соединяете узлы в цепочку, и компьютер выполняет их последовательно. Это похоже на конструктор LEGO — сложные системы собираются из простых блоков.
Проверяем, подойдет ли вам ComfyUI: требования к оборудованию
Прежде чем начать, нужно убедиться, что ваш компьютер потянет генерацию видео. Основной фактор — видеокарта (GPU) и объем видеопамяти (VRAM).
Минимальные требования для начала:
- Видеокарта NVIDIA серии 30 или новее (RTX 3060, 3070, 3080, 4080, 4090)
- От 12 ГБ видеопамяти для базовых моделей видео
- ОЗУ (системная память): минимум 16 ГБ, желательно 32 ГБ
- Быстрый жесткий диск (SSD) для хранения моделей
Рекомендуемые конфигурации:
| Сценарий | GPU | VRAM | Что сможете делать |
|---|---|---|---|
| Новичок | RTX 3060 | 12 ГБ | Простая генерация видео, базовые модели |
| Любитель | RTX 3080 | 10-12 ГБ | Несколько видеомоделей одновременно, 768x768 |
| Профессионал | RTX 3090 / 4090 | 24 ГБ | Все модели, высокое разрешение, быстрая генерация |
⚠️ Важно: используйте видеокарты NVIDIA. AMD видеокарты работают с ComfyUI, но требуют дополнительной настройки и часто медленнее.
Установка ComfyUI: пошаговая инструкция
Процесс установки несложный, если вы не боитесь командной строки.
Скачивание ComfyUI
Перейдите на GitHub (github.com/comfyanonymous/ComfyUI) и скачайте архив. Распакуйте его в удобное место, например C:\ComfyUI или /home/username/ComfyUI.
Установка Python и зависимостей
Убедитесь, что у вас установлен Python 3.10 или выше. Откройте командную строку и перейдите в папку ComfyUI.
Команды в командной строке:
python -m venv venv
Windows: venv\Scripts\activate
Mac/Linux: source venv/bin/activate
pip install -r requirements.txt
Запуск ComfyUI
Запустите программу командой python main.py. В консоли вы увидите адрес (обычно http://127.0.0.1:8188). Откройте его в браузере.
Первый запуск
Вы должны увидеть интерфейс ComfyUI с пустым рабочим пространством. Поздравляем — установка завершена!
Знакомимся с интерфейсом ComfyUI
Когда вы впервые откроете ComfyUI, интерфейс может выглядеть устрашающе. Но давайте разберемся пошагово.
Основные части интерфейса:
- Левая панель (Nodes) — здесь находятся все доступные узлы, которые вы можете добавлять в workflow
- Центральное пространство — ваш workflow, где вы выстраиваете цепочку узлов
- Кнопка "Queue Prompt" — запускает генерацию
- Кнопка "Manager" (если установлен) — для управления моделями и расширениями
Первое правило: не бойтесь экспериментировать. Вы всегда можете нажать Ctrl+Z для отмены.
Выбор модели видео: какую выбрать новичку?
Сейчас существует несколько мощных моделей для генерации видео. Каждая имеет свои особенности.
Wan 2.2
Лучший выбор на конец 2025 года
- Самая качественная модель
- Text-to-Video и Image-to-Video
- Требует 16-24 ГБ VRAM
- 10-30 минут на генерацию
LTX Video
Самая быстрая
- Генерирует быстрее, чем воспроизведение
- До 720x1280 пикселей
- Требует 16 ГБ VRAM
- Для прототипирования
Kandinsky 5.0
Удобна для русскоязычных
- Промпты на русском языке
- Облегченная версия
- GTX 1070+
- Для экспериментов
✅ Для новичка: рекомендуем начать с Wan 2.2 — она наиболее стабильна и дает хорошие результаты «из коробки».
Скачивание моделей: где и как взять
Модели — это большие файлы (от 5 до 30 ГБ). Вам нужно скачать:
- Саму модель генерации видео (например, Wan 2.2)
- Текстовый энкодер (CLIP) — нужен для преобразования текста в «понимание» модели
- VAE (автоэнкодер) — для кодирования и декодирования видео
Скачивайте модели с Hugging Face (huggingface.co) в папку models/checkpoints/ в вашей установке ComfyUI.
Совет: используйте менеджер ComfyUI (pip install comfyui-manager), чтобы не искать модели вручную. Менеджер позволит скачать нужные файлы в один клик.
Собираем первый workflow: пошаговая инструкция
Workflow — это цепочка узлов, которые работают вместе. Давайте создадим простой workflow для генерации видео по тексту.
Загрузка модели
Кликните в пустую область, нажмите Add Node. Найдите CheckpointLoader и добавьте его. Выберите вашу модель Wan 2.2.
Текстовый энкодер
Добавьте узел CLIPTextEncode (Positive) для положительного промпта. Скопируйте его для отрицательного промпта.
Подключаем промпты
Положительный промпт:
Отрицательный промпт:
Параметры видео
Добавьте узел для настройки параметров:
- Разрешение: 768x512 или 832x480
- FPS: 25 кадров в секунду
- Кадры: 65-100 (2-4 секунды)
KSampler
Добавьте узел KSampler и установите:
- Sampling steps: 20-30
- CFG: 5-6
- Sampler: Euler
Декодирование видео
Добавьте узел VAEDecode — он преобразует внутреннее представление в видео, которое вы сможете смотреть.
Сохранение результата
Добавьте узел VHS_VideoCombine для сохранения видео. Выберите формат MP4 и место сохранения.
Запускаем генерацию!
Нажмите кнопку "Queue Prompt" и ждите. На среднем компьютере (RTX 3080) генерация обычно занимает 5-15 минут.
Как правильно писать промпты для видео
Качество генерируемого видео на 70% зависит от промпта. Ниже приведены советы для написания хороших описаний.
Структура хорошего промпта:
- Subject — главный персонаж/объект
"A young woman in red dress" - Scene — место действия
"on a rainy city street at night" - Motion — движение
"walking gracefully toward the camera"
- Camera — работа камеры
"slow zoom in, cinematic tracking shot" - Style — художественный стиль
"cinematic lighting, warm golden hour, photorealistic"
Полный пример промпта:
❌ Чего избегать:
- Не пишите "animation" если хотите реализм
- Не добавляйте "static" если хотите движение
- Не переусложняйте — 100+ слов вызывают артефакты
- Не вписывайте противоречивые стили
✅ Что поможет улучшить:
- Указывайте освещение: "soft golden light"
- Называйте съемку: "steadicam", "drone shot"
- Описывайте эмоции: "joyful", "melancholic"
- Упоминайте материалы: "wet pavement", "silk fabric"
Параметры генерации: что они означают
CFG (Classifier Free Guidance)
Контролирует, насколько строго модель следует вашему тексту.
- 2-3: творческо, может забыть промпт
- 5-6: оптимум для видео
- 8-10: точно, но менее естественно
- 12+: артефакты и искажения
Sampling Steps
Количество шагов улучшения. Больше = лучше, но медленнее.
- 10-15: быстро (2-5 мин), может быть размыто
- 20-30: оптимум (5-15 мин)
- 50+: отличное качество (20+ мин)
- 100: максимум (40+ мин)
FPS и Разрешение
- FPS 24-25: кинематографический стандарт
- FPS 30: более быстрое движение
- 512x512: быстро, экспериментирование
- 768x512: оптимум (качество + скорость)
- 1280x720: высокое качество
- 1920x1080: только для профессионалов
Рекомендуемые стартовые настройки:
Sampling Steps: 25
FPS: 25
Разрешение: 768x512
Кадры: 65 (~2.5 сек)
Типичные ошибки новичков и как их избежать
❌ "CUDA out of memory"
Ваша видеокарта не может вместить модель.
Решение:
- Уменьшите разрешение
- Снизьте количество фреймов
- Используйте облегченную версию модели
- Перезагрузите ComfyUI
❌ Видео дергается и плывет
Нестабильное качество генерации.
Решение:
- Снизьте CFG с 8-10 до 5-6
- Увеличьте sampling steps до 30
- Переформулируйте промпт
- Запустите заново (стохастичность)
❌ Не то, что я просил
Видео не соответствует промпту.
Решение:
- Переписать промпт конкретнее
- Добавить отрицательный промпт
- Понизить CFG
- Запустить заново
❌ Генерация медленная или висит
Проблемы с производительностью.
Решение:
- Проверьте нагрузку на GPU
- Уменьшите разрешение и фреймы
- Закройте другие приложения
- Обновите драйверы видеокарты
❌ Конфликты нод (красные ошибки)
Решение:
- Убедитесь, что все выходы нод подключены к правильным входам
- Проверьте, что model из CheckpointLoader подключена к KSampler
- Установите недостающие пользовательские ноды через Manager
- Перезагрузите ComfyUI
Расширенные возможности: Image-to-Video и Video-to-Video
Image-to-Video
Загружаете готовое изображение, и модель создает видео, показывающее его в движении.
Как использовать:
- Добавьте узел LoadImage
- Загрузите вашу картинку
- Снизьте CFG до 3-4
- Напишите промпт о движении
Пример: "a person looks around slowly, turns head to the right, peaceful expression"
Video-to-Video
Загружаете готовое видео, и модель переделывает его в стиле вашего промпта.
Параметры:
- CFG еще ниже (2-3)
- Sample steps меньше (15-20)
- Промпт описывает стиль и изменения
Оптимизация скорости: как генерировать быстрее
Используйте облегченные модели
Многие модели выпускают в нескольких вариантах:
- Full: полная, самая качественная
- Lite: облегченная
- FP8: сжатая, на 20-30% быстрее
Уменьшите параметры для тестирования
Генерируйте на низком разрешении (512x512) и низком CFG (3-4) для быстрого тестирования промптов. Когда результат устроит, повысьте настройки.
Используйте несколько видеокарт
Если у вас несколько GPU, ComfyUI может распределить нагрузку. Это может ускорить генерацию в 2 раза.
Быстрое хранилище
Модели весят много (10-30 ГБ). Убедитесь, что они на SSD. Это влияет на скорость загрузки перед генерацией.
Где найти помощь и дополнительные ресурсы
- GitHub ComfyUI: github.com/comfyanonymous/ComfyUI
- ComfyUI Wiki: comfyui-wiki.com
- Reddit r/comfyui: reddit.com/r/comfyui
- YouTube каналы: ищите "ComfyUI tutorial"
- Discord сообщества: обсуждение опыта
- Hugging Face: huggingface.co (модели)
Заключение: ваши первые шаги
ComfyUI кажется сложным на первый взгляд, но когда вы поймете основы, это становится увлекательно. Вот план действий:
- Установите ComfyUI на свой компьютер
- Скачайте одну модель (рекомендуем Wan 2.2)
- Создайте простой workflow по инструкции выше
- Напишите промпт для видео, которое хотите создать
- Запустите генерацию и подождите результат
- Экспериментируйте — меняйте параметры и промпты
Помните: лучше начать с небольших видео (768x512, 20-30 шагов), чтобы понять систему. Когда освоитесь, поднимайте качество.
Генерация видео на локальном компьютере — это будущее создания контента. Вам больше не нужна подписка на облачные сервисы, и вы полностью контролируете процесс. Начните прямо сейчас!
https://torg-pc.ru/catalog/rabochie-stantsii/