Игорь Градов
Игорь Градов
9 мин
Нейросети

Comfyui controlnet

ComfyUI ControlNet позволяет точно управлять генерацией изображений в нейросети, задавая позы, контуры, глубину и другие визуальные параметры через специальные модели. Это ключевой инструмент для тех, кому нужен предсказуемый результат: не случайная картинка по текстовому запросу, а изображение с конкретной композицией, позой персонажа или архитектурной перспективой.

Comfyui controlnet

За последний год я протестировал более десятка конфигураций ControlNet в ComfyUI на реальных задачах: от генерации иллюстраций для статей до создания раскадровок. В этом гайде разбираю всё по шагам: от установки до продвинутых техник с несколькими ControlNet одновременно. Вы получите рабочие схемы (workflows), которые можно сразу применить, даже если раньше работали только с простыми текстовыми промптами.

Что такое ComfyUI ControlNet и зачем это нужно?

ComfyUI ControlNet это связка из двух технологий: нодового (узлового) редактора ComfyUI и набора моделей ControlNet, которые добавляют визуальные «подсказки» при генерации изображений. Проще говоря, вы даёте нейросети не только текстовое описание, но и картинку-ориентир: скелет позы, карту глубины, контурный рисунок. Нейросеть генерирует новое изображение, следуя этим визуальным инструкциям.

Какую проблему решает ControlNet?

ControlNet решает главную проблему генеративных нейросетей: непредсказуемость результата. Без дополнительного контроля модель Stable Diffusion может поставить руки персонажа как угодно, развернуть объект под любым углом или проигнорировать нужную композицию. Текстовый промпт просто не даёт достаточной точности для профессиональных задач.

С ControlNet вы загружаете, например, фотографию человека в нужной позе. Модель извлекает из неё скелет (OpenPose) и генерирует нового персонажа ровно в той же позиции. Или вы рисуете грубый набросок от руки, а нейросеть превращает его в детализированную иллюстрацию, сохраняя ваши линии.

  • Контроль позы: задаёте положение тела через скелетную карту (OpenPose)
  • Контроль контуров: сохраняете форму объектов через детекцию краёв (Canny, HED)
  • Контроль глубины: задаёте пространственную перспективу через карту глубины (Depth)
  • Контроль линий: превращаете наброски в готовые изображения (Scribble, Lineart)
  • Контроль сегментов: управляете зонами изображения через цветовую карту (Seg)
Ключевое правило

ControlNet не заменяет текстовый промпт, а дополняет его. Лучшие результаты получаются при сочетании точного текстового описания и подходящей карты контроля. Одно без другого работает заметно хуже.

Как установить и настроить ControlNet в ComfyUI?

Установка состоит из двух этапов: добавление вспомогательных нод и загрузка моделей ControlNet. Без моделей ноды работать не будут, без нод вы не сможете подключить модели к рабочему процессу. Оба компонента обязательны.

Какие файлы нужно скачать?

Для работы потребуются файлы моделей ControlNet, совместимые с вашей версией Stable Diffusion. Модели для SD 1.5 и SDXL различаются и не взаимозаменяемы. Файлы весят от 700 МБ до 2,5 ГБ каждый, поэтому скачивайте только нужные типы контроля.

  1. Установите ComfyUI Manager. Если у вас его ещё нет, клонируйте репозиторий в папку custom_nodes вашего ComfyUI и перезапустите программу. Manager упрощает установку любых расширений.
  2. Установите comfyui_controlnet_aux. Через ComfyUI Manager найдите пакет «comfyui_controlnet_aux» (автор Fannovel16) и нажмите Install. Этот пакет добавляет препроцессоры: Canny, OpenPose, Depth и другие. Без него вам придётся готовить карты контроля вручную.
  3. Скачайте модели ControlNet. Загрузите нужные файлы моделей с Hugging Face (lllyasviel/ControlNet или аналоги для SDXL). Поместите файлы в папку ComfyUI/models/controlnet/.
  4. Перезапустите ComfyUI. После перезагрузки в меню добавления нод появятся новые категории: ControlNet Apply, ControlNet Loader и препроцессоры изображений.
  5. Проверьте работоспособность. Создайте простую схему: загрузите изображение, подключите препроцессор Canny, затем ControlNet Apply. Если схема запускается без ошибок, установка выполнена правильно.
Тип моделиФайлРазмерДля чего
Canny (SD 1.5)control_v11p_sd15_canny.pth~1,4 ГБКонтуры и края объектов
OpenPose (SD 1.5)control_v11p_sd15_openpose.pth~1,4 ГБПозы людей
Depth (SD 1.5)control_v11f1p_sd15_depth.pth~1,4 ГБКарта глубины, перспектива
Lineart (SD 1.5)control_v11p_sd15_lineart.pth~1,4 ГБЧистые линии, раскраска
Canny (SDXL)diffusers_xl_canny_full.safetensors~2,5 ГБКонтуры для SDXL моделей

По нашему опыту, для большинства задач достаточно трёх моделей: Canny, OpenPose и Depth. Остальные можно добавлять по мере необходимости. Подробнее о выборе моделей для генерации читайте в нашем обзоре моделей Stable Diffusion.

Пошаговая инструкция: создаём первый рабочий процесс с ComfyUI ControlNet

Рабочий процесс (workflow) в ComfyUI строится из нод, соединённых проводами. Каждая нода выполняет одну функцию: загружает модель, обрабатывает изображение, применяет условие. Для ControlNet нужно добавить всего три дополнительных ноды к базовой схеме генерации.

Как собрать базовый workflow с Canny ControlNet?

Базовый workflow с Canny подходит для большинства задач: сохранение формы объекта, перенос композиции, стилизация фотографий. Вот пошаговая инструкция.

  1. Загрузите базовый workflow. Откройте ComfyUI, создайте стандартную схему генерации: Load Checkpoint → CLIP Text Encode (положительный и отрицательный промпты) → KSampler → VAE Decode → Save Image.
  2. Добавьте ноду Load Image. Через неё вы загрузите референсное изображение, из которого ControlNet извлечёт карту контроля.
  3. Добавьте препроцессор Canny Edge. Найдите в меню нод «Canny Edge Preprocessor» и подключите к нему выход Load Image. Настройте пороги: low_threshold от 100 до 150, high_threshold от 200 до 250. Эти значения определяют, какие контуры будут обнаружены.
  4. Добавьте ноду Load ControlNet Model. Выберите в ней скачанный файл модели Canny.
  5. Добавьте ноду Apply ControlNet. Подключите к ней: модель ControlNet из шага 4, обработанное изображение из шага 3, conditioning (положительный промпт) из CLIP Text Encode.
  6. Соедините выход Apply ControlNet с входом conditioning на ноде KSampler (вместо прямого подключения CLIP).
  7. Настройте параметр strength. Начните со значения от 0,7 до 0,85. Чем выше значение, тем строже нейросеть следует карте контроля.
  8. Запустите генерацию. Нажмите Queue Prompt и оцените результат. При необходимости корректируйте strength и пороги Canny.
  • Strength 0,3 до 0,5: мягкое влияние, нейросеть берёт общую форму, но свободна в деталях
  • Strength 0,6 до 0,8: оптимальный диапазон для большинства задач
  • Strength 0,9 до 1,0: жёсткий контроль, результат максимально близок к карте, но может выглядеть «зажато»
Рекомендация

Перед подключением ControlNet всегда просматривайте выход препроцессора отдельно. Подключите Preview Image к выходу Canny Edge Preprocessor. Если карта слишком шумная или пустая, корректируйте пороги. Это сэкономит время на повторных генерациях.

После освоения базового workflow рекомендую попробовать другие препроцессоры: OpenPose для портретов с заданной позой, Depth для пейзажей с нужной перспективой. Логика подключения одинаковая: меняется только препроцессор и файл модели.

Как использовать несколько ComfyUI ControlNet одновременно?

Несколько ControlNet в одном workflow позволяют комбинировать разные типы контроля. Например, OpenPose задаёт позу персонажа, а Canny сохраняет детали одежды. Или Depth управляет перспективой сцены, а Lineart задаёт форму архитектурных элементов.

Как подключить два и более ControlNet в одну цепочку?

Принцип прост: ноды Apply ControlNet соединяются последовательно, цепочкой. Выход conditioning первого ControlNet подаётся на вход второго. Каждый следующий ControlNet добавляет свой слой контроля поверх предыдущего.

  1. Соберите базовый workflow с одним ControlNet, как описано выше
  2. Добавьте второй Load Image с другим референсным изображением (или тем же, если нужны два типа анализа одной картинки)
  3. Добавьте второй препроцессор (например, OpenPose, если первый был Canny)
  4. Добавьте второй Load ControlNet Model с соответствующей моделью
  5. Добавьте вторую ноду Apply ControlNet. На вход conditioning подайте выход первой Apply ControlNet (не оригинальный CLIP)
  6. Выход второй Apply ControlNet подключите к KSampler
  • Суммарный strength всех ControlNet не должен превышать 1,5, иначе изображение «ломается». Если используете два контроллера, ставьте каждому от 0,5 до 0,7
  • Порядок цепочки влияет на результат. ControlNet ближе к KSampler имеет чуть большее влияние
  • Разрешение карт контроля должно совпадать с целевым разрешением генерации. Несовпадение ведёт к артефактам

По данным базы dzen.guru, наиболее популярные комбинации: OpenPose плюс Canny (для персонажей с детализированной одеждой), Depth плюс Lineart (для архитектурных визуализаций) и Depth плюс Canny (для стилизации фотографий интерьеров). Больше примеров комбинирования нейросетей вы найдёте в нашем руководстве по работе с нейросетями.

Внимание

Каждый дополнительный ControlNet заметно увеличивает потребление видеопамяти. Два ControlNet на модели SDXL требуют от 10 до 12 ГБ VRAM. Если памяти не хватает, уменьшайте разрешение генерации или используйте SD 1.5 вместо SDXL.

Преимущества и недостатки ComfyUI ControlNet

Как и любой инструмент, связка ComfyUI с ControlNet имеет сильные и слабые стороны. Понимание ограничений так же важно, как знание возможностей, потому что завышенные ожидания приводят к разочарованию.

В чём главные плюсы?

Главный плюс: точность контроля, недостижимая одним текстовым промптом. Вы перестаёте зависеть от «лотереи» генерации и получаете предсказуемые результаты.

  • Точное позирование: персонаж стоит, сидит или двигается ровно так, как вам нужно
  • Сохранение композиции: можно перерисовать фотографию в любом стиле, сохранив расположение объектов
  • Итеративная работа: нодовый интерфейс ComfyUI позволяет менять один параметр, не перестраивая всю схему
  • Воспроизводимость: сохранённый workflow с теми же сидами и настройками даёт идентичный результат
  • Комбинирование: несколько ControlNet одновременно дают сложный многослойный контроль
  • Порог входа: нодовый интерфейс пугает новичков, привыкших к Automatic1111 с его вкладками
  • Требования к VRAM: ControlNet существенно увеличивает потребление видеопамяти
  • Качество препроцессинга: результат сильно зависит от качества входного изображения. Размытая или тёмная фотография даёт плохую карту контроля
  • Настройка strength: подбор оптимального баланса между контролем и «творческой свободой» нейросети требует экспериментов
  • Совместимость моделей: не все чекпоинты одинаково хорошо работают с ControlNet, иногда приходится подбирать пары

Я убедился на практике: для задач, где важна повторяемость результата (серия иллюстраций в одном стиле, раскадровка, коммерческие проекты), ControlNet в ComfyUI окупает время на освоение. Для разовых экспериментов и быстрых набросков проще обойтись обычным текстовым промптом.

Сравнение ComfyUI ControlNet с аналогами

ControlNet можно использовать не только в ComfyUI. Популярные альтернативы: расширение для Automatic1111 Web UI, встроенные инструменты Fooocus, облачные сервисы. Каждый вариант имеет свою нишу.

ПараметрComfyUI + ControlNetAutomatic1111 + ControlNetFooocusОблачные сервисы
Гибкость настройкиМаксимальная: полный контроль через нодыВысокая: вкладка с параметрамиМинимальная: упрощённый интерфейсОграничена возможностями API
Порог входаВысокий: нужно понимать логику нодСредний: привычные вкладкиНизкий: почти без настроекНизкий: загрузил и нажал
Несколько ControlNetДа, без ограниченийДа, до 3 одновременноОграниченоЗависит от сервиса
Скорость работыВысокая при оптимизацииСредняяВысокаяЗависит от нагрузки
Потребление VRAMОптимизируемое через нодыФиксированноеОптимизированноеНе требует локального GPU
ВоспроизводимостьПолная: workflow сохраняетсяЧастичная: нужно сохранять все параметрыМинимальнаяЗависит от сервиса
  • ComfyUI: выбор для продвинутых пользователей, кому нужна максимальная гибкость и воспроизводимость
  • Automatic1111: золотая середина между гибкостью и удобством
  • Fooocus: для быстрых результатов без погружения в настройки
  • Облачные сервисы: для тех, у кого нет мощной видеокарты

Если вы только начинаете работу с генерацией изображений, инструменты на dzen.guru/tools помогут сориентироваться в выборе подходящего решения и составить промпты для первых экспериментов.

Пример

Для серии из 20 иллюстраций к статье я собрал workflow в ComfyUI с двумя ControlNet (OpenPose плюс Canny) и сохранил его как шаблон. Каждая новая иллюстрация генерировалась за от 30 до 90 секунд с предсказуемым результатом. В Automatic1111 те же настройки приходилось вводить вручную каждый раз.

Часто задаваемые вопросы (FAQ)

Какая видеокарта нужна для ComfyUI ControlNet?

Минимально потребуется видеокарта с 6 ГБ VRAM для моделей SD 1.5 и с 8 до 10 ГБ для SDXL. При использовании двух ControlNet одновременно требования возрастают. Видеокарты NVIDIA серии RTX 3060 (12 ГБ) и выше закрывают большинство сценариев. Карты AMD поддерживаются, но с ограничениями по оптимизации.

Можно ли использовать ControlNet без препроцессора?

Да, если у вас уже есть готовая карта контроля. Например, вы нарисовали скелет позы вручную или подготовили контурную карту в графическом редакторе. В этом случае загружайте готовую карту напрямую в Apply ControlNet, минуя этап препроцессинга. Главное, чтобы формат карты соответствовал ожиданиям конкретной модели ControlNet.

Почему ControlNet игнорирует мою карту контроля?

Чаще всего причина в низком значении strength (попробуйте увеличить до 0,8 или 0,9) или в неправильном подключении нод. Убедитесь, что выход Apply ControlNet идёт именно на вход conditioning ноды KSampler. Также проверьте совместимость: модель ControlNet для SD 1.5 не работает с чекпоинтами SDXL и наоборот.

Чем ControlNet отличается от IP-Adapter в ComfyUI?

ControlNet управляет структурой изображения: позой, контурами, глубиной. IP-Adapter переносит стиль и визуальные характеристики с референсного изображения. Если вам нужна конкретная поза, используйте ControlNet. Если нужен определённый стиль или «настроение» картинки, выбирайте IP-Adapter. Эти инструменты отлично работают вместе.

Где скачать готовые workflow для ComfyUI с ControlNet?

Готовые workflow доступны на сайтах OpenArt, Civitai и в официальных примерах ComfyUI на GitHub. Файлы workflow имеют формат JSON и загружаются в ComfyUI простым перетаскиванием. Начинайте с простых примеров от авторов моделей, постепенно модифицируя их под свои задачи.

Поделиться:TelegramVK
Игорь Градов
Игорь Градов

Основатель dzen.guru. Эксперт по монетизации и продвижению на Дзен. Автор курса «Старт на Дзен 2026».

Читайте также

Запуск deepseek r1 локально

Запуск deepseek r1 локально

Запуск DeepSeek R1 локально позволяет использовать мощную языковую модель с открытым исходным кодом прямо на своём компьютере, без облачных сервисов и подписок. Для этого достаточно бесплатной...

8 мин
Заработок на нейросетях

Заработок на нейросетях

Заработок на нейросетях включает создание текстов, изображений, видео и другого контента с помощью инструментов искусственного интеллекта (AI) для продажи или оптимизации работы. Это направление...

9 мин
Заменить лицо на фото нейросеть

Заменить лицо на фото нейросеть

Заменить лицо на фото нейросеть позволяет за считаные секунды: достаточно загрузить исходный снимок и фотографию с нужным лицом в один из онлайн-сервисов. Технология работает на основе генеративных...

7 мин