Игорь Градов
Игорь Градов
12 мин
Работа с изображениями

Сгенерировать картинку по фото

Сгенерировать картинку по фото можно с помощью нейросетей, которые анализируют загруженное изображение и создают новое на его основе: в другом стиле, с изменённым фоном, с добавленными элементами или полностью переработанной композицией. Генерация картинок по фото доступна через онлайн-сервисы и не требует навыков дизайна или программирования.

Сгенерировать картинку по фото

За последний год я протестировал более двадцати сервисов для генерации изображений по фото и собрал базу промптов, которые дают предсказуемый результат. В этом гайде покажу, как выбрать модель, подготовить исходник и написать промпт так, чтобы нейросеть выдала именно то, что вы задумали. Вы получите пошаговую инструкцию, сравнение инструментов и набор приёмов, которые сэкономят часы проб и ошибок.

Как сгенерировать картинку по фото?

Чтобы сгенерировать картинку по фото, нужно загрузить исходное изображение в нейросеть, описать желаемый результат текстовым промптом и запустить генерацию. Нейросеть «считывает» содержимое фотографии: позу человека, объекты, цвета, композицию. Затем на основе вашего текстового описания создаёт новое изображение, сохраняя нужные элементы оригинала.

Принцип работы строится на технологии «изображение в изображение» (image-to-image). В отличие от генерации «с нуля» по текстовому описанию, здесь фото задаёт визуальную основу. Нейросеть не просто накладывает фильтр, а перерисовывает картинку, учитывая и исходник, и ваши инструкции. Степень отклонения от оригинала регулируется параметром «сила преобразования» (strength), который есть почти во всех сервисах.

Генерация картинок по фото решает задачи, которые раньше требовали работы дизайнера или иллюстратора. Вот основные сценарии:

  • Стилизация: превращение фотографии в акварель, аниме, масляную живопись, пиксель-арт
  • Замена фона: перенос объекта с фото в другую обстановку
  • Дорисовка (inpainting): замена отдельных элементов на фото, сохраняя остальное
  • Расширение кадра (outpainting): нейросеть «додумывает», что находится за границами снимка
  • Вариации: создание нескольких версий одной и той же сцены с разным настроением или деталями

Важно понимать: результат зависит не столько от мощности нейросети, сколько от качества исходного фото и точности промпта. Хорошо освещённый, чёткий снимок с понятной композицией даёт на порядок лучший результат, чем размытая картинка с мелкими деталями.

Какую модель выбрать, чтобы сгенерировать изображение?

Выбор модели зависит от задачи: стилизация, редактирование или создание вариаций. Каждая нейросеть сильна в своём направлении, и универсального решения нет. Вот ключевые модели, которые я тестировал на реальных проектах.

  • Midjourney (версия 6.1 и выше): лучший выбор для художественной стилизации. Отлично работает с портретами, пейзажами, концепт-артом. Принимает изображение как референс через ссылку
  • DALL-E 3 (через ChatGPT): удобен для тех, кто уже пользуется ChatGPT. Хорошо понимает сложные текстовые описания на русском языке. Сильная сторона: точная работа с текстом на изображениях
  • Stable Diffusion (SDXL, SD 3.5): бесплатная модель с открытым кодом. Максимум контроля: можно настроить каждый параметр. Требует больше времени на освоение
  • Flux: новая модель, быстро набирающая популярность. Сильна в фотореалистичной генерации и точной передаче деталей с исходного фото
  • Kandinsky (от Сбера): русскоязычная модель, бесплатная, работает без VPN. Хорошо подходит для быстрых задач и экспериментов

Как выбрать между бесплатными и платными моделями?

Бесплатные модели (Kandinsky, Stable Diffusion через онлайн-сервисы) подходят для знакомства с технологией и простых задач. Платные (Midjourney, DALL-E 3) дают более стабильный результат и экономят время за счёт меньшего количества неудачных попыток. По нашему опыту, для регулярной работы с контентом платная подписка окупается уже на второй неделе за счёт скорости.

Подробнее о том, как составлять текстовые описания для разных моделей, читайте в нашем руководстве по промптам.

Как создать картинку с текстом?

Создать картинку с читаемым текстом долго оставалось слабым местом нейросетей, но с 2025 года ситуация кардинально изменилась. DALL-E 3 и Midjourney v6+ уверенно генерируют изображения с текстовыми элементами: вывесками, заголовками, надписями на предметах. Ключевое условие: текст нужно указывать в промпте в кавычках, на английском языке.

Если вам нужна надпись на русском языке, работающий подход выглядит так:

  1. Сгенерируйте картинку с английским текстом-заглушкой в нужном месте
  2. Скачайте результат и замените текст в любом графическом редакторе (Canva, Figma, даже встроенный редактор телефона)
  3. Или используйте функцию inpainting: замаскируйте область с текстом и попросите нейросеть вписать нужные слова

При работе с текстом на изображениях есть несколько правил, которые повышают качество:

  • Короткие надписи: одно-два слова генерируются значительно точнее, чем длинные фразы
  • Крупный размер: чем больше текст относительно картинки, тем меньше ошибок в буквах
  • Указание шрифта: «bold sans-serif font», «handwritten script» помогают нейросети понять стиль
  • Контрастный фон: светлый текст на тёмном фоне (или наоборот) генерируется чище
Рекомендация

Если текст на картинке критически важен (логотип, слоган, заголовок для обложки), генерируйте изображение без текста, а надпись добавляйте вручную. Это надёжнее и быстрее, чем перегенерировать картинку десять раз.

Пошаговая инструкция: как сгенерировать картинку по фото

Эта инструкция работает для большинства сервисов с функцией image-to-image. Конкретные названия кнопок могут отличаться, но логика одинаковая.

  1. Подготовьте исходное фото. Выберите чёткий снимок с хорошим освещением. Разрешение: от 1024×1024 пикселей. Обрежьте лишнее заранее, чтобы нейросеть фокусировалась на нужном объекте
  2. Выберите сервис и загрузите фото. Откройте нейросеть (например, Midjourney, Leonardo.ai, Stable Diffusion через веб-интерфейс). Найдите функцию image-to-image или «загрузить референс»
  3. Напишите промпт. Опишите, что хотите получить: стиль, настроение, изменения. Пример: «portrait in watercolor style, soft lighting, pastel colors, detailed face». Чем конкретнее описание, тем предсказуемее результат
  4. Настройте параметры. Установите силу преобразования (strength): от 0.3 до 0.5 для лёгкой стилизации, от 0.6 до 0.8 для значительных изменений. Выберите соотношение сторон и количество вариантов
  5. Запустите генерацию и оцените результат. Посмотрите все варианты. Если результат близок к желаемому, используйте функцию upscale для увеличения разрешения. Если нет, скорректируйте промпт или силу преобразования
  6. Доработайте. При необходимости используйте inpainting для исправления отдельных областей. Или запустите повторную генерацию с уточнённым описанием
Ключевое правило

Не пытайтесь получить идеальный результат с первой попытки. Генерация по фото, итеративный процесс. Обычно нужно от двух до пяти попыток с корректировкой промпта, чтобы выйти на нужное качество.

Преимущества и недостатки генерации картинок по фото

Генерация изображений по фото через нейросеть открывает возможности, которые раньше требовали профессиональных навыков и дорогого софта. Но у технологии есть и ограничения, о которых важно знать до начала работы.

Что получаете?

  • Скорость: результат за секунды вместо часов работы дизайнера
  • Доступность: не нужны навыки рисования, Photoshop или специальное образование
  • Вариативность: десятки стилей и вариантов из одного фото
  • Стоимость: бесплатно или от нескольких долларов в месяц вместо оплаты фрилансера
  • Контроль: исходное фото задаёт основу, поэтому результат предсказуемее, чем генерация «с нуля»
  • Нестабильность: одинаковый промпт может давать разные результаты при каждом запуске
  • Проблемы с деталями: руки, пальцы, мелкий текст, симметричные объекты часто генерируются с ошибками
  • Авторские права: юридический статус сгенерированных изображений пока неоднозначен в разных юрисдикциях
  • Зависимость от исходника: плохое фото на входе гарантирует плохой результат на выходе
  • Этические ограничения: большинство сервисов блокируют генерацию по фото реальных людей без их согласия

Вывод простой: технология отлично справляется с задачами уровня «быстро и хорошо», но для уровня «идеально и точно по ТЗ» часто нужна ручная доработка.

Сравнение популярных сервисов для генерации по фото

Чтобы проще выбрать инструмент под свою задачу, собрал сравнение ключевых характеристик сервисов, которые тестировал лично. Данные актуальны на момент написания статьи.

СервисImage-to-imageРусский язык промптовБесплатный доступЛучше всего для
MidjourneyДа (через референс)ЧастичноНетХудожественная стилизация
DALL-E 3 (ChatGPT)ДаДаОграниченноТекст на картинках, иллюстрации
Stable DiffusionДа (полный контроль)Через переводДа (open source)Тонкая настройка, пакетная обработка
Leonardo.aiДаЧастичноДа (от 100 до 150 генераций в день)Быстрый старт, удобный интерфейс
KandinskyДаДаДаРабота без VPN, простые задачи
Flux (через ComfyUI)ДаЧерез переводДа (open source)Фотореализм, точность деталей

По нашему опыту, для первого знакомства с технологией лучше всего подходят Leonardo.ai (интуитивный интерфейс) и Kandinsky (полностью на русском). Для серьёзной работы с контентом: Midjourney или DALL-E 3.

Примеры использования: для чего генерируют картинки по фото?

Генерация картинок по фото применяется не только «для красоты». Вот реальные сценарии, которые встречаются чаще всего среди авторов и предпринимателей.

  • Обложки для блога и соцсетей: загружаете фото продукта, получаете стилизованную иллюстрацию для поста. Уникальная картинка вместо стокового фото за пару минут
  • Превью для видео: фото из ролика превращается в яркую, привлекающую внимание обложку с нужным настроением
  • Визуализация интерьера: фото комнаты загружается в нейросеть с описанием нового стиля, и вы видите, как будет выглядеть ремонт
  • Персональные аватары: создание стилизованного портрета из обычной фотографии для профиля, визитки, сайта
  • Прототипы товаров: фото существующего продукта трансформируется в визуализацию нового дизайна, цвета, упаковки
Пример

Автор Дзен-канала о путешествиях загружает свои фото из поездок и генерирует иллюстрации в стиле винтажных открыток. Каждый пост получает уникальную обложку, которую невозможно найти на стоках. По данным базы dzen.guru, посты с такими обложками получают больше кликов, чем с обычными фотографиями.

Если вы ведёте канал на Дзене, обратите внимание на наш обзор нейросетей для контент-мейкеров где разобраны инструменты именно под задачи авторов.

Советы и лайфхаки для качественной генерации

Разница между «нейросеть выдала ерунду» и «получилось с первого раза» часто сводится к нескольким простым приёмам. Вот что реально работает по результатам тестов.

  • Описывайте результат, а не процесс. Вместо «нарисуй красиво» пишите конкретно: «oil painting, warm lighting, autumn palette, detailed textures». Нейросеть работает с описанием конечного изображения
  • Используйте негативный промпт. Укажите, чего не должно быть: «no text, no watermark, no blurry, no extra fingers». Это отсекает типичные артефакты
  • Начинайте с низкой силы преобразования. Поставьте strength на 0.3 и постепенно увеличивайте. Так вы поймёте, при каком значении нейросеть начинает «терять» исходное фото
  • Генерируйте пакетами. Запрашивайте по четыре варианта за раз. Из пакета почти всегда можно выбрать один удачный результат
  • Сохраняйте seed удачных генераций. Параметр seed (зерно генерации) позволяет воспроизвести похожий результат с изменённым промптом
  • Обрезайте фото перед загрузкой. Если нужен портрет, обрежьте до плеч. Если продукт, уберите отвлекающий фон. Чем меньше «шума» на входе, тем чище результат
  • Добавляйте стилевые референсы в промпт. «In the style of Studio Ghibli», «like a National Geographic photo», «Wes Anderson color palette» дают нейросети конкретные ориентиры
  • Промпт на английском работает точнее. Даже если сервис поддерживает русский, английский язык описания обычно даёт более предсказуемый результат, потому что модели обучены преимущественно на английских текстах

Промпты для генерации можно собирать и переиспользовать. На dzen.guru есть инструменты для работы с промптами которые помогают структурировать описания и не забывать важные параметры.

Какие ошибки допускают при генерации и как их избежать?

Большинство разочарований при работе с нейросетями связаны с несколькими повторяющимися ошибками. Разберём каждую и дадим конкретное решение.

  1. Слишком общий промпт. «Сделай красивую картинку из моего фото» не работает. Нейросети нужна конкретика: стиль, цветовая палитра, освещение, детали. Решение: используйте шаблон «стиль + объект + освещение + цвета + настроение»
  2. Загрузка некачественного исходника. Размытые, тёмные, сильно сжатые фото дают мутный результат. Решение: минимальное разрешение от 1024 пикселей по длинной стороне, хорошее освещение
  3. Максимальная сила преобразования сразу. При strength 0.9 и выше нейросеть практически игнорирует исходное фото. Решение: начинайте с 0.3 и увеличивайте с шагом 0.1
  4. Игнорирование негативного промпта. Без него нейросеть может добавить водяные знаки, лишние конечности, размытие. Решение: всегда добавляйте базовый негативный промпт
  5. Одна попытка на всё. Генерация одного варианта и разочарование. Решение: планируйте от трёх до пяти итераций с корректировкой промпта
Внимание

Не загружайте чужие фото для генерации изображений с лицами реальных людей. Большинство сервисов запрещают это в правилах использования, а в ряде стран это нарушает законодательство о персональных данных.

Как подготовить фото для генерации?

Правильная подготовка исходного фото экономит время и кредиты генерации. Вот чеклист, который стоит пройти перед каждой загрузкой.

  • Разрешение: от 1024×1024 пикселей. Слишком маленькие фото нейросеть «додумывает», что снижает качество
  • Формат: PNG или JPEG. PNG предпочтительнее, если важны чёткие границы объектов
  • Обрезка: уберите всё лишнее. Основной объект должен занимать от 50% до 80% кадра
  • Фон: если цель, стилизовать объект, простой фон (однотонный или размытый) даёт лучший результат
  • Освещение: равномерное, без жёстких теней на лице или объекте. Естественный свет работает лучше всего

Если исходное фото не идеально, можно предварительно улучшить его через сервисы апскейла (увеличения разрешения). Некоторые нейросети (Leonardo.ai, Topaz) делают это автоматически перед генерацией.

Бесплатно или по подписке: что выбрать?

Бесплатные сервисы подходят для экспериментов, платные окупаются при регулярной работе. Вот конкретные ориентиры для принятия решения.

  • Нужно до пяти картинок в неделю: хватит бесплатного тарифа Leonardo.ai или Kandinsky
  • Нужно от десяти до тридцати картинок в неделю: подписка на Midjourney (базовый план) или ChatGPT Plus с DALL-E 3
  • Нужна пакетная обработка или уникальный стиль: Stable Diffusion или Flux локально (бесплатно, но требует видеокарту с памятью от 8 ГБ)

По нашему опыту, авторы контента чаще всего останавливаются на связке: DALL-E 3 для быстрых задач + Midjourney для художественных. Это покрывает от 80% до 90% потребностей без переплаты за несколько подписок.

Какие тренды генерации по фото ожидать?

Технология генерации изображений по фото развивается стремительно. Несколько направлений, которые уже меняют подход к работе с визуальным контентом.

  • Видео из фото: модели вроде Runway Gen-3 и Kling уже генерируют короткие видеоролики из статичных фотографий. Качество растёт с каждым обновлением
  • Сохранение идентичности (IP-Adapter): технологии, которые позволяют сохранять лицо конкретного человека при полной смене стиля и окружения
  • Мультимодальные промпты: описание результата не только текстом, но и голосом, скетчем, комбинацией нескольких фото
  • Интеграция в привычные инструменты: генерация по фото уже встроена в Canva, Adobe Photoshop, Figma. Отдельные сервисы перестают быть нужны для простых задач

Главный тренд: порог входа продолжает снижаться. То, что год назад требовало знания ComfyUI и настройки пайплайнов, сейчас делается одной кнопкой в Canva или ChatGPT.

Юридические аспекты: можно ли использовать сгенерированные картинки?

Использовать сгенерированные по фото картинки для личных и коммерческих целей можно, но с оговорками. Правила зависят от сервиса и юрисдикции. Вот что важно знать.

  • Права на результат: большинство платных сервисов (Midjourney, DALL-E 3) передают права на сгенерированное изображение пользователю при платной подписке
  • Бесплатные тарифы: часто результат публикуется под открытой лицензией или остаётся собственностью сервиса. Читайте условия использования
  • Фото реальных людей: генерация по фото человека без его согласия может нарушать законы о персональных данных и о защите изображения гражданина
  • Логотипы и бренды: нейросеть может случайно воспроизвести элементы известных брендов. Проверяйте результат перед коммерческим использованием

Общее правило: если используете сгенерированное изображение в коммерческих целях (реклама, продажа, оформление платного продукта), убедитесь, что условия сервиса это разрешают, и сохраняйте историю генерации как доказательство авторства.

Часто задаваемые вопросы (FAQ)

Можно ли сгенерировать картинку по фото бесплатно?

Да, бесплатно генерировать картинки по фото позволяют Kandinsky (от Сбера), Leonardo.ai (ограниченное количество генераций в день) и Stable Diffusion через открытые веб-интерфейсы. Качество бесплатных инструментов заметно выросло за последний год и подходит для большинства задач авторов контента. Ограничения обычно касаются количества генераций и разрешения итоговой картинки.

Какой формат фото лучше загружать для генерации?

Лучший формат для загрузки: PNG с разрешением от 1024×1024 пикселей. PNG сохраняет чёткие границы объектов без артефактов сжатия. JPEG тоже подходит, но при высоком уровне сжатия нейросеть может «додумать» шумы и размытие. Старайтесь загружать фото с хорошим освещением и минимумом отвлекающих деталей на фоне.

Почему нейросеть выдаёт совсем не то, что описано в промпте?

Основная причина: слишком общий или противоречивый промпт. Нейросеть интерпретирует текст буквально, и описание «красивая картинка в хорошем стиле» не содержит конкретных инструкций. Используйте шаблон: стиль + объект + освещение + цветовая палитра + настроение. Также проверьте силу преобразования (strength): при слишком высоком значении исходное фото может полностью игнорироваться.

Сколько времени занимает генерация одной картинки?

Генерация одного изображения занимает от 10 до 60 секунд в зависимости от сервиса, разрешения и нагрузки на серверы. Midjourney обычно выдаёт четыре варианта за 30 секунд. DALL-E 3 через ChatGPT генерирует за 15 секунд. Локальная установка Stable Diffusion на мощном компьютере позволяет получить результат за 10 секунд, но настройка требует времени.

Можно ли сгенерировать картинку по фото для коммерческого использования?

Да, при наличии платной подписки большинство сервисов разрешают коммерческое использование. Midjourney, DALL-E 3, Leonardo.ai предоставляют коммерческие права на платных тарифах. Важно: не используйте фото реальных людей без их согласия и проверяйте, что на сгенерированном изображении нет случайно воспроизведённых товарных знаков или логотипов.

Поделиться:TelegramVK
Игорь Градов
Игорь Градов

Основатель dzen.guru. Эксперт по монетизации и продвижению на Дзен. Автор курса «Старт на Дзен 2026».

Читайте также

Живое фото онлайн бесплатно без регистрации на русском

Живое фото онлайн бесплатно без регистрации на русском

Живое фото онлайн бесплатно без регистрации на русском можно создать за пару минут с помощью нейросетей, которые анимируют статичные снимки прямо в браузере. Достаточно загрузить изображение, выбрать...

7 мин
Живое фото сделать онлайн

Живое фото сделать онлайн

Живое фото сделать онлайн можно с помощью нейросетей, которые анализируют статичное изображение и добавляют к нему реалистичное движение: поворот головы, моргание, колыхание волос или фона. Для этого...

8 мин
Заменить на фото лицо онлайн бесплатно

Заменить на фото лицо онлайн бесплатно

Заменить на фото лицо онлайн бесплатно можно за считаные секунды с помощью нейросетей, которые автоматически распознают черты и переносят их на другой снимок. Для этого не нужны навыки работы в...

7 мин