Invoke
Fooocus-база
julparol
Пароль:
support
Логин:
Здесь вы найдете основы
по каждой вкладке и данные
по входу в нейросеть.
Мы заходим через сервис
Мы заходим через сервис
Таблица с моделями и лорами
Интерфейс
Первое, что нас встречает, — это большое окно генерации (1), где мы будем видеть сгенерированное изображение,
и окно промпта (2), где мы должны писать запрос.
Так же большую кнопочку “Generate”(3). Нажав на которую начинается генерация. Когда процесс генерации запущен, вместо кнопки генерации появляются две кнопки
Skip - пропускает единичную генерацию (4)
Skip - останавливает всю генерацию (5)
Также снизу мы видим чекбоксы “Input image”, “Enhance”
и “Advanced”, которые открывают дополнительные
вкладки с расширенными настройками генерации (6).
Пример:
Промтинг
Prompt — это запрос, которые вы отправляете ИИ,
сообщая ему, что именно хотите сгенерировать.
Важно: Все запросы принимаются на английском языке
и через запятую. Последовательность важна, нейросеть генерирует, обрабатывая запросы последовательно.
Простой шаблон по написанию promptов:
В результате получаем такой запрос и результат:
Shrek, looking away, black suit, red tie, close-up, cinematic lighting, fantasy art, digital painting, ethereal glow, vibrant colors, in office, best quality, masterpiece (1)
Вес конкретного prompt можно увеличить/уменьшить (усилить/ослабить его значимость при генерации).
Для этого, нужно его выделить, зажать клавишу ctrl и нажать стрелочку вверх (или вниз для уменьшения). Для повторной операции, достаточно просто нажать на запрос
(не выделять) и повторить процедуру – зажать клавишу
ctrl и отрегулировать стрелочками вверх/вниз.
Для примера мы увеличим силу влияния промпта
“in office”(2), чтобы на сгенерированной
картинке офис был более заметен.
Что это за предмет/персонаж
Атрибуты предмета/сущности
Ракурсы камеры / Тип съемки
Стили арта / Стиль художника / Эстетика
Цветовая схема
Окружающая среда
Степень качества
Категория:
Shrek
looking away, black suit, red tie
close-up
digital painting
vibrant colors
in an office
best quality, masterpiece
Preset
В первой вкладке “Settings” мы видим первый пункт “Preset” (1), который фактически работает как предустановка для нашей нейросети. Мы можем заменить пункт “initial” (2)
на “anime” (3), тогда все настройки изменятся — теперь генерация будет выполняться с заданной предустановкой.
Пока мы работаем в пункте “initial”,
то есть ничего не меняем.
В дальнейшем мы планируем добавить предустановки
для каждого проекта, но пока используем метаданные.
Aspect Ratios
Раскрыв эту вкладку, мы можем менять
на предустановленные разрешения
картинок и соотношение соторон для генерации.
Performance
Пункт “Performance” отвечает за качество изображения.
И количество шагов генерации
Speed - 32 шага (Стоит по стандарту, 
хорошее качество, среднее по времени)
Quality - 64 шага (Очень проработанное изображение,
долго по времени, не сильно уступает speed)
Extreme speed - 8 шагов (Мало проработанное изображение, очень быстро по времени)
Hyper-SD - 4 шага (быстро и качественно,
в сложных конструкциях ошибается)
Hyper-SD - 4 шага (быстро и качественно,
в сложных конструкциях ошибается)
На примерах мы видим генерацию по одному промту и seed. Только с разными настройками качества. Вы можете оценить качество генераций с разными шагами и методами.
Image Number
Количество генерируемых изображений на выходе
Negative Promt
Негативные запросы прописываются по тем же правилам, что и обычные.В этом поле можно (и нужно) указать то,
чего видеть в результате генерации не хотим.
Негативные промты не сильно эффективны в SDXL моделях, так что сильно на них не расчитываете
Negative Promt
Негативные запросы прописываются по тем же правилам, что и обычные.В этом поле можно (и нужно) указать то,
чего видеть в результате генерации не хотим.
Негативные промты не сильно эффективны в SDXL моделях, так что сильно на них не расчитываете
Random
Галочка стоит по-умолчанию и задает случайный
шум генерации, если ее убрать, то можно настраивать значении шума самостоятельно, изменяя поле Seed.
Seed – это ID конкретного уникального шума (порядковый номер “способа генерации”). Сняв галочку, вы увидите ID,
по которому была создана текущая картинка. Использовать один и тот же Seed бывает полезно,
если вы экспериментируете с запросом, или проверяете как работают разные лоры (настройки в разделе Model),
или просто хотите воспроизвести, то изображение, которое уже создавали ранее.
Важно - если вы не уберете галочку с “random” (Не сделаете рандомный “seed”), то будет генерироваться
одно и тоже изображение
History log
Можно смотреть историю генерацию за день,
для этого надо кликнуть на кнопку "history log"(1).
Также вы можете использовать настройки уже готовых генераций из "history log", для этого нужно нажать на кнопку "Copy to Clipboard"(2) у соответствующих генерации.
Далее вы можете просто поставить это все в поле для ввода промтов, и кнопочка генерации изменится на Load Parameters, и когда вы кликните на нее, настройки применятся. И примените для нейросети все настройки изображения с которого вы скопировали.
Важно - если вы не уберете галочку с “random” (Не сделаете рандомный “seed”), то будет генерироваться
одно и тоже изображение
Style
Это заготовленная добавка к вашему запросу, которая придаст определенный стиль для изображения. Можно включить несколько стилей одновременно.
При наведение на стиль, будем видеть пример
стиля на картинках кошек😸🐈.
Применяя стиль, мы фактически добавляем невидимые дополнительные промпты в заданом стиле.
Важно: Стиль Fooocus V2 активирует GPT-модель, улучшающую ваши запросы (Если этот стиль выбран,
то будет добавка к вашему prompt, которая по мнению
GPT-модели улучшит ваш арт).
Models
Модель - иногда называемая checkpoint files, представляет собой предварительно обученные большие файлы, предназначенные для генерации изображений общего
или определенного жанра. Это основа для генерации изображения. (Стиль генерации кардинально меняется
в зависимости от модели и базы ее обучения).
“Base Model” - основная модель,
на которой будет генерироваться изображение.
"Refiner" — это дополнительная модель для генерации, которая применяется поверх результата "Base Model".
Ползунок "Refiner Switch At" определяет, с какого момента начинается работа "Refiner" и когда прекращается работа "Base Model". Если ползунок установлен на 0.95, то "Refiner" начнет работу только на последних 5% процесса генерации и подмешает стиль модели, указанной в "Refiner".
Если же ползунок установлен на 0.3, то "Refiner" доработает последние 70% процесса. Этот инструмент хорошо подходит для уточнения деталей непосредственно
во время генерации.
LoRAs
LoRA — это небольшие обученные модели со своим стилем, которые вносят дополнительные изменения в генерацию изображений и используются вместе со стандартными моделями.
По факту, это контролируемая добавка в стиль генерации, для изменений необходимо отрегулировать ползунок weight. Оптимальные значения параметра weight находятся
в районах 0 до 1.4, но для каждой LoRA они индивидуальны.
Можно смешивать до 5 LoRA единовременно.
Создавая совсем интересные комбинации.
Важно: по умолчанию при запуске нейросети включены три стандартных стиля: Fooocus Sharp, Fooocus V2 и Fooocus Enhance. Их необходимо отключить, так как эта надбавка
к промпту мешает работе Loras.
Image Sharpness
Guidance Scale- Настройка отвечает за то, насколько сильно нейросеть должна пытаться следовать запросу, высокое значение приведет к артефактам (баги/кривость
в изображении), а на низком все будет блеклое (2).
Смотрите рекомендуемое значение Guidance Scale (CFG)
в описании модели, или оставляйте по-умолчанию

(Guidance Scale = 4).
Image Sharpness - Настройка отвечает за добавочный шум при создании изображения, чем больше шума, тем больше деталей будет на вашем изображении, но избыток шума может привести к артефактам и замусоренности, это отлично видно на скрине ниже (1). 
Рекомендованное значение: 5-7.
Developer Debug Mode
Продвинутые настройки нейросети
— Debug Tools, Control, Inpaint, FreeU — не стоит изменять настройки без конкретного намерения. Подробнее
об их использовании мы разберем
на конкретных примерах в проектах.
Вариация Vary (Subtle)
Запустив эту функцию и загрузив референсное изображение, вы можете создать его вариацию, которая будет немного изменена благодаря Lora, стилям, моделям или промпту (изменения незначительные).
Также можно загрузить изображение без промпта
и просто сгенерировать похожее, чтобы избежать
нарушения авторских прав.
Либо этой функцией можно до рендерить в нужном стиле.
Вариация Vary (Strong)
Запустив эту функцию и загрузив референсное изображение, вы можете создать вариацию этого изображения (изменения будут очень сильные).
Upscale (1.5x)/ (2x) /(fast 2x)
Увеличение изображения в 1.5 или в 2 раза.
При использовании этих функций нейросеть может добавить несуществующие детали и дорабатываю изображение.
Fast 2x — стандартный upscale без доработки деталей, которых не было.
IP-adapter и ContlNet
Здесь мы можем загружать несколько изображений (до 4-х) и смешивать их с разными параметрами. Для того чтоб изменить параметры для изображений поставьте галочку
на чек-боксе “Advanced” (1)
Stop At
Параметр, обозначающий, насколько долго нейросеть ориентируется на референс и в какой момент начинает додумывать изображение.
 Если установить значение 0.3, нейросеть перестанет опираться на референс после 30% генерации и придумает оставшиеся 70% самостоятельно. Так можно контролировать насколько долго нейросети 
опираться на референс
Weight
Параметр, обозначающий, насколько сильно нейросеть будет учитывать конкретное референсное изображение.
С его помощью можно усиливать влияние одного изображения по сравнению с другими.
Режим ImagePrompt
Режим предназначен для того, чтобы считывать стиль
и содержимое с референсных изображений и генерировать на их основе новое. Также позволяет смешивать несколько изображений, комбинируя их визуальные характеристики.
Здесь увеличивая или уменьшая Stop At и Weight
можно контролировать влияние конкретного
изображения на генерацию.
Режим PyraCanny
Берёт с референсного изображения контуры
и по ним генерирует новое.
Лучше всего подходит для генерации на основе скетчей.
Тем не менее, спокойно работает
с любыми типами изображений.
Режим CPDS
Берет с референсного изображение глубину
и по ней генерирует изображение.
Хорошо подходит к объектам где хорошо считывается объём, так же можно использовать для генерации от пятна.
Главное понимайте что он считывает
изображение как карту глубины (1).
Режим FaceSwap
Вы можете подгрузить изображение, на котором хорошо видно лицо и сгенерировать изображения с этим лицом
Inpaint
После того, как загружено изображение, можно нарисовать на нем маску и написать в запросе, что нужно добавить. Метод Inpaint добавит его туда, где вы нарисовали маску (Средние изменения)
Outpaint Direction
в этом методе, можно расширять изображения с помощью кнопок Left/Right/Top/Bottom (кнопки отвечают
за направление расширения). Через prompt можно уточнить, что именно дорисовать в расширении.
Improve Detail (face, hand, eyes, etc.)
Этот режим помогает исправить мелкие недостатки нейросети, такие как лицо, руки, глаза и так далее. Нейросеть делает это очень близко к исходному изображению. (Малые изменения)
Можно добавить дополнительный промпт — “Inpaint Additional Prompt”(1). Он помогает нейросети лучше понять, что именно мы хотим исправить
или изменить на изображении.
Важно помнить: лучше дублировать Inpaint Additional Prompt в основной промпт. Иначе основной промпт может сильнее повлиять на область маски и исказить желаемый результат.
Modify Content
Modify Content (add object, change background, etc.)
Режим помогает сгенерировать изображение по маске
и описанию , и можно уточнить дополнительным описанием “Inpaint Additional Promt” (1)! (сильные изменения).
Важно помнить: лучше дублировать Inpaint Additional Prompt в основной промпт. Иначе основной промпт может сильнее повлиять на область маски и исказить желаемый результат.
Describe
Эта функция по загруженному изображению прописывает prompt, который видит (помогает понять, как видит изображение нейросеть). Можно в дальнейшем использовать для генерации похожего изображения.
Но нейросеть как мы видим может ошибаться
при считывание. Особенно если это стилизованные
или не обычные изображения.
Metadata
Вставив в поле изображение из нейросети, вы можете считать с него метаданные, которые можно потом скопировать нажав на иконку в углу (1) или сразу
применить кнопкой Apply metadata (2) для ваших
последующих генераций.
Из нашей нейросети изображения автоматически выводятся с метаданными, но нужно сохранять именно картинку локально на компьютер, а не делать скриншот,
и не делать ctrl+c (Так метаданные не сохраняются).
Enhance
В этой вкладке вы можете включить автоматическую дополнительную генерацию после основной, используя настройки из вкладки “Upscale or Variation”.
Например, можно включить автоматическое
выполнение Upscale сразу после основной генерации.
Параметр “Order of Processing”(1) отвечает
за последовательность этих операций.
Вы можете настроить, чтобы Upscale или Variation происходили до или после дополнительных генераций, указанных во вкладках #1, #2, #3(2).
#1, #2, #3
Если включите один из режимов, то можно автоматически запускать дополнительную генерацию, которая автоматически по промту в “Detection prompt”(1)
будет определять маску и на том месте генерировать
что вы укажите в “Enhancement positive prompt”(2).
В “Enhancement negative prompt”(3) указать
что не хотим видеть на генерации.
В “Detection”(4) можно указать соответствующую модель, которая будет определять конкретный объект.
SAM + GroundingDINO (по умолчанию)
Комбинация моделей, позволяющая выдавать подсказки по обнаружению и сегментировать объекты в выделенных областях. Поддерживаются три варианта: базовый (по умолчанию), большой и огромный.
u2net - Предварительно обученная модель для универсальных задач сегментации.
u2netp - Облегчённая версия модели u2net, подходящая для менее ресурсоёмких задач.
u2net_human_seg - Модель, предназначенная для сегментации людей на изображении.
u2net_cloth_seg -Модель для анализа одежды на портретах. Разделяет одежду на три категории: верхняя часть тела, нижняя часть тела и полный образ.
silueta - Аналог модели u2net с уменьшенным размером (всего 43 Мб), оптимизированный для быстрой работы.
isnet-general-use - Новая предварительно обученная модель для универсального использования.
isnet-anime - Модель с высокой точностью сегментации персонажей в аниме-стиле.