Stable diffusion error code 128

fatal: detected dubious ownership in repository at 'D:/AI/SuperSD 2.1/stable-diffusion-webui' 'D:/AI/SuperSD 2.1/stable-diffusion-webui' is on a file system that doesnot record owne...

fatal: detected dubious ownership in repository at ‘D:/AI/SuperSD 2.1/stable-diffusion-webui’
‘D:/AI/SuperSD 2.1/stable-diffusion-webui’ is on a file system that doesnot record ownership
To add an exception for this directory, call:

    git config --global --add safe.directory 'D:/AI/SuperSD 2.1/stable-diffusion-webui'

venv «D:AISuperSD 2.1stable-diffusion-webuivenvScriptsPython.exe»
Python 3.10.9 (tags/v3.10.9:1dd9be6, Dec 6 2022, 20:01:21) [MSC v.1934 64 bit (AMD64)]
Commit hash:
Traceback (most recent call last):
File «D:AISuperSD 2.1stable-diffusion-webuilaunch.py», line 315, in
prepare_environment()
File «D:AISuperSD 2.1stable-diffusion-webuilaunch.py», line 255, in prepare_environment
git_clone(stable_diffusion_repo, repo_dir(‘stable-diffusion-stability-ai’), «Stable Diffusion», stable_diffusion_commit_hash)
File «D:AISuperSD 2.1stable-diffusion-webuilaunch.py», line 111, in git_clone
current_hash = run(f'»{git}» -C {dir} rev-parse HEAD’, None, f»Couldn’t determine {name}’s hash: {commithash}»).strip()
File «D:AISuperSD 2.1stable-diffusion-webuilaunch.py», line 65, in run
raise RuntimeError(message)
RuntimeError: Couldn’t determine Stable Diffusion’s hash: 47b6b607fdd31875c9279cd2f4f16b92e4ea958e.
Command: «git» -C repositoriesstable-diffusion-stability-ai rev-parse HEAD
Error code: 128
stdout:
stderr: fatal: detected dubious ownership in repository at ‘D:/AI/SuperSD 2.1/stable-diffusion-webui/repositories/stable-diffusion-stability-ai’
‘D:/AI/SuperSD 2.1/stable-diffusion-webui/repositories/stable-diffusion-stability-ai’ is on a file system that doesnot record ownership
To add an exception for this directory, call:

    git config --global --add safe.directory 'D:/AI/SuperSD 2.1/stable-diffusion-webui/repositories/stable-diffusion-stability-ai'

Press any key to continue . . .

and it close when i press. so i try to do what it say, like run cmd and paste:

 git config --global --add safe.directory 'D:/AI/SuperSD 2.1/stable-diffusion-webui'

cmd show:
error: wrong number of arguments, should be 2
usage: git config []

Config file location
—global use global config file
—system use system config file
—local use repository config file
—worktree use per-worktree config file
-f, —file use given config file
—blob read config from given blob object

Action
—get get value: name [value-pattern]
—get-all get all values: key [value-pattern]
—get-regexp get values for regexp: name-regex [value-pattern]
—get-urlmatch get value specific for the URL: section[.var] URL
—replace-all replace all matching variables: name value [value-pattern]
—add add a new variable: name value
—unset remove a variable: name [value-pattern]
—unset-all remove all matches: name [value-pattern]
—rename-section rename section: old-name new-name
—remove-section remove a section: name
-l, —list list all
—fixed-value use string equality when comparing values to ‘value-pattern’
-e, —edit open an editor
—get-color find the color configured: slot [default]
—get-colorbool find the color setting: slot [stdout-is-tty]

Type
-t, —type value is given this type
—bool value is «true» or «false»
—int value is decimal number
—bool-or-int value is —bool or —int
—bool-or-str value is —bool or string
—path value is a path (file or directory name)
—expiry-date value is an expiry date

Other
-z, —null terminate values with NUL byte
—name-only show variable names only
—includes respect include directives on lookup
—show-origin show origin of config (file, standard input, blob, command line)
—show-scope show scope of config (worktree, local, global, system, command)
—default with —get, use default value when missing entry

forgive my stupid head, please help.



Я столкнулся с этой серьезной ошибкой при совершении, и создал отчет об ошибке.

Я продолжаю получать эту ошибку на операциях TortoiseGit:

git не вышел чисто (код выхода 128)

я переустановил программу, перезагрузился и попытался клонировать новое РЕПО из github — ничего не работает. Я также удалил папку %appdata%Tortoise git … Я сейчас в растерянности. Любые советы о том, как действовать дальше?


1279  


14  

14 ответов:

Это, вероятно, потому, что ваш SSH ключ был скомпрометирован. Сделайте новый и добавьте его в свою учетную запись GitHub.

для меня я просто должен был добавить настроить имя пользователя Git и электронной почте с помощью следующей команды:

git config --global user.email "[email protected]"
git config --global user.name "Your Name"

отчеты git-bash
фатально: невозможно создать ‘/.git / index.замок’: файл существует.

удаление индекса.блокировка делает ошибку уйти.

Если вы используете windows 7: я пытался решить, как лучше всего это сделать безопасно, но ленивый способ-щелкните правой кнопкой мыши родительскую папку -> нажмите кнопку «Свойства» — > перейдите на вкладку «Безопасность» — > нажмите кнопку «Редактировать» — > нажмите группу, которая начинается с «Пользователи» — > установите флажок «полный контроль» -> нажмите все ОК, чтобы закрыть диалоги. Я понимаю, что это может обойти функции «безопасности» windows, но он выполняет свою работу.

в моем случае причиной сбоя стала папка в моем каталоге, названная git-репозиторием на сервере.

на win7 64:

Git-gui дает хороший ответ: предыдущий git разбился и оставил файл блокировки. Удалить вручную.
В моем случае, это было .git/ref/heads / branchname.замок.

удалить, и ошибка 128 уходит. Удивительно, что tortoisegit не дает такого простого объяснения.

удаление индекса.замок работал на меня

в моем случае, это из-за прокси. Прокси-сервер был необходим в корпоративной сети, и TortoiseGit / Git, похоже, не автоматически получает информацию из настроек Windows internet. Настройка адреса прокси-сервера решила проблему.

для меня, я попытался проверить SVN-проект с TortoiseGit. Он работал нормально, если я использовал TortoiseSVN, хотя. (Может показаться очевидным, но новички могут наткнуться на это)

в моем случае я забыл добавить git к имени respository в конце.

Я сделал git revert несколько раз, и это сработало для меня убедитесь, что вы не проверяете файлы при возврате вам нужны изменения. Спрячьте свои изменения и потяните снова.

У меня была эта же проблема и я решил ее следующим образом…

У меня установлен NVIDIA «Tegra Android Development Pack», и, похоже, у него также есть версия mysysgit.exe с ним. TortoiseGit автоматически нашел это место установки (вместо стандартной установки git) и автоматически заполнил его в меню настроек.

чтобы исправить это, перейдите в: «Настройки — > Общие» и есть поле для пути к mysysgit.исполняемый. Убедитесь, что это указывая на правильную установку.

быстрым решением было бы создать новый локальный каталог, например c:git_2014, в этом каталоге щелкните правой кнопкой мыши и выберите git Clone

убедитесь, что имя пользователя и адрес электронной почты не пустой в файле config. и попробуйте клонировать в пустой каталог. эти шаги сработали для меня.

Skip to content

  • ТВикинариум
  • Форум
  • Поддержка
  • PRO
  • Войти

ФорумXpucT2022-08-18T02:06:35+03:00

Вы должны войти, чтобы создавать сообщения и темы.

Stable Diffusion

Profile photo ofStaer
Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Цитата: Артём от 03.02.2023, 20:01
Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Это все понятно. Я уже не первые сутки тыкаюсь, во многом разобрался. Мне по сути и не нужен персонаж на всю картинку еслиб было половина занята фоном мне бы подошло. Но мне важно чтоб нарисовано было именно в максимальном разрешении по тому что мне потом ее еще апскейлить примерно до 6500 на 9750 (это минимальное нужное мне разрешение а при таком апскейле из маленьких разрешений сами понимаете детализация никудышная, а нужна кудышная)

Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Это все понятно. Я уже не первые сутки тыкаюсь, во многом разобрался. Мне по сути и не нужен персонаж на всю картинку еслиб было половина занята фоном мне бы подошло. Но мне важно чтоб нарисовано было именно в максимальном разрешении по тому что мне потом ее еще апскейлить примерно до 6500 на 9750 (это минимальное нужное мне разрешение а при таком апскейле из маленьких разрешений сами понимаете детализация никудышная, а нужна кудышная)

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Profile photo ofStaer
Цитата: Anton от 03.02.2023, 20:27
Цитата: Артём от 03.02.2023, 20:01
Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Это все понятно. Я уже не первые сутки тыкаюсь, во многом разобрался. Мне по сути и не нужен персонаж на всю картинку еслиб было половина занята фоном мне бы подошло. Но мне важно чтоб нарисовано было именно в максимальном разрешении по тому что мне потом ее еще апскейлить примерно до 6500 на 9750 (это минимальное нужное мне разрешение а при таком апскейле из маленьких разрешений сами понимаете детализация никудышная, а нужна кудышная)

Попробуй апскейлить х2, но несколько раз, внося правки на каждом шаге. В любом случае генерация сразу большого разрешения очень нетривиальная задача

Цитата: Артём от 03.02.2023, 20:01
Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Это все понятно. Я уже не первые сутки тыкаюсь, во многом разобрался. Мне по сути и не нужен персонаж на всю картинку еслиб было половина занята фоном мне бы подошло. Но мне важно чтоб нарисовано было именно в максимальном разрешении по тому что мне потом ее еще апскейлить примерно до 6500 на 9750 (это минимальное нужное мне разрешение а при таком апскейле из маленьких разрешений сами понимаете детализация никудышная, а нужна кудышная)

Попробуй апскейлить х2, но несколько раз, внося правки на каждом шаге. В любом случае генерация сразу большого разрешения очень нетривиальная задача

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Цитата: Артём от 03.02.2023, 20:35
Цитата: Anton от 03.02.2023, 20:27
Цитата: Артём от 03.02.2023, 20:01
Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Это все понятно. Я уже не первые сутки тыкаюсь, во многом разобрался. Мне по сути и не нужен персонаж на всю картинку еслиб было половина занята фоном мне бы подошло. Но мне важно чтоб нарисовано было именно в максимальном разрешении по тому что мне потом ее еще апскейлить примерно до 6500 на 9750 (это минимальное нужное мне разрешение а при таком апскейле из маленьких разрешений сами понимаете детализация никудышная, а нужна кудышная)

Попробуй апскейлить х2, но несколько раз, внося правки на каждом шаге. В любом случае генерация сразу большого разрешения очень нетривиальная задача

Я думал о том что может как то можно промтом объяснить программе сколько места нужно выделить персонажу допустим 35-40 процентов а остальное чтоб был бекграунд. Но что то подобных команд я не нашел….

Цитата: Anton от 03.02.2023, 20:27
Цитата: Артём от 03.02.2023, 20:01
Цитата: Anton от 03.02.2023, 19:57
Цитата: Артём от 03.02.2023, 19:53
Цитата: Сергей от 03.02.2023, 19:10

Артём, приветствую 🖐
Это нормально. В этом несовершенство Stable Diffusion. Это называется дабл ёбл.
В этом видео более подробно.

Жаль не помогло мне это видео. Разрешение снижать это понятно было и до, но мне то как раз нужно максимально возможное разрешение(((

нейросеть обучалась на низком разрешении, потому зачастую на высоком дублирует объекты. нет смысла генерировать на высоком. обычно генерация производится на низком разрешении, а потом делается апскейл

Это все понятно. Я уже не первые сутки тыкаюсь, во многом разобрался. Мне по сути и не нужен персонаж на всю картинку еслиб было половина занята фоном мне бы подошло. Но мне важно чтоб нарисовано было именно в максимальном разрешении по тому что мне потом ее еще апскейлить примерно до 6500 на 9750 (это минимальное нужное мне разрешение а при таком апскейле из маленьких разрешений сами понимаете детализация никудышная, а нужна кудышная)

Попробуй апскейлить х2, но несколько раз, внося правки на каждом шаге. В любом случае генерация сразу большого разрешения очень нетривиальная задача

Я думал о том что может как то можно промтом объяснить программе сколько места нужно выделить персонажу допустим 35-40 процентов а остальное чтоб был бекграунд. Но что то подобных команд я не нашел….

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Цитата: Артём от 03.02.2023, 20:58

Добрый день! Хочу пощупать SD, но у меня AMD карта (RX 580). Знаю что на винде SD работает только с ЦПУ, но исходя из вики automatic можно запустить и на линуксе. На винде есть WSL,соответственно чисто технически можно запустить и на винде и использовать карту AMD.
Пожалуйста проконсультируйте меня по вопросам:
1) Возможно ли поставить SD web ui в WSL с использованием AMD GPU. Если да — то насколько это сложно и костыльно? 
2) Все еще работает вариант с Google Collab?  И насколько он быстрее карты уровня, скажем, gtx 1060? Имеет ли он какие то ограничения в сравнении с локальным использованием в плане качества/свободы?

Добрый день! Хочу пощупать SD, но у меня AMD карта (RX 580). Знаю что на винде SD работает только с ЦПУ, но исходя из вики automatic можно запустить и на линуксе. На винде есть WSL,соответственно чисто технически можно запустить и на винде и использовать карту AMD.
Пожалуйста проконсультируйте меня по вопросам:
1) Возможно ли поставить SD web ui в WSL с использованием AMD GPU. Если да — то насколько это сложно и костыльно? 
2) Все еще работает вариант с Google Collab?  И насколько он быстрее карты уровня, скажем, gtx 1060? Имеет ли он какие то ограничения в сравнении с локальным использованием в плане качества/свободы?

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Profile photo ofPotapovS
Цитата: Сергей от 03.02.2023, 21:08

Артём, приветствую 🖐
1) Нет, невозможно.
2) В раза 4 точно. Ограничения могут быть, если круглосуточно напрягать серверы Google, могут ограничить доступ на сутки.

Артём, приветствую 🖐
1) Нет, невозможно.
2) В раза 4 точно. Ограничения могут быть, если круглосуточно напрягать серверы Google, могут ограничить доступ на сутки.

Голосуйте — палец вниз.0Голосуйте — палец вверх.1

Profile photo ofadamoroff
Цитата: Adam от 03.02.2023, 21:10
Цитата: Артём от 03.02.2023, 20:58

Добрый день! Хочу пощупать SD, но у меня AMD карта (RX 580). Знаю что на винде SD работает только с ЦПУ, но исходя из вики automatic можно запустить и на линуксе. На винде есть WSL,соответственно чисто технически можно запустить и на винде и использовать карту AMD.
Пожалуйста проконсультируйте меня по вопросам:
1) Возможно ли поставить SD web ui в WSL с использованием AMD GPU. Если да — то насколько это сложно и костыльно? 
2) Все еще работает вариант с Google Collab?  И насколько он быстрее карты уровня, скажем, gtx 1060? Имеет ли он какие то ограничения в сравнении с локальным использованием в плане качества/свободы?

Привет. Насчёт 2-го, работает и будет быстрее 1060 в 2 раза как минимум, однако гугл тебе не даст часами пользоваться, попросит купить подписку, какие-то 500 «компьютерных юнитов». Я так и не понял на сколько их может хватить, если тут есть кто покупал, делитесь.

В итоге я перешел на какой-то сервис где беру RTX A5000 24GB за 0.60$ в час и на нем делаю.
Работает по скорости почти также как у Хачатура, однако из-за того что сервера очень далеко есть задержки между нажатием мной кнопки и реакцией сервера, где-то 1-2 сек. Также как и у гугла на самом деле Но генерирует за 4-5 секунды 640х640.

Цитата: Артём от 03.02.2023, 20:58

Добрый день! Хочу пощупать SD, но у меня AMD карта (RX 580). Знаю что на винде SD работает только с ЦПУ, но исходя из вики automatic можно запустить и на линуксе. На винде есть WSL,соответственно чисто технически можно запустить и на винде и использовать карту AMD.
Пожалуйста проконсультируйте меня по вопросам:
1) Возможно ли поставить SD web ui в WSL с использованием AMD GPU. Если да — то насколько это сложно и костыльно? 
2) Все еще работает вариант с Google Collab?  И насколько он быстрее карты уровня, скажем, gtx 1060? Имеет ли он какие то ограничения в сравнении с локальным использованием в плане качества/свободы?

Привет. Насчёт 2-го, работает и будет быстрее 1060 в 2 раза как минимум, однако гугл тебе не даст часами пользоваться, попросит купить подписку, какие-то 500 «компьютерных юнитов». Я так и не понял на сколько их может хватить, если тут есть кто покупал, делитесь.

В итоге я перешел на какой-то сервис где беру RTX A5000 24GB за 0.60$ в час и на нем делаю.
Работает по скорости почти также как у Хачатура, однако из-за того что сервера очень далеко есть задержки между нажатием мной кнопки и реакцией сервера, где-то 1-2 сек. Также как и у гугла на самом деле Но генерирует за 4-5 секунды 640х640.

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Цитата: Артём от 03.02.2023, 21:11
Цитата: Артём от 03.02.2023, 20:58

Добрый день! Хочу пощупать SD, но у меня AMD карта (RX 580). Знаю что на винде SD работает только с ЦПУ, но исходя из вики automatic можно запустить и на линуксе. На винде есть WSL,соответственно чисто технически можно запустить и на винде и использовать карту AMD.
Пожалуйста проконсультируйте меня по вопросам:
1) Возможно ли поставить SD web ui в WSL с использованием AMD GPU. Если да — то насколько это сложно и костыльно? 
2) Все еще работает вариант с Google Collab?  И насколько он быстрее карты уровня, скажем, gtx 1060? Имеет ли он какие то ограничения в сравнении с локальным использованием в плане качества/свободы?

Гугл колаб скорее мертв чем жив, по крайней мере за бесплатно. Погонял пол дня и видюху отобрали из пользования, успел нагенерить пару десятокв запросов, правда жирных на максимальное разрешение… Но факт остается фактом вырубят в любой момент, тема не вечная.

Цитата: Артём от 03.02.2023, 20:58

Добрый день! Хочу пощупать SD, но у меня AMD карта (RX 580). Знаю что на винде SD работает только с ЦПУ, но исходя из вики automatic можно запустить и на линуксе. На винде есть WSL,соответственно чисто технически можно запустить и на винде и использовать карту AMD.
Пожалуйста проконсультируйте меня по вопросам:
1) Возможно ли поставить SD web ui в WSL с использованием AMD GPU. Если да — то насколько это сложно и костыльно? 
2) Все еще работает вариант с Google Collab?  И насколько он быстрее карты уровня, скажем, gtx 1060? Имеет ли он какие то ограничения в сравнении с локальным использованием в плане качества/свободы?

Гугл колаб скорее мертв чем жив, по крайней мере за бесплатно. Погонял пол дня и видюху отобрали из пользования, успел нагенерить пару десятокв запросов, правда жирных на максимальное разрешение… Но факт остается фактом вырубят в любой момент, тема не вечная.

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Голосуйте — палец вниз.0Голосуйте — палец вверх.0
Profile photo ofPotapovS
Цитата: Сергей от 03.02.2023, 21:34

vitos, переходите на Cent Browser. В нём всё как часы работает.

vitos, переходите на Cent Browser. В нём всё как часы работает.

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Цитата: vitos от 03.02.2023, 21:43
Цитата: Сергей от 03.02.2023, 21:34

vitos, переходите на Cent Browser. В нём всё как часы работает.

В нём такая же проблема, я так понял это у тех, кто заново устанавливает SD, а кто обновляет старую у тех норм. Можно ли как то скачать старую версию и обновить?

Цитата: Сергей от 03.02.2023, 21:34

vitos, переходите на Cent Browser. В нём всё как часы работает.

В нём такая же проблема, я так понял это у тех, кто заново устанавливает SD, а кто обновляет старую у тех норм. Можно ли как то скачать старую версию и обновить?

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Profile photo ofMataiShang
Цитата: Ромэо от 03.02.2023, 22:08
Цитата: Сергей от 03.02.2023, 17:51

Ромэо, отключи тогда предпросмотр на каждом 100 шаге. В том поле просто напиши 0.

удра! заработало! осталось понять, как заставить появиться Hipernetwork вот в этомсписке

Цитата: Сергей от 03.02.2023, 17:51

Ромэо, отключи тогда предпросмотр на каждом 100 шаге. В том поле просто напиши 0.

удра! заработало! осталось понять, как заставить появиться Hipernetwork вот в этомсписке

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Цитата: Эмиль от 03.02.2023, 23:48

Доброй ночи. Кто может поделиться negative promth как у XpucTа? Нашел в старом видео этот:

«Deformed, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, disgusting, poorly drawn hands, missing limb, floating limbs, disconnected limbs, malformed hands, blurry, ((((mutated hands and fingers)))), watermark, oversaturated, b&w, black and white»

Также смотрел в «Stable Diffusion – Train (супер короткая версия)» идет другой вариант. Думал заветный промт валяется в user.css XpucTа, загрузил в папку, но видимо ошибся.

Доброй ночи. Кто может поделиться negative promth как у XpucTа? Нашел в старом видео этот:

«Deformed, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, disgusting, poorly drawn hands, missing limb, floating limbs, disconnected limbs, malformed hands, blurry, ((((mutated hands and fingers)))), watermark, oversaturated, b&w, black and white»

Также смотрел в «Stable Diffusion – Train (супер короткая версия)» идет другой вариант. Думал заветный промт валяется в user.css XpucTа, загрузил в папку, но видимо ошибся.

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Profile photo oflyzzzac
Цитата: михаил от 03.02.2023, 23:57

Посмотрел новое Видео Xpusta про depthmap2mask .
Делал все точно по видео ,но почему-то рисует на контуре маски какую-то фигню.
Пробовал разную степень контрастности маски, не помогает , почти все время рисует дурацкие волосики на краю и дорисовывает не правильно контур.
Помогите пожалуйста, кто с этим же сталкивался и смог решить проблему 🙂

Посмотрел новое Видео Xpusta про depthmap2mask .
Делал все точно по видео ,но почему-то рисует на контуре маски какую-то фигню.
Пробовал разную степень контрастности маски, не помогает , почти все время рисует дурацкие волосики на краю и дорисовывает не правильно контур.
Помогите пожалуйста, кто с этим же сталкивался и смог решить проблему 🙂

Голосуйте — палец вниз.0Голосуйте — палец вверх.0

Getting stuck at this when trying to setup everything with webui-user.bat.
Any idea what’s potentially causing it?

Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug  1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: <none>
Traceback (most recent call last):
  File "D:GitHub Desktop Filesstable-diffusion-webuilaunch.py", line 130, in <module>
    git_clone("https://github.com/CompVis/stable-diffusion.git", repo_dir('stable-diffusion'), "Stable Diffusion", stable_diffusion_commit_hash)
  File "D:GitHub Desktop Filesstable-diffusion-webuilaunch.py", line 93, in git_clone
    current_hash = run(f'"{git}" -C {dir} rev-parse HEAD', None, f"Couldn't determine {name}'s hash: {commithash}").strip()
  File "D:GitHub Desktop Filesstable-diffusion-webuilaunch.py", line 55, in run
    raise RuntimeError(message)
RuntimeError: Couldn't determine Stable Diffusion's hash: 69ae4b35e0a0f6ee1af8bb9a5d0016ccb27e36dc.
Command: "git" -C repositoriesstable-diffusion rev-parse HEAD
Error code: 1
stdout: 69ae4b35e0a0f6ee1af8bb9a5d0016ccb27e36dc

stderr: ϵͳҲָ·

I have a similar issue. Everything worked fine yesterday. I’ve tried a clean install of the repo, but it didn’t help.

venv "C:FilesStableDiffusionstable-diffusion-webuivenvScriptsPython.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug  1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: <none>
Traceback (most recent call last):
  File "C:FilesStableDiffusionstable-diffusion-webuilaunch.py", line 129, in <module>
    git_clone("https://github.com/CompVis/stable-diffusion.git", repo_dir('stable-diffusion'), "Stable Diffusion", stable_diffusion_commit_hash)
  File "C:FilesStableDiffusionstable-diffusion-webuilaunch.py", line 92, in git_clone
    current_hash = run(f'"{git}" -C {dir} rev-parse HEAD', None, f"Couldn't determine {name}'s hash: {commithash}").strip()
  File "C:FilesStableDiffusionstable-diffusion-webuilaunch.py", line 54, in run
    raise RuntimeError(message)
RuntimeError: Couldn't determine Stable Diffusion's hash: 69ae4b35e0a0f6ee1af8bb9a5d0016ccb27e36dc.
Command: ";C:Program FilesGitbingit.exe;C:Program FilesGitcmd" -C repositoriesstable-diffusion rev-parse HEAD
Error code: 1
stdout: <empty>
stderr: ⠪᪠ 訡   䠩,    ⪥ ⮬.

I installed from scratch just now, couldn’t reproduce. Do custom models work?

I installed from scratch just now, couldn’t reproduce. Do custom models work?

its working fine if i manually install everything and run with python webui.py --precision full --no-half --medvram
just a bit less convenient (having to type everything) and also wondering why this happens :P

I installed from scratch just now, couldn’t reproduce. Do custom models work?

It doesn’t even get to loading models, it breaks right after you launch «webui» file.
Another curious thing is when I run «python webui.py» I get the following error:

C:FilesStableDiffusionstable-diffusion-webui_>python webui.py
Traceback (most recent call last):
  File "C:FilesStableDiffusionstable-diffusion-webui_webui.py", line 10, in <module>
    from modules import devices, sd_samplers
  File "C:FilesStableDiffusionstable-diffusion-webui_modulesdevices.py", line 3, in <module>
    import torch
ModuleNotFoundError: No module named 'torch'

But if I launch «webui-user» file, everything works fine, and I can generate images as usual.

ModuleNotFoundError: No module named ‘torch’

make sure you are in the venv when doing python webui.py
for example, open a python file inside the directory in vscode and select the right python interpreter (bottom right) for it to take effect

But if I launch «webui-user» file, everything works fine, and I can generate images as usual.

That’s what you’re supposed to do, thats what everybody does usually.

its working fine if i manually install everything and run with python webui.py —precision full —no-half —medvram
just a bit less convenient (having to type everything) and also wondering why this happens

If you set your python path in webui-user.bat will that allow you to run by clicking?

That’s what you’re supposed to do, thats what everybody does usually.

Oh, the documentation is somewhat confusing then, in wiki it says: «The installation is finished, to start the web ui, run: python webui.py», and I assumed we work with «webui» files. And it worked fine yesterday, but not today. I’ll stick to «user» file then, thanks for clarifying.

make sure you are in the venv when doing

Ah, I see, thanks.

If you set your python path in webui-user.bat will that allow you to run by clicking?

hmm no? the thing that’s not working is that it’s failing comparing the hashes from what i can tell.
and no adding the python path didn’t do anything, still the same error.

I’ve encountered this hash issue too(webui-user.bat updates taming-transformer even though it’s already the latest and says its hash is unidentifiable), thus can’t initiate the web-ui browser with webui-user.bat. The thing is, you can solve this problem just by reverting the launch.py to the previous version (2nd October).Generating images seems fine, but no guarantee it won’t break something.

I found out that for me the problem was my GIT environment variable wasn’t defined, which wasn’t a problem before as I manually installed dependencies. In webui-user.bat, I now have this line
set GIT=C:/Users//.conda/envs/qwe/Library/mingw64/libexec/git-coregit.exe

If you’re not sure where your own GIT is installed, you can run «git —exec-path» and add «git.exe» at the end.

I found out that for me the problem was my GIT environment variable wasn’t defined, which wasn’t a problem before as I manually installed dependencies. In webui-user.bat, I now have this line set GIT=C:/Users//.conda/envs/qwe/Library/mingw64/libexec/git-coregit.exe

If you’re not sure where your own GIT is installed, you can run «git —exec-path» and add «git.exe» at the end.

venv "D:Gitstable-diffusion-webuivenvScriptsPython.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug  1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: f7c787eb7c295c27439f4fbdf78c26b8389560be
Fetching updates for Taming Transformers...
Checking out commint for Taming Transformers with hash: 24268930bf1dce879235a7fddd0b2355b84d7ea6...
Traceback (most recent call last):
  File "D:Gitstable-diffusion-webuilaunch.py", line 130, in <module>
    git_clone("https://github.com/CompVis/taming-transformers.git", repo_dir('taming-transformers'), "Taming Transformers", taming_transformers_commit_hash)
  File "D:Gitstable-diffusion-webuilaunch.py", line 97, in git_clone
    run(f'"{git}" -C {dir} checkout {commithash}', f"Checking out commint for {name} with hash: {commithash}...", f"Couldn't checkout commit {commithash} for {name}")
  File "D:Gitstable-diffusion-webuilaunch.py", line 54, in run
    raise RuntimeError(message)
RuntimeError: Couldn't checkout commit 24268930bf1dce879235a7fddd0b2355b84d7ea6 for Taming Transformers.
Command: "D:/Git/mingw64/libexec/git-core/git.exe" -C repositoriestaming-transformers checkout 24268930bf1dce879235a7fddd0b2355b84d7ea6
Error code: 128
stdout: <empty>
stderr: fatal: reference is not a tree: 24268930bf1dce879235a7fddd0b2355b84d7ea6

Thanks for replying, but still cant get the latest version working.

I tried to modify the launch.py and it works.

-   stable_diffusion_commit_hash = os.environ.get('STABLE_DIFFUSION_COMMIT_HASH', "69ae4b35e0a0f6ee1af8bb9a5d0016ccb27e36dc")
+   stable_diffusion_commit_hash = os.environ.get('STABLE_DIFFUSION_COMMIT_HASH', "45bf9a6264b3507473e02cc3f9aa36559f24aca2") # Use latest commit hash

image

Having the same error

In my case, after running launcher.py, I can find files in the corresponding directory. It seems the only problem is that the command can’t get right returncode. So I just ignore this case by adding some code in launcher.py. Now everything just work fine. But you should make sure all the thing right except the returncode.

# you can find this code in line 24
if result.returncode != 0 and result.returncode != 1:

maybe you can upgrade your git version to 2.39.0

I just reinstalled Git (https://git-scm.com/download/win) here’s a link, and it works just fine


© 2022 pullanswer.com — All rights reserved.

Лонг для тех, кому интересны продвинутые возможности работы с нейросетью

Работа Gavmakes. Запрос для генерации указан у пользователя на странице

0.Что нового?

За неполный месяц, что прошел с моего первого гайда, сообщество Stable Diffusion невероятно выросло как в качестве генерируемых изображений, так и в методах работы с нейросетью. Дошла до пика и пошла на спад любовь к Грегу Рутковски и Альфонсо Мухе, животным в броне; вошли в моду изображения разных химер и вставка портрета себя любимого куда можно и нельзя через методы Dreambooth и Textual Inversion.

Появилась много сборок, работающих в онлайне — кто-то делает свои сайты, кто-то разворачивает на гугловском Colab, а одна группа вообще запустила коллективные вычисления, где ты можешь «дать погонять» свою простаивающую видеокарту всем желающим/воспользоваться чужой.

Следующее достижение, до которого, судя по всему, осталось недолго — генерация экспортируемой 3D-модели. Уже появились первые открытые репозитории на базе Stable diffusion, которые с этим справляются. 3D-моделлерам тоже пора начинать думать, на какую сторону спора вставать — «Вау, удобное подспорье для повседневных задач» или «Опасно, многих выкинет из профессии».

Whocareswhoami и Ok_Entepreneur_5833 поняли, как повторить «стиль» Midjourney даже без дополнительного обучения. Надо всего лишь… сформировать свой запрос к Stable Diffuson как » {subject}, stunning, highly detailed, 8k, ornate, intricate, cinematic, dehazed, atmospheric, (oil painting:0.75), (splash art:0.75),(teal:0.2),(orange:0.2), (by Jeremy Mann:0.5), (by John Constable:0.1),(by El Greco:0.5),(acrylic paint:0.75). Вместо {subject} — ваш желаемый объект. Весовые коэффициенты могут по-разному задаваться в зависимости от вашей сборки. Не забывайте про ограничение в 75 понятий(токенов) на 1 запрос!

Версия нейросети Stable Diffusion 1.5 с исправленными лицами так и не вышла в широкий доступ, но сообщество уже приноровилось исправлять лица с помощью прогона через CodeFormer/GFPGAN. Корявые руки с лишними пальцами все еще остаются слабым местом базовой нейросетки.

1. Что будет в этом гайде?

Прошлый гайд был про простую в установке сборку от NMKD, которая на днях получила апгрейд до версии 1.5, обзавелась must-have функцией исключения лишних деталей изображения («негативный запрос») и кучей улучшений качества жизни. Я все еще рекомендую начинать с нее, если не хочется возиться с самостоятельной установкой python, git и вы просто хотите понять базовые возможности, предоставляемые нейросетью.

В этом же гайде я буду расписывать установку и возможности сборки Automatic1111. Ее отличие — частые обновления , огромное количество функций и настроек (они появляются намного быстрее, чем я пишу этот гайд), браузерный интерфейс. Она слегка сложнее в установке и требует больше времени на освоение, но и возможностей для реализации своих фантазий в ней в несколько раз больше.

В гайде буду рассматривать все на примере своей системы (Win10, Nvidia GTX1080) и запросов, на экспертность и чувство прекрасного не претендую. Буду рад любым дополнениям и исправлениям по содержимому, особенно от тех, кто понимает, что находится «под капотом» у методов.

Здесь не будет каких-либо сложно сделанных изображений в примерах, т.к цель — показать, как тот или иной аспект сборки поможет вам реализовать ваше виденье с помощью нейросети. Ну и самому освоить весь этот зоопарк инструментов :)

Если у вас Мак с M1 — есть гайд внутри самой сборки либо сборка InvokeAI (спасибо за уточнение, Arthur Netsvetaev !). Если у вас хорошая видюха от AMD — тоже есть гайд по установке (попробуйте и скажите, работает ли). На линуксе все и так должно идти концептуально по +- тем же шагам, что описаны у меня.

2. Установка

0) Ставим Python 3.10.6. Можно и выше, но автор сборки просит тогда не донимать вопросами вида «а почему у меня не работает». У меня самого стоит более свежая 3.10.7, полет нормальный.

Во время установки нужно отметить галочкой «Add Python to Path»

1) Ставим git. Будет МНОГО разных опций во время установки; не пугайтесь и оставляйте везде варианты по умолчанию, если не знаете, про что они.

Качайте этот установщик, если у вас 64-битная версия Windows

Опционально — поставьте себе git-клиент, если не хотите работать с командной консолью. У меня стоит TortoiseGit, мне нравится. Качаете с официального сайта. Во время установки, опять же, выбирайте опции по умолчанию, если не знаете необходимых альтернатив.

Вам нужна выделенная опция

Установили git-клиент — пора выкачать с гитхаба нужную сборку. Щелкните правой кнопкой на том месте, где хотите разместить сборку (весит она сама по себе без моделей всего 1.6 мб), нажмите Git Clone. В новом окне скопируйте в URL вот это — https://github.com/AUTOMATIC1111/stable-diffusion-webui.git ,при желании поменяйте название папки в строке Directory, нажмите OK.

Когда захотите обновить сборку (стоит делать каждые дня 2-3, автор невероятно продуктивен) — нажимаете правой кнопкой по папке, выбираете TortoiseGit- Pull, проверяете, что Remote Branch = «master», нажимаете Ок

2) Качаете саму нейросеть. Например, с файлообменника (без регистрации) или официального сайта (с регистрацией). Кидаете ее в папку modelsStableDiffusion. Должно получиться так:

Почти все дополнительные нейросети — апскейлеры (повышают разрешение изображения) / исправители лиц выкачаются сами при первом их использовании, отдельно скачивать их не надо. Если у вас есть какой-то предпочтительный апскейлер на базе ESRGAN — можете закинуть его в папку modelsESRGAN.

3) Запускаем webui-user.bat в корневой папке, он сам выкачает все необходимые библиотеки. Первый запуск может занять довольно много времени. Когда все установится, вы увидите в командной строке надпись «Running on local URL: http:127.0.0.1:7860». Копируете адрес в свой любимый браузер и все готово!

2.5 Особенности установки на системы с недостатком видеопамяти и Nvidia16XX

Если у вас карта 16-ой серии или вам не хватает видеопамяти для генерации изображений, потребуется немного поправить запускаемый файл webui-user.bat.

Открываете его «Блокнотом» или другим редактором и вписываете в поле «set COMMANDLINE_ARGS=» нужные аргументы :

  • Для старших моделей 16-ой серии надо прописать —precision full —no-half . Может также потребоваться —medvram, если не будет хватать видеопамяти
  • Для других карт с 4 ГБ памяти и ниже вписываете —medvram. Если все еще жалуется, что не хватает памяти — добавляете —opt-split-attention. Если и это не помогло, пишите —lowvram —always-batch-cond-uncond —opt-split-attention
  • Ту же самую опцию —medvram можно использовать, если хочется сразу генерировать 1024*1024 изображения на картах с 6-8 ГБ памяти.

Каждая опция замедляет генерацию изображений, поэтому не торопитесь их включать без необходимости. Не забудьте сохранить файл после внесения исправлений. Про сами опции можно почитать здесь.

Пример настроек для владельцев 16XX карт

Скоро в сборку добавится генерация на процессоре и оперативке, а не видеокарте, тогда ограничения на генерацию будут только временные. Владельцы слабых (по нынешним меркам) систем пока могут воспользоваться вот этой сборкой

3. Настройки

…и это меньше половины настроек.

Настроек очень много, но можно ничего не менять и переходить к 4 разделу сразу.

После внесения желаемых изменений нужно нажать сверху «Applу Settings» и, иногда, перезагрузить все приложение.

Если вам захочется разобраться, что делает каждая настройка:

1) Always save all generated images | grids — Если не боитесь забыть сохранить удачный вариант/хочется экономить место/лень потом чистить лишнее — убирайте галку. Тогда надо будет нажимать «Save» на нужные изображения/сохранять их средствами браузера. Имхо — сетку нагенерированных изображение (grid) хранить смысла мало, ее удобно только для предпросмотра использовать

2) File format for images | grids — По умолчанию стоит формат png. Пробовал сохранять в jpeg, pdf, tiff, gif, eps — работает. psd, raw — нет.

3) Images | Directory filename pattern — по какому принципу называть изображения или папки. По умолчанию стоит [seed]-[prompt_spaces]. Возможные варианты: любая комбинация из [steps], [cfg], [prompt], [prompt_spaces], [width], [height], [sampler], [seed], [model_hash], [prompt_words], [date], [model_hash], [date], [datetime], [job_timestamp]. Я себе для изображений поставил [seed]-[datetime], а все описания пусть сохраняются в текстовике.

4) Add extended info (seed, prompt) to filename when saving grid — добавлять ли какое-то особенное название к сетке изображений. По умолчанию они называются просто grid-xxxx, где xxxx- номер запроса

5) Do not save grids consisting of one picture — на самом деле, не только сохранять, но еще и создавать не будет сетки в этом случае

6) Grid row count; use -1 for autodetect and 0 for it to be same as batch size — сколько строк будет в сетке изображений. при -1 будет стараться сделать квадратную/прямоугольную сетку

7) Save text information about generation parameters as chunks to png files — будет зашивать информацию о параметрах генерации внутрь самого png изображения. Прочитать эту информацию потом можно будет через специальные программы-инспекторы либо вкладку «PNG Info» в самой сборке

8) Create a text file next to every image with generation parameters — очень важно включить, если вы хотите повторяемости своих результатов / возможности поделиться всеми настройками генерации с кем-то еще. У содержимого текстового файла нет ограничений на размер содержимого, а вот впихнуть все-все параметры в название изображения вряд-ли получится из-за базового ограничения в 256 символов на длину пути (куда входит и название файла) в Windows. Вы можете снять это ограничение у windows но мне кажется, что отдельный текстовый файл удобнее.

9) Save a copy of image before doing face restoration — стоит включить, если вы планируете включать исправление лиц всегда и везде, так как иногда после «исправления» становится хуже. Я бы просто рекомендовал делать исправление лиц только на отдельных изображения — вычислительные ресурсы сэкономите, как минимум.

10) Quality for saved jpeg images — актуально, если выбрали jpeg как способ сохранения. Чем ближе к 100, тем меньше артефактов и больше вес у изображения.

11) If PNG image is larger than 4MB or any dimension is larger than 4000, downscale and save copy as JPG — включайте, если вам по каким-то причинам нужно ограничение на максимальный размер файла в 4 мб.

12) Use original name for output filename during batch process in extras tab — влияет на название файлов с результатами, когда будете сразу несколько изображений через апскейлеры/ исправители лиц прогонять. С галкой у результата будет имя, как у оригинала, без нее — просто номер запроса

13) When using ‘Save’ button, only save a single selected image — с галкой будет сохранять только 1 изображение, без него — все, что получились в результате запроса. Обратите внимание, когда вы нажимаете «Save», изображения сохраняются не в папку по умолчанию (output/txt2img и прочие), а в папку log/images. Можно таким образом отдельно сохранять самые удачные, что б быстрее искать их потом.

14) Paths for saving — выбирайте директории для сохранения результатов каждого метода. Нюанс только 1 — если укажете что-то в «Output directory for images |grids ; if empty, defaults to three directories below» — будет сохранять все изображения в выбранную папку вне зависимости от метода генерации.

15) Saving to a directory — можете включить создание отдельных папок под результат каждого запроса. Структура возможных наименований подпапок такая же, что и у изображений ( пункт 3) ). Если выберете [promt_words] в структуре наименований — можно указать, сколько слов из запроса брать в название папки. Так можно объединять в папки изображения, у которых первые слова в ваших запросах совпадают. Удобно, так как часто с 1 идеей в запросе различаются последние слова, а по первым можно их группировать.

16) Upscaling. Основные опции тут связны с «Tiling» — разбиением изображения на множество мелких участков для их апскейла с их возможным наложением друг на друга. Все хорошо, но есть нюанс — я с лупой не увидел никаких различий при любых настройках тайлинга для любых апскейлоров. Возможно, баг текущей версии. Напишите в комментариях, если вы нашли разницу.

17) LDSR processing steps. Lower = faster . Апскейлер LDSR тяжеловесный и медленный. Результат получается отличный от остальных, он больше мелких деталей «додумывает», но при этом появляются артефактные участки (краснл-синие точки) . На моей карте каждый его шаг занимает примерно 4 секунды и что спустя 100, что спустя 200 шагов артефакты не исчезают.

18) Select which Real-ESRGAN models to show in the web UI. (Requires restart) — можно выбрать дополнительные специализированные апскейлеры, например для аниме. Если знаете, зачем они вам — включайте и перезагрузите приложение.

19) Upscaler for img2img — не обнаружил никакого эффекта, возможно баг.

Предлагаю вам сравнивать разные апскейлеры — приближайте простой пример изображения с мелким кружевом и волосами и поймите, что подходит вашей ситуации. Я для себя решил, что для большинства задач подойдет SwinIR, а для создания супер-детализированных волос и шерсти — LDSR. Если хочется и разрешение увеличить и размытие сразу сделать — ScuNET GAN

20) Face restoration model

Можно выбрать, какая из моделей исправления лиц будет применяться в методе txt2img при включенной галочке «Restore faces». Я опять топлю за их применение только в случае необходимости — через вкладку «Extra», в которой вы и так можете выбрать метод и настройки для улучшения лиц.

Часто встречается высказывания, что CodeFormer лучше подойдет для реалистичных изображений, а GFPGAN — для околоанимешных. Чем хуже оригинал, тем заметнее будет улучшение. На и так неплохих становится только хуже — смотрите пример:

21) VRAM usage polls per second during generation. Set to 0 to disable. — из названия кажется, что должно влияет на частоту оценки объема видеопамяти. По-идее большая частота позволит не пропустить какое-то пиковое значение нагрузки, но я не нашел пока сценария, когда это на что-то влияет в обычном применении сборки и оставил на 1 опросе в секунду

22) Always print all generation info to standard output — не увидел никакого эффекта на выдаваемую информацию ни в интерфейсе ни в текстовых файлах

23) Add a second progress bar to the console that shows progress for an entire job. — влияет на то, будет ли в консоли дополнительных прогресс-бар для подсчета ожидаемого времени на генерацию всех изображений. На браузерный интерфейс не влияет

24) Stable Diffusion checkpoint — выбор варианта модели. Вам в раскрывающемся списке будут доступны все модели, которые вы закинули в папку modelsStable-diffusion. Большой список моделей, которые уже кто-то обучил, есть вот здесь. Будьте осторожны, там не только безобидная модель для Вайфу, но и модели для фурри, фут-фетешизма и прочего непотребства.

25) Apply color correction to img2img results to match original colors и Save a copy of image before applying color correction to img2img results — должно делать общую гамму скорректированного изображения более похожей на оригинал, но в моих тестах с автокоррекцией обычно получается хуже, чем без нее. Поэтому включить отдельное сохранение результата без коррекции, мне кажется, разумно. Нюанс — изображение без коррекции не покажет в браузере, оно будет только в папке для сохранения с пометкой «-before-color-correction»

Пример img2img с выключенной и включенной коррекцией:

26) With img2img, do exactly the amount of steps the slider specifies (normally you’d do less with less denoising). — слегка меняет результаты img2img при одинаковых настройках числа шагов.. Разница непринципиальная, но если вам важна повторяемость результата — зафиксируйте настройку в каком-то положении.

27) Enable quantization in K samplers for sharper and cleaner results. This may change existing seeds. Requires restart to apply. — ни малейшего изменения результатов не обнаружил ни на одном семплере из сборки. Возможно, баг, который поправят.

28) Emphasis: use (text) to make model pay more attention to text and [text] to make it pay less attention — очень удобная функция для изменения важности (веса) отдельных слов в запросе. Не рекомендую убирать.

29) Filter NSFW content — если вы не хотите видеть обнаженку при случайном запросе — поставьте здесь галку. По умолчанию ее нет.

30) Allowed categories for random artists selection when using the Roll button — если будете пользоваться местной функцией «Мне повезет», можете добавить, будет ли она брать художников из выбранных списков. Какого художника куда отнесли можно посмотреть здесь

31) Interrogate Options — влияет на функцию CLIP Interrogate, которая вызывается в img2img.

  • Interrogate: keep models in VRAM — включайте, если у вас много видеопамяти и вы хотите, что б отрабатывало быстрее
  • Interrogate: use artists from artists.csv — использовать ли список художников по умолчанию. Если сделаете свой — отключайте
  • Interrogate: num_beams for BLIP — по описанию в вики — насколько детализованное описание будет без учета художников. Я не увидел никакой разницы
  • Interrogate: minimum/maximum description length — заствать нейросеть выдавать описание заданного размера. Точно имеет смысл задавать минимум, т.к без него описание будет слишком генерализованным. Но переборщите с минимумом — нейросеть просто будет повторять 1 и тот же признак в описаниии, пока требуемого объема не достигнет. Максимум имеет смысл просто поставить на 256, хуже описания от этого не станут.

32) Show show image creation progress every N sampling steps. Set 0 to disable. — полезная опция, которая покажет, как меняется изображение на каждом шаге. С учетом того, что с каждым шагом изображение может сильно поменяться композиционно, особенно для _a семплеров, отображение позволит понять, на каком шаге стоило остановиться. Минус — время на отработку запроса возрастает, и процесс отрисовки будет показываться только для первого изображения в batch (соответсвенно — хотите, что б показывало все — увеличиваете Batch count, а Batch size ставите 1)

33) Show grid in results for web и Do not show any images in results for web — показыать ли сетку из изображений и результаты вообще. И то и то достаточно полезно, особенно если вы генерите много изображений сразу

34) Add model hash to generation information — полезно, если вы используете разные модели, что б вспомнить потом, с помощью какой именно сделали изображение.

35) Enable full page image viewer — изображение в браузере становится кликабельным и увеличенного масштаба. По-умолчанию оно масштабируется, если на него нажать, но можно это отключить в «Show images zoomed in by default in full page image viewer». Show generation progress in window title — не увидел эффекта

36) Sampler parameters — можно выбрать, какие семплеры спрятать, что б глаза не мозолили и настроить условия работы части из них. Например, eta (noise multiplier) for ancestral samplers влияет на все семлеры с буквой «а», сильно меняя их стартовые условия, и, соответственно, результат. Эти настройки не сохраняются в описаниях генерации, поэтому, если вам важна повторяемость, зафиксируйте настройку 1 раз в каком-то положении.

Разные настройки sigma влияют на семплеры euler, heun и dpm2. Например, при sigma churn =1 и sigma noise =1, обычный euler выдает результат, аналогичный euler_a.

Смотрите пример влияния разных настроек сигмы на euler(Beautiful cat sprite on fire elemental,intricate detailed fur, flame, vivid colors,
Steps: 50, Sampler: Euler, CFG scale: 7, Seed: 1766758075, Size: 512×512, Model hash: 7460a6fa).

Мне больше всех нравятся варианты 0/0, 1/1.

Влияние Sigma tmin на результат практически незаметно. Больше примеров можно посмотреть здесь

4. Возможности

Во вкладке txt2img — базовый функционал отрисовки по текстовому описанию. У сборки есть много приятных функций, которые позволяют изменять изображения в лучшую строну или автоматизируют рутинные операции

Цифрами обозначены элементы в описании

0) Выделение отдельных слов — теперь можно задавать отдельным элементам запроса большую/меньшую важность. Примерно как указать «хочу, что б точно было вот это, а вот то — как пойдет)

Универсальный вариант синтаксиса — (понятие:вес). Более простой — (поняти ) — умножит важность на 1.1, [понятие] — разделит на 1.1

Пример с одинаковым запросом по содержимому «Apple tree, snake, man and woman, bible, old painting) и параметрами генерации, но разными весами

1) Negative promt — на мой взгляд, самая важная функция для улучшения качества изображений. Как оказалось, сетке надо сказать не просто «Делай как надо», но и «Как не надо — не делай» и качество результата значительно вырастет. Просто вбиваете, каких элементов быть на изображении не должно — принципы запроса от противного такие же, что и для обычного. Можно дополнительно акцентировать внимание на отдельных элементах негативного запроса с помощью (). Пример с запросами ниже :

2) Create Style /Apply Style. Ускоряет набивание одних и тех же фраз в запросах. Вбиваете свой запрос, который как-то описывает желаемый вами повторяющийся стиль, нажимаете Create Style, придумываете ему имя. Появятся 2 дополнительные кнопки «Style 1», «Style 2». Вбиваете свой новый запрос, выбираете в одной или в обеих кнопках нужный вам стиль, нажимаете «Apply style». Стили добавятся к концу нового запроса.

Рядом еще расположены кнопки добавления случайного имени художника к запросу из списка artist.csv (см. Настройки — пункт 30), и распознавания настроек генерации. Кидаете в «Promt» всю обвязку запроса — sampler, разрешение, шаги и т.д, нажимаете на синюю кнопку с белой стрелкой и все эти параметры перейдут из запроса в их положенные части интерфейса. Удобно, когда хотите максимально повторить чей-то уже готовый и хорошо описанный запрос.

Помните про ограничение на 75 условных объектов (векторов). Под кнопками стиля идет счетчик для вашего запроса. Обновляется с небольшой задержкой

3) Restore Faces — применяет к результату одну из сетей, улучшающих качество лиц (см. Настройки — пункт 20). Лучше делать отдельно через раздел Extras

4) Tiling — делает изображение, все грани которого не содержат каких-то четких элементов, что позволяет поставить несколько таких изображений рядом друг с другом. Хорошо для создания текстур, наверное. Посмотреть, как будет выглядеть «плитка» из таких изображений, можно, нажав на готовое изображение и нажав на иконку плитки в верхнем левом углу.

Пример (Grass, by Tomas Kinkade Steps: 50, Sampler: Euler a, CFG scale: 7, Seed: 42, Size: 512×512, Model hash: 7460a6f):

5) Highres. fix — влияет на изображения больше 512*512, у которых встречается частая проблема с дублирование элементов в разных частях изображения . Сначала строит композицию на 512*512, затем увеличивает разрешение, а потом использует на этом всем img2img

Пример с 1 и тем же запросом :

При включенном highres. fix появляются 2 дополнительные настройки. Scale Latent — по описанию должно делать апскейл в латентном пространстве сразу. На практике — изображение становится четче, но немного меняется композиция. Denoising Strenght — насколько много шума положить поверх картинки низкого разрешения перед ее перерисовкой в большое. Меньше шума — меньше шанс на любые изменения, хоть позитивные, хоть негативные.

6) Кнопки включения рандомайзера и использования повторно seed из последнего запроса

7) Extra — здесь прячется возможность сделать смесь изображений из двух seed с разной степенью выраженности одного и другого. Тут снова будут лисы из предыдущего запроса в качестве примера, простите :

Изначальный seed- 42, изображение с ним (почти) — слева. Крайние справа — изображения с seed 44-47.

Другая возможность — изменение высоты-ширины изображения без принципального изменения композиции. Сталкивались с тем, что голова/ноги в кадр не влезли, а если изменить размер — получается совсем другое изображение? Возможно, resize from вам поможет. Задаете сначала целевые высоту/ширину (например, надо сделать изображение чуть выше, что б голова влезла) , а в extras указываете из изображения какой высоты-ширины взять основную композицию. Пример работы функции:

8) Send to — отправить выделенное изображение на вход в:

  • базовый img2img
  • inpaint, где можно дорисовать что-нибудь с помощью маскиъ
  • extras, где можно сделать апскейл и поправить лица

9) Scripts — запускает последовательность действий со своими отдельными настройками. Скрипты можно спокойно писать самому или добавлять уже сделанные сообществом (многие доступны по ссылке). Помещаете .py файл в папку scripts и перезапускаете все приложение.

В базовую версию входит скрипт Promt Matrix, позволяющий быстро посмотреть, что будет если поменять отдельные слова в запросе. Разделяете слова через | . Все, что до первого | всегда будет в запросе, из остального сделает матрицу комбинаций

Пример — Sisters of Battle from Warhammer 40k , splash art, beautiful face, glowing angelic halo, white hair | in a flower garden| on a battlefield| dancing| preaching. Negative prompt: Miniatures, deformed, extra hands, bad, lackluster Steps: 25, Sampler: Euler a, CFG scale: 7, Seed: 42.0, Size: 512×512, Model hash: 7460a6fa

Получилось совсем не то, что ожидал, но принцип скрипта виден. Надо было использовать Waifu Diffusion для такого запроса)

Второй скрипт просто возьмет текст из файла вместо того, что у вас введено в поле Promt

Третий скрипт — X/Y plot, строит изображения с разными настройками. Выбираете 2 желаемые настройки и через запятую указываете нужны значения. Пример настроек для отрисовки матрицы с лисичками из 7-ого пункта:

Не будьте, как я — ставьте пробелы после запятой!

Во вкладке Img2Img — функционал отрисовки по готовому изображению. Дополнительных возможностей, относительно txt2img добавляется не так много, но они очень мощны!

1) Interrogate — «Компьютер, что здесь нарисовано?». Позволяет лучше понять, как нейросетка называет сущности и стиль какого художника видит на картине. Загружаете изображение, нажимаете «Interrogate», ждете, пока загрузится специальная модель в несколько ГБ весом.

Пример — что видит нейросетка на картине Айвазовского «Радуга».

Айвазовский — на месте .Радуга — на месте. Лодка в окружении воды — на месте. Корабль на заднем фоне — на месте. Разве что людей не определило.

2) Inpaint

Позволяет нанести на участок изображения слой-маску и сгенерировать что-то только на нем, не затрагивая остальной рисунок. Можно инвертировать — рисовать везде, кроме замаскированного слоя (Inpaint not masked) . Можно загружать изображение с готовой маской, сделанной где-то еще (Upload mask) , можно нарисовать в браузере самому. Края маски можно размывать через Mask blur, для более плавного перехода в основное изображение

Надо определиться с тем, что будет под маской на начало генерации — гамма изображения (fill), оригинальное изображение, цветовой шум или вообще нули (latent noise/ nothing). Рекомендую пробовать разные варианты в каждой ситуации, сходу не получается сказать, что какой-то лучше.

Если у вас изображение с 1 разрешением, а маску хочется нарисовать в другом — можно включить Inpaint at full resolution и уточнить границы изображения для него

Пример — хотим добавить капитану Джеку Воробью попугая.

3) Just resize, Crop and resize, Resize and fill — опции на случай, если вы хотите менять разрешение в новом изображении. В Just resize может поехать композиция, если целевое разрешение не квадратное. Рискуете неожиданно получить широкого Фила Спенсера. В Crop and resize — выкинет все выступающие части, в Resize and Fill — заполнит гаммой изображения.

Актуально пробовать разные варианты, если хотите делать неквадратные результаты.

4) Batch img2Img — берет все изображения в одной папке и применяет к каждой img2img, кладет в заранее указанную целевую папку. Взяли все пиксельные изображения из старой игры — сложили в одну папку — поставили этот скрипт на всю ночь — с утра смотрите результаты — выкладывете в соцсети — PROFIT!

5) Скрипты

img2img alternative test — меняем только часть изображения по текстовому описанию. Скрипт сложный и результаты не очень стабильные, будьте к этому готовы.Я очень рекомендую следовать шагам из wiki , за исключением CFG Scale. У меня он начал хоть как-то менять результат только от СFG 4 и выше.

Пример результата:

Loopback — прогнать 1 и то же изображение через img2img несколько раз. Можно задавать прогрессивную силу изменений на каждом шаге (Denoising strength change factor). При 1 — меняем с одинаковой силой на каждом шаге. Меньше 1 — изменения с каждым последующим шагом будут слабее и наоборот при больше 1.

На втором шаге явно стоило остановиться. А может и на этапе идеи.

Outpainting — расширяет изображения с выбранных сторон согласно запросу. Можно выбрать произвольные стороны изображения для дорисовки, как 1, так и все сразу. Рекомендуется поставить семплер Euler_a, 80-100 шагов и Denoising strength: 0.8. Можно выставить ширину полосы для дорисовки( в пискелях), будет ли меньше четких деталей по краям и вариативность цвета относительно исходного участка. Запрос на то, что должно быть в этих дорисованных частях, все равно нужен.

Пример:

SD Upscale — повышает разрешение в два раза средствами самой нейросети. Разбивает изображение на много перекрывающихся квадратов (степень перекрытыя настраивается) и повышает разрешение каждого квадрата, а затем сшивает их вместе. Плюсы — можно сделать очень большое разрешение даже на средней видеокарте (я делал до 8 к) . Минусы — велик шанс появления лишних деталей, мозаики вместо цельного изображения и очень большое время на апскейл.

Вкладка Extras — здесь сидят апскейлеры и улучшатели лиц.

1) Resize — настройка множителя для итогового размера изображения, применяется в Upscaler 1. Примеры работ разных апскейлеров можно посмотреть в описании настроек (пункт 19)

2) Upscaler 2 не будет увеличивать разрешение, но может добавить дополнительных деталей/сгладить лишние. Не забудьте тогда выставить Upscaler 2 visibility поближе к 1

3) GFPGAN visibility и Codeformer visibility — улучшают лица, каждая по-своему. Codeformer хорошо делает реалистичную кожу лица, но плохо исправляет взгляд. GFPGAN исправляет взгляд, но лица делает как под тонной косметики. Можно комбинировать для лучшего эффекта. Примеры можно посмотреть в описании настроек (пункт 20)

Обратите внимание, у Codeformer weight, который отвечает за силу эффекта, инвертирована шкала — чем ближе к 0, тем сильнее эффект.

4) Batch Process — можно применить одинаковые настройки апскейла и исправления лиц сразу ко всем выбранным изображениям.

Вкладка Сheckpoint merger отвечает за возможность объединить две модели в 1. Например, можно сделать модель, которая представляет собой нечто среднее между стандратной Stable Diffusion и Waifu Diffusion — в результе будет рисовать лица, которые обладают только частично анимешными чертами

Отрабатывает запрос на объединение моделей очень быстро. Чем больше будет появляться обученных моделей, тем полезнее будет эта вкладка :)

1) Interpolation Amount — насколько итоговая модель будет тяготеть к стилю первой или второй. При 0.5 — возьмет поровну. При 0 — только от второй модели, при 1 — только от первой.

2) Interpolation Method — как именно объединять модели — взвешенной суммой с учетом Interpolation Amount или через функцию- сигмоид. По-идее, чем дальше от центра, тем больше будут видны изменения между методами интерполяции, при 0.5 они идентичны.

3) Safe as float16 сокращает вес файла с моделью в 2 раза ценой небольшой потери в точности.

Примеры одного запроса ( Portrait of a beautiful young woman with blue eyes in a flower field. Negative prompt: bad, deformed, lackluster Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 42, Size: 512×512) в разных моделях:

Вкладка Textual Inversion позволяет дообучить модель конкретному стилю или персонажу,

Пример настроек для обучения сети персонажу

Если я правильно понимаю, при textual inversion нейросеть не запоминает новые фото, но она понимает, что новое понятие, которому мы хотите ее обучить, выглядит как нечто среднее между уже известными ей («учит эмбеддинг») . Поэтому точного повторения ваших фото этим методом не получится, но что-то вроде стиля сеть выучит.

Последовательность действий:

1) Как-то называем наше понятие. Этим словом вы потом будете вызывать результаты после дообучения

2) Initialization text — c какого ближайшего понятия стартовать обучение.

3) Number of vectors per token — насколько сложным получится новое понятие. Чем больше здесь значение, тем больше примеров потребуется для обучения и тем меньше места останется на весь запрос, когда будете его вызывать.

Задаете эти параметры на свое усмотрение и нажимаете «create» — создастся пустой файл с эмбеддингом

4) Source directory — вписываете путь до папки с всеми нужными изображениями. Изображения могут быть во всех форматах, которые читает сборка (см. Настройки, пункт 2. Webp тоже читает), ограничений на размер на этом этапе тоже нет

5) Destination directory -путь, по которому складывать результаты после предобработки. Этот же путь лучше всего прописать в Dataset directory чуть ниже

6) Flip — делать зеркальные копии изображений. Бесплатное увеличение обучающей выборки!) Split into… — разбивать большие изображения на 512*512 куски. Add caption — прогонять их через Interrogate метод (может быть полезно для лучшего обучению стилю конкретного художника)

Выбрали желаемые опции — нажали Preprocess.

Я рекомендую после этого проверил результаты, т.к могло обрезать изображения так, что на них желаемого объекта почти не видно

7) Embedding — выбираете тот файл, который создался на 3-ем этапе

8) Log directory — куда скаладывать промежуточные результаты обучения

9)Prompt template file — выбрать текстовый файл, в котором лежат типичные запросы, которые будет использовать система при обучении. Для конкретных объектов/персонажей — выбирайте в конце пути subject.txt. Для повторения чьего-то стиля — style.txt. Учтите, что во втором случае у ваших обучающих файлов название должно описывать содержимое каждого изображения (слова разделять через пробел) . Если лень вписывать самому — надейтесь на «Add caption»

10) Learning Rate — насколько быстро делать обучение (смещение на каждом шаге) . Поставите слишком много — рискуете «сломать» эмбеддинг, в консоли выпадет ошибка. Я оставил 0.005.

10) Max steps — насколько долго учить нейросеть ( в шагах). В моем случае разница между 500 и 5000 шагов составила 3%. (0.14 и 0.11). По — умолчанию стоит 100000, это избыточно, как мне кажется.

При таком Learning rate и 5000 шагов система учила эмбеддинг полтора часа.

Save a copy — делать ли копии промежуточных результатов обучения эмбеддинга, на случай внезапного выключения приложения. Тогда при повторном запуске обучение продолжится с последней копии.

Пример с и без textual inversion и одиним из исходных изображений(Инь из Darker than Black):

Итог: бело-черно-фиолетовую гамму изображения ухватило, анимешность и очертания +- ухватило, но до идеала далеко.

5. Заключение

Я надеюсь, что этот гайд вдохновит вас попробовать разные необычные способы генерации изображений и позволит приблизить результаты к тому образу, который вы хотите получить.

Жду ваших результатов в ленте на DTF! Делитесь своими запросами и параметрами генерации, это позволит увеличить уровень изображений всем участникам.

Если остаются вопросы, что-то не получается — пишите в комментарии, будем вместе разбираться.

Vidyut

bbecausereasonss

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

Not sure what this means, anyone have any idea?

ERROR:asyncio:Exception in callback _ProactorBasePipeTransport._call_connection_lost(None)
handle: <Handle _ProactorBasePipeTransport._call_connection_lost(None)>
Traceback (most recent call last):
File «C:Program FilesWindowsAppsPythonSoftwareFoundation.Python.3.10_3.10.2544.0_x64__qbz5n2kfra8p0libasyncioevents.py», line 80, in _run
self._context.run(self._callback, *self._args)
File «C:Program FilesWindowsAppsPythonSoftwareFoundation.Python.3.10_3.10.2544.0_x64__qbz5n2kfra8p0libasyncioproactor_events.py», line 165, in _call_connection_lost
self._sock.shutdown(socket.SHUT_RDWR)
ConnectionResetError: [WinError 10054] An existing connection was forcibly closed by the remote host

Steps to reproduce the problem

Git pull
Start webui

What should have happened?

No errors.

Commit where the problem happens

Latest

What platforms do you use to access the UI ?

Windows

What browsers do you use to access the UI ?

Mozilla Firefox, Google Chrome

Command Line Arguments

COMMANDLINE_ARGS=--port 7878 --listen --api --cors-allow-origins=http://127.0.0.1:3456 --xformers

List of extensions

View post on imgur.com

Console logs

venv "C:UserschlywDesktopAutomatic1111venvScriptsPython.exe"
Python 3.10.9 (tags/v3.10.9:1dd9be6, Dec  6 2022, 20:01:21) [MSC v.1934 64 bit (AMD64)]
Commit hash: 3e0f9a75438fa815429b5530261bcf7d80f3f101
Installing requirements for Web UI
Installing requirements for Batch Face Swap


Installing requirements for scikit_learn


loading Smart Crop reqs from C:UserschlywDesktopAutomatic1111extensionssd_smartprocessrequirements.txt
Checking Smart Crop requirements.


Installing imageio-ffmpeg requirement for depthmap script
Installing pyqt5 requirement for depthmap script



Launching Web UI with arguments: --port 7878 --listen --api --cors-allow-origins=http://127.0.0.1:3456 --xformers
Error loading script: sd_save_intermediate_images.py
Traceback (most recent call last):
  File "C:UserschlywDesktopAutomatic1111modulesscripts.py", line 229, in load_scripts
    script_module = script_loading.load_module(scriptfile.path)
  File "C:UserschlywDesktopAutomatic1111modulesscript_loading.py", line 11, in load_module
    module_spec.loader.exec_module(module)
  File "<frozen importlib._bootstrap_external>", line 883, in exec_module
  File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
  File "C:UserschlywDesktopAutomatic1111extensionssd_save_intermediate_imagesscriptssd_save_intermediate_images.py", line 12, in <module>
    from modules.sd_samplers import KDiffusionSampler, sample_to_image
ImportError: cannot import name 'KDiffusionSampler' from 'modules.sd_samplers' (C:UserschlywDesktopAutomatic1111modulessd_samplers.py)

Error loading script: sonar.py
Traceback (most recent call last):
  File "C:UserschlywDesktopAutomatic1111modulesscripts.py", line 229, in load_scripts
    script_module = script_loading.load_module(scriptfile.path)
  File "C:UserschlywDesktopAutomatic1111modulesscript_loading.py", line 11, in load_module
    module_spec.loader.exec_module(module)
  File "<frozen importlib._bootstrap_external>", line 883, in exec_module
  File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed
  File "C:UserschlywDesktopAutomatic1111extensionsstable-diffusion-webui-sonarscriptssonar.py", line 17, in <module>
    KDiffusionSampler, CFGDenoiser, SamplerData, setup_img2img_steps, inspect
NameError: name 'KDiffusionSampler' is not defined

Loading weights [cc6cb27103] from C:UserschlywDesktopAutomatic1111model.ckpt
Creating model from config: C:UserschlywDesktopAutomatic1111configsv1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Applying xformers cross attention optimization.
Textual inversion embeddings loaded(16): ALATSuckFace, andtat, art by EMB_skstest3, bad_prompt_version2, blowjobpose, corneo_side_doggy, dpthrt, durerr, jcon-subject, m-geo, malikafarver, margot-robbie-subject, midjourneystyle, NG_DeepNegative_V1_75T, realcumAI, samdoesarts
Textual inversion embeddings skipped(43): ActionHelper, AnimeScreenCap, anthro, CandyPunk, cartoonish_doll, CGI_Animation-185, CGI_Animation-245, CGI_Animation, ChemPunk-96, CinemaHelper, CutAway-500, cyberArmor, Deneuve Station, fragmenv2, HyperSmoke, kc32-v4-5000, Kipaki-150, laxpeintV2, NegLowRes-500, NegMutation-500, PaintStyle4, PhotoHelper, pixelart-2, pixelart-3, pixelart-hard, pixelart-soft, pixelart, pixelizer, PortraitHelper, protogemb, protogemb2, rzminjourney, SCG768-Euphoria, SCG768-Nebula, tf86movie-550, tfboxart, Tod_Ryan, TyyliTyyli-101, Verdict Rubicon, VikingPunk, VintageHelper-600, VintageHelper, vray-2
Model loaded in 6.6s (load weights from disk: 3.1s, create model: 0.5s, apply weights to model: 0.6s, apply half(): 0.6s, move model to device: 0.6s, load textual inversion embeddings: 1.0s).
Running on local URL:  http://0.0.0.0:7878

To create a public link, set `share=True` in `launch()`.
ERROR:asyncio:Exception in callback _ProactorBasePipeTransport._call_connection_lost(None)
handle: <Handle _ProactorBasePipeTransport._call_connection_lost(None)>
Traceback (most recent call last):
  File "C:Program FilesWindowsAppsPythonSoftwareFoundation.Python.3.10_3.10.2544.0_x64__qbz5n2kfra8p0libasyncioevents.py", line 80, in _run
    self._context.run(self._callback, *self._args)
  File "C:Program FilesWindowsAppsPythonSoftwareFoundation.Python.3.10_3.10.2544.0_x64__qbz5n2kfra8p0libasyncioproactor_events.py", line 165, in _call_connection_lost
    self._sock.shutdown(socket.SHUT_RDWR)
ConnectionResetError: [WinError 10054] An existing connection was forcibly closed by the remote host

Additional information

No response

MIC132

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

I’m not sure if this is a bug as such, but it certainly seems wrong/unintended.

When generating a grid with batch count higher than 1, and checking «include individual images» the results include the grid, and the individual image batches, but not the individual images from those batches.

So for example when you do a X/Y with two «fields» and batch count of 4, the grid has 8 images in it, and you get the 2 separate 4-image batch images, but you don’t get the 8 separate images.

Perhaps it should be a separate checkbox, but it’s rather annoying. As is you need to re-generate a batch of a specific field in the grid (without X/Y) to get the individual images.

Steps to reproduce the problem

Generate a X/Y plot with batch count higher than 1 and «include individual images» checked.

What should have happened?

You should get the grid, the separate batches and the separate images from those batches.

Commit where the problem happens

ea9bd9f

What platforms do you use to access the UI ?

Windows

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

List of extensions

a1111-sd-webui-tagcomplete

Console logs

venv "E:stable-diffusion-webuivenvScriptsPython.exe"
Python 3.10.5 (tags/v3.10.5:f377153, Jun  6 2022, 16:14:13) [MSC v.1929 64 bit (AMD64)]
Commit hash: ea9bd9fc7409109adcd61b897abc2c8881161256
Installing requirements for Web UI
Launching Web UI with arguments: --medvram --no-half-vae
No module 'xformers'. Proceeding without it.
Loading weights [23362b0c63] from E:stable-diffusion-webuimodelsStable-diffusionProtoThing200.ckpt
Creating model from config: E:stable-diffusion-webuiconfigsv1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Loading VAE weights specified in settings: E:stable-diffusion-webuimodelsStable-diffusionAnythingV3.vae.pt
Applying cross attention optimization (Doggettx).
Model loaded in 79.5s (load weights from disk: 67.2s, create model: 1.8s, apply weights to model: 1.1s, apply half(): 1.1s, load VAE: 7.5s, load textual inversion embeddings: 0.8s).
Running on local URL:  http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.
X/Y/Z plot will create 8 images on 1 2x1 grid; 4 images per cell. (Total steps to process: 200)
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:26<00:00,  1.06s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.36it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.34it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.34it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.34it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.34it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.34it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 25/25 [00:18<00:00,  1.33it/s]
Total progress: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 200/200 [03:05<00:00,  1.08it/s]

Additional information

image

ghostsquad

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

Allow me to choose which extensions will be updated.

Proposed workflow

see description

Additional information

No response

ghostsquad

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

Rename Apply and Restart to Update and Restart for clarity of the action.

Proposed workflow

see description

Additional information

No response

ghostsquad

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

List current version and new version when checking for update.

Proposed workflow

see description

Additional information

No response

halr9000

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

See #7266. Same symptom, but on the Checkpoints tab

Steps to reproduce the problem

  1. create folder for models as in example below
  2. generate any image
  3. open checkpoints tab
  4. hover over one of them and click replace preview
  5. image is not replaced and error appears in console

My example folder layout

d:
  /stable-diffusion
    /models
      /stable-diffusion<- symlink source
   /auto <- sd-ui main folder
    /models
      /stable-diffusion<- symlink destination

What should have happened?

pic should be replaced

Commit where the problem happens

ea9bd9f

What platforms do you use to access the UI ?

Windows, iOS, Android

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

set COMMANDLINE_ARGS=--listen --enable-insecure-extension-access --deepdanbooru --no-half --api --xformers

List of extensions

a1111-sd-webui-haku-img
a1111-sd-webui-tagcomplete
animator_extension
asymmetric-tiling-sd-webui
custom-diffusion-webui
deforum-for-automatic1111-webui
depthmap2mask
gif2gif
model-keyword
multi-subject-render
openOutpaint-webUI-extension
prompt-fusion-extension
sd_smartprocess
sd-dynamic-thresholding
sd-extension-steps-animation
sd-extension-system-info
sd-webui-ar
seed_travel
shift-attention
stable-diffusion-webui-anti-burn
stable-diffusion-webui-auto-tls-https
stable-diffusion-webui-depthmap-script
stable-diffusion-webui-images-browser
stable-diffusion-webui-model-toolkit
stable-diffusion-webui-Prompt_Generator
stable-diffusion-webui-prompt-travel
stable-diffusion-webui-promptgen
stable-diffusion-webui-randomize
stable-diffusion-webui-sonar
StylePile
ultimate-upscale-for-automatic1111

Console logs

Traceback (most recent call last):
  File "D:halstable-diffusionautovenvlibsite-packagesgradioroutes.py", line 337, in run_predict
    output = await app.get_blocks().process_api(
  File "D:halstable-diffusionautovenvlibsite-packagesgradioblocks.py", line 1015, in process_api
    result = await self.call_function(
  File "D:halstable-diffusionautovenvlibsite-packagesgradioblocks.py", line 833, in call_function
    prediction = await anyio.to_thread.run_sync(
  File "D:halstable-diffusionautovenvlibsite-packagesanyioto_thread.py", line 31, in run_sync
    return await get_asynclib().run_sync_in_worker_thread(
  File "D:halstable-diffusionautovenvlibsite-packagesanyio_backends_asyncio.py", line 937, in run_sync_in_worker_thread
    return await future
  File "D:halstable-diffusionautovenvlibsite-packagesanyio_backends_asyncio.py", line 867, in run
    result = context.run(func, *args)
  File "D:halstable-diffusionautomodulesui_extra_networks.py", line 233, in save_preview
    assert is_allowed, f'writing to {filename} is not allowed'
AssertionError: writing to D:halstable-diffusionautomodelsstable-diffusionexperience_exp65.png is not allowed

Additional information

No response

DenkingOfficial

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

For this input image in img2img it throws a error:

1654158956_1-phonoteka-org-p-lena-beskonechnoe-leto-oboi-krasivo-1

modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there's not enough precision to represent the picture. Try adding --no-half-vae commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.

I tried to use both of these flags and other models, but it just returns a black image

BUT

If I use the same settings with another picture it works perfectly fine

Input image:

alisa2

Output image:

20221015237114-1971815762-1girl, small camp house, forest, tie, hand on hip, looking at viewer, moon, nature, navel, night, night sky, orange eyes, orange

Steps to reproduce the problem

  1. Go to img2img
  2. Upload image proided above
  3. Set those settings:

image

  1. Press generate
  2. See an error:

image

What should have happened?

It should work with this picture

Commit where the problem happens

ea9bd9f

What platforms do you use to access the UI ?

Windows

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

--listen --medvram --opt-split-attention

List of extensions

image

Console logs

`Traceback (most recent call last):
  File "C:SoftwareOther Softwaresdautomatic111modulescall_queue.py", line 56, in f
    res = list(func(*args, **kwargs))
  File "C:SoftwareOther Softwaresdautomatic111modulescall_queue.py", line 37, in f
    res = func(*args, **kwargs)
  File "C:SoftwareOther Softwaresdautomatic111modulesimg2img.py", line 169, in img2img
    processed = process_images(p)
  File "C:SoftwareOther Softwaresdautomatic111modulesprocessing.py", line 486, in process_images
    res = process_images_inner(p)
  File "C:SoftwareOther Softwaresdautomatic111modulesprocessing.py", line 632, in process_images_inner
    devices.test_for_nans(x, "vae")
  File "C:SoftwareOther Softwaresdautomatic111modulesdevices.py", line 152, in test_for_nans
    raise NansException(message)
modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there's not enough precision to represent the picture. Try adding --no-half-vae commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.`

Additional information

No response

halr9000

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

Looks like you’re making symlinks work across the project, which is awesome. I moved all my stuff to one each for lora, hypernetworks, and stable-diffusion model folders. Everything works fine except I’m unable to update preview on lora or hypernetworks. When doing so, console error is:

ValueError: File cannot be fetched: D:/stable-diffusion/auto/models/Lora/<model name>.png. All files must contained within the Gradio python app working directory, or be a temp file created by the Gradio python app.

Steps to reproduce the problem

  1. create folder for models as in example below
  2. generate any image
  3. open networks …sub-panel? (don’t know what to call it)
  4. hover over one of them and click replace preview
  5. image is not replaced and error appears in console

My example folder layout

d:
  /stable-diffusion
    /models
      /lora <- symlink source
   /auto <- sd-ui main folder
    /models
      /lora <- symlink destination

What should have happened?

pic should be replaced

Commit where the problem happens

7a14c8a

What platforms do you use to access UI ?

Windows, MacOS, iOS, Android

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

set COMMANDLINE_ARGS=--listen --enable-insecure-extension-access --deepdanbooru --no-half --api

Additional information, context and logs

ERROR:    Exception in ASGI application
Traceback (most recent call last):
  File "D:halstable-diffusionautovenvlibsite-packagesanyiostreamsmemory.py", line 94, in receive
    return self.receive_nowait()
  File "D:halstable-diffusionautovenvlibsite-packagesanyiostreamsmemory.py", line 89, in receive_nowait
    raise WouldBlock
anyio.WouldBlock

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewarebase.py", line 77, in call_next
    message = await recv_stream.receive()
  File "D:halstable-diffusionautovenvlibsite-packagesanyiostreamsmemory.py", line 114, in receive
    raise EndOfStream
anyio.EndOfStream

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "D:halstable-diffusionautovenvlibsite-packagesuvicornprotocolshttph11_impl.py", line 407, in run_asgi
    result = await app(  # type: ignore[func-returns-value]
  File "D:halstable-diffusionautovenvlibsite-packagesuvicornmiddlewareproxy_headers.py", line 78, in __call__
    return await self.app(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesfastapiapplications.py", line 270, in __call__
    await super().__call__(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarletteapplications.py", line 124, in __call__
    await self.middleware_stack(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewareerrors.py", line 184, in __call__
    raise exc
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewareerrors.py", line 162, in __call__
    await self.app(scope, receive, _send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewarebase.py", line 106, in __call__
    response = await self.dispatch_func(request, call_next)
  File "D:halstable-diffusionautomodulesapiapi.py", line 95, in log_and_time
    res: Response = await call_next(req)
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewarebase.py", line 80, in call_next
    raise app_exc
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewarebase.py", line 69, in coro
    await self.app(scope, receive_or_disconnect, send_no_error)
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewaregzip.py", line 24, in __call__
    await responder(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewaregzip.py", line 43, in __call__
    await self.app(scope, receive, self.send_with_gzip)
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewareexceptions.py", line 79, in __call__
    raise exc
  File "D:halstable-diffusionautovenvlibsite-packagesstarlettemiddlewareexceptions.py", line 68, in __call__
    await self.app(scope, receive, sender)
  File "D:halstable-diffusionautovenvlibsite-packagesfastapimiddlewareasyncexitstack.py", line 21, in __call__
    raise e
  File "D:halstable-diffusionautovenvlibsite-packagesfastapimiddlewareasyncexitstack.py", line 18, in __call__
    await self.app(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarletterouting.py", line 706, in __call__
    await route.handle(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarletterouting.py", line 276, in handle
    await self.app(scope, receive, send)
  File "D:halstable-diffusionautovenvlibsite-packagesstarletterouting.py", line 66, in app
    response = await func(request)
  File "D:halstable-diffusionautovenvlibsite-packagesfastapirouting.py", line 235, in app
    raw_response = await run_endpoint_function(
  File "D:halstable-diffusionautovenvlibsite-packagesfastapirouting.py", line 161, in run_endpoint_function
    return await dependant.call(**values)
  File "D:halstable-diffusionautovenvlibsite-packagesgradioroutes.py", line 286, in file
    raise ValueError(
ValueError: File cannot be fetched: D:/hal/stable-diffusion/auto/models/Lora/playboyCenterfold_v1.png. All files must contained within the Gradio python app working directory, or be a temp file created by the Gradio python app.

ahernandezmiro

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

After pulling latest changes I get the following error when launching webui-user.bat :

'Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check'"

Last week everything was working fine.

System details:
Windows 10, Ryzen 9 3900X, 32GB RAM
RTX 3080 10GB
NVIDIA-SMI 528.24 Driver Version: 528.24 CUDA Version: 12.0

Steps to reproduce the problem

  1. Git pull
  2. Start webui-user.bat
  3. Error pops

What should have happened?

The project should have launched as usual

Commit where the problem happens

ea9bd9f

What platforms do you use to access the UI ?

Windows

What browsers do you use to access the UI ?

Brave

Command Line Arguments

List of extensions

deforum-for-automatic1111-webui
multi-subject-render
sd_dreambooth_extension
seed_travel
stable-diffusion-webui-aesthetic-gradients
stable-diffusion-webui-instruct-pix2pix
stable-diffusion-webui-pixelization
stable-diffusion-webui-prompt-travel

Console logs

`PS C:Usersuserdevstable-diffusion-webui> & .webui-user.bat
Already up to date.
venv "C:Usersuserdevstable-diffusion-webuivenvScriptsPython.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug  1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Commit hash: ea9bd9fc7409109adcd61b897abc2c8881161256
Traceback (most recent call last):
  File "C:Usersuserdevstable-diffusion-webuilaunch.py", line 360, in <module>
    prepare_environment()
  File "C:Usersuserdevstable-diffusion-webuilaunch.py", line 272, in prepare_environment
    run_python("import torch; assert torch.cuda.is_available(), 'Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check'")
  File "C:Usersuserdevstable-diffusion-webuilaunch.py", line 129, in run_python
    return run(f'"{python}" -c "{code}"', desc, errdesc)
  File "C:Usersuserdevstable-diffusion-webuilaunch.py", line 105, in run
    raise RuntimeError(message)
RuntimeError: Error running command.
Command: "C:Usersuserdevstable-diffusion-webuivenvScriptspython.exe" -c "import torch; assert torch.cuda.is_available(), 'Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check'"
Error code: 1
stdout: <empty>
stderr: Traceback (most recent call last):
  File "<string>", line 1, in <module>
AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check`

Additional information

Launching with the —skip-torch-cuda-test works but obviously the tools becomes painfully slow to use. It must be something related to the GPU that has broke

GoddessFreya13

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

This feature would allow the user to pause the process that Stable Diffusion is using to generate images or upscaling images. The ability to pause the process would help people who have a image generating or upscaling, but taking a while to complete be able to pause the process so that they can use their GPU resources for something else that should take priority. The ability to select a specified limit of the amount of GPU vram being used by Stable Diffusion would also be a huge enhancement. In my case, I have it upscaling an image that has taken a while to complete, though I have a need to use my GPU for other things such as working in Unreal Engine. Having a pause mechanism or even a save state from which one can go back to and continue where Stable Diffusion left off would be a huge help.

Proposed workflow

  1. Go to the top of the page where there is usually an interrupt and skip button, but have a third button which would pause the current process and either save the state it is in so that one can go back to that position for the process to finish later, or just pause the process. When the user is done with the task they needed to complete outside of stable diffusion, they could press the unpause button or continue from saved checkpoint.

Additional information

The ability for the user to specify the amount of vram that Stable Diffusion can use would also help this specific situation. Selecting a lower amount of vram for Stable Diffusion and allowing the user to user the rest of their vram for another task while Stable Diffusion is slowly working away at the task it has in its queue in the background.

2blackbar

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

Applying cross attention optimization (Doggettx).
Training at rate of 0.05 until step 25000
Preparing dataset…
100%|██████████████████████████████████████████████████████████████████████████████████| 10/10 [00:01<00:00, 5.29it/s]
0%| | 0/5891 [00:00<?, ?it/s]Traceback (most recent call last):
File «F:sdmodulestextual_inversiontextual_inversion.py», line 506, in train_embedding
scaler.step(optimizer)
File «F:sdvenvlibsite-packagestorchcudaampgrad_scaler.py», line 336, in step
assert len(optimizer_state[«found_inf_per_device»]) > 0, «No inf checks were recorded for this optimizer.»
AssertionError: No inf checks were recorded for this optimizer.

Applying cross attention optimization (Doggettx).

Steps to reproduce the problem

  1. just train embedding

It happens randomly but when it happens its hard to get it working, and i have no clue why its happening so no idea how to make it go away
im on win10 gtx 1080ti

What should have happened?

it should train normally cause it trained seconds ago

Commit where the problem happens

https://github.com/AUTOMATIC1111/stable-diffusion-webui/commits/master

What platforms do you use to access the UI ?

Windows

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

List of extensions

none

Console logs

Additional information

No response

ArmadstheDoom

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

OS: Windows 10
Browsers: Chrome

The ability to train embeddings and hypernetworks is now broken. I was able to do them without any issues. I then updated the gui with a git pull, and now it doesn’t work. The error that it gives me is this:

Traceback (most recent call last):
File «C:UsersarmadDesktopAutomaticWebUIstable-diffusion-webuimodulestextual_inversiontextual_inversion.py», line 337, in train_embedding
scaler.step(optimizer)
File «C:UsersarmadDesktopAutomaticWebUIstable-diffusion-webuivenvlibsite-packagestorchcudaampgrad_scaler.py», line 336, in step
assert len(optimizer_state[«found_inf_per_device»]) > 0, «No inf checks were recorded for this optimizer.»
AssertionError: No inf checks were recorded for this optimizer.

Again, all that has changed is hat I did a git pull on the newest version.

Steps to reproduce the problem

  1. go to the training tab, fill in the relevant information.
  2. click ‘train’

What should have happened?

What should happen is that the training should begin.

Commit where the problem happens

cefb5d6

What platforms do you use to access UI ?

Windows

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

--deepdanbooru --xformers

Additional information, context and logs

No response

kabachuha

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

Upscale huge batches of images faster by feeding multiple images to the upscaler nets such as esrgan or swinrl in increased batch sizes directly.

Right now, the upscalers process only a single image at the time and it’s a huge loss of time accumulating for large sequences, for example, Deforum’s output videos.

For comparison, upscalers eta for ~1 min Deforum videos reaches around 1h, meanwhile Topaz video (where upscalers are obviously parallelized, if not run on multiple gpus) has only ~5 mins.

Proposed workflow

  1. Go to extras/launch upscalers from an extension using scripts api
  2. Select desired params.
  3. Select the batch size that fits in your GPU. (esp with SD unloaded from memory)
  4. Press generate
  5. Profit! The process should be much faster now

Additional information

No response

daanpol

Describe the bug
When using the SD upscale script the tiles do not respect the underlying content.

To Reproduce
Steps to reproduce the behavior:

  1. Send a generated image to img2img
  2. Select the SD Upscale script
  3. The selected upscaler has no effect on the problem.
  4. Click Generate
  5. See error.

Expected behavior
A seamless upscale.

Desktop (please complete the following information):

  • OS: Windows
  • Browser : Chrome

Uplift-Spice

Describe the bug
I followed the install to the letter, all else installed correctly but whenever the cmd prompt reaches
«Installing requirements for Web UI
Launching Web UI with arguments:» it only responds with this error:
«Traceback (most recent call last):
File «C:UserswoodsOneDriveDocumentsSDlocallaunch.py», line 143, in
start_webui()
File «C:UserswoodsOneDriveDocumentsSDlocallaunch.py», line 139, in start_webui
import webui
File «C:UserswoodsOneDriveDocumentsSDlocalwebui.py», line 10, in
import modules.codeformer_model as codeformer
File «C:UserswoodsOneDriveDocumentsSDlocalmodulescodeformer_model.py», line 8, in
import modules.face_restoration
File «C:UserswoodsOneDriveDocumentsSDlocalmodulesface_restoration.py», line 1, in
from modules import shared
File «C:UserswoodsOneDriveDocumentsSDlocalmodulesshared.py», line 13, in
import modules.sd_models
File «C:UserswoodsOneDriveDocumentsSDlocalmodulessd_models.py», line 11, in
from modules import shared, modelloader, devices
File «C:UserswoodsOneDriveDocumentsSDlocalmodulesmodelloader.py», line 7, in
from basicsr.utils.download_util import load_file_from_url
File «C:UserswoodsOneDriveDocumentsSDlocalrepositoriesCodeFormerbasicsr_init_.py», line 11, in
from .version import gitsha, version
ModuleNotFoundError: No module named ‘basicsr.version'»

  • OS: Windows 10
  • Browser Microsoft Edge

Please help

simonlsp

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

Enable direct-ml for stable-diffusion-webui, enabling usage of intel/amd GPU in windows system.
This protocol is already tested, a pull request will be submit soon.

Proposed workflow

With pytorch-directml 1.13, we could add this feature with minimal code change.
All we need is to modify get_optimal_device_name (in devices.py), and add

if has_dml():
    return "dml"

dml could not be refrenced by name, so you should also modify get_optimal_device (also in devices.py), adding

if get_optimal_device_name() == "dml"
    import torch_directml
    return torch_directml.device()

and modify sd_models.py to avoid using «dml» as string, change line from

device = map_location or shared.weight_load_location or devices.get_optimal_device_name()

to

device = map_location or shared.weight_load_location or devices.get_optimal_device()

finally, add a dml workaround to devices.py:

# DML workaround
if has_dml():
    orig_cumsum = torch.cumsum
    orig_Tensor_cumsum = torch.Tensor.cumsum
    torch.cumsum = lambda input, *args, **kwargs: ( orig_cumsum(input.to("cpu"), *args, **kwargs).to(input.device) )
    torch.Tensor.cumsum = lambda self, *args, **kwargs: ( orig_cumsum(self.to("cpu"), *args, **kwargs).to(self.device) )

you could define has_dml() wherever suits your need.

To install enviorment:

conda create -n stable_diffusion_directml python=3.10
conda activate stable_diffusion_directml
conda install pytorch=1.13.1 cpuonly -c pytorch
pip install torch-directml==0.1.13.1.dev230119 gfpgan clip
pip install git+https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b
# Launch to clone packages including requirements
python .launch.py --skip-torch-cuda-test --lowvram --precision full --no-half
# Install requirements
pip install -r repositoriesCodeFormerrequirements.txt
pip install -r requirements.txt
# Start
python .launch.py --skip-torch-cuda-test --lowvram --precision full --no-half

Here are examples
Sample1
Sample2

Additional information

No response

bosbrand

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

With any of my models, generated images are screwed up in the last step(s). I can see the generation doing great when I run a script, outputting every step until the last steps. Then it is as if there was a sort of sharpening taking place in certain places, most noticeably faces. I see sharpening, but it is more like distorting. In LMS this effect is most apparent, because there the problem areas are just made into glitchy mosaic in the last steps.

Steps to reproduce the problem

  1. Start stable diffusion
  2. Choose Model
  3. Input prompts, set size, choose steps (doesn’t matter how many, but maybe with fewer steps the problem is worse), cfg scale doesn’t matter too much (within limits)
  4. Run the generation
  5. look at the output with step by step preview on.

What should have happened?

The last step should improve on the ones before, except now it tends to ruin what was building up beautifully.

Commit where the problem happens

645f4e7

What platforms do you use to access UI ?

Windows

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

Additional information, context and logs

sample-00035
sample-00033

VantomPayne

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What happened?

After pulling the latest commit, certain loras are not loaded during generation, instead gives error in console:

activating extra network lora with arguments [<modules.extra_networks.ExtraNetworkParams object at 0x000001A66D7BEBF0>, <modules.extra_networks.ExtraNetworkParams object at 0x000001A66D7BCCD0>]: Exception
Traceback (most recent call last):
File «F:stable-diffusion-webuimodulesextra_networks.py», line 75, in activate
extra_network.activate(p, extra_network_args)
File «F:stable-diffusion-webuiextensions-builtinLoraextra_networks_lora.py», line 17, in activate
lora.load_loras(names, multipliers)
File «F:stable-diffusion-webuiextensions-builtinLoralora.py», line 151, in load_loras
lora = load_lora(name, lora_on_disk.filename)
File «F:stable-diffusion-webuiextensions-builtinLoralora.py», line 83, in load_lora
sd = sd_models.read_state_dict(filename)
File «F:stable-diffusion-webuimodulessd_models.py», line 220, in read_state_dict
pl_sd = safetensors.torch.load_file(checkpoint_file, device=device)
File «F:stable-diffusion-webuivenvlibsite-packagessafetensorstorch.py», line 98, in load_file
with safe_open(filename, framework=»pt», device=device) as f:
Exception: Error while deserializing header: InvalidHeaderDeserialization

I have noticed that newer Loras still work, so it’s possible the «pre-0.40» lora fix broke during the last commit.

Steps to reproduce the problem

  1. Load lora of choice (older ones tend to produce this problem in my instance) via either the extention method or the new cards method.
  2. Press Generate
  3. Generation should still work, but lora has no effect, console shows error provided above.

What should have happened?

All loras should load properlly.

Commit where the problem happens

93fad28

What platforms do you use to access UI ?

Windows

What browsers do you use to access the UI ?

Google Chrome

Command Line Arguments

Additional information, context and logs

No response

ZeroCool22

Is there an existing issue for this?

  • I have searched the existing issues and checked the recent builds/commits

What would your feature do ?

Just a Button to Zoom In/Out (Right Click Zoom In and Left Click Zoom Out):

AUTO ZOOM

Proposed workflow

  1. Right Click = Zoom In / Left Click = Zoom Out.
  2. Press ….

Additional information

No response

    • Home
    • Tech

27 Sep 2022 1:13 PM +00:00 UTC

Try these tips and the Stable Diffusion runtime error will be a thing of the past.

Stable Diffusion Runtime Error: How To Fix CUDA Out Of Memory Error In Stable Diffusion


Credit: Stability.ai

If the Stable Diffusion runtime error is preventing you from making art, here is what you need to do.

Stable Diffusion is one of the best AI image generators out there. Unlike DALL-E and MidJourney AI, Stable Diffusion is available for the public and anyone with a powerful machine can generate images from texts.

However, Stable Diffusion might sometimes run into memory issues and stop working. If you are experiencing the Stable Diffusion runtime error, try the following tips.

How To Fix Runtime Error: CUDA Out Of Memory In Stable Diffusion

So you are running Stable Diffusion locally on your PC, maybe trying to make some NSFW images and bam! You are hit by the infamous RuntimeError: CUDA out of memory.

The error is accompanied by a long message that basically looks like this. The amount of memory may change but the content is the same.

RuntimeError: CUDA out of memory. Tried to allocate 30.00 MiB (GPU 0; 6.00 GiB total capacity; 5.16 GiB already allocated; 0 bytes free; 5.30 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

It appears you have run out of GPU memory. It is worth mentioning that you need at least 4 GB VRAM in order to run Stable Diffusion. If you have 4 GB or more of VRAM, below are some fixes that you can try.

  • Restarting the PC worked for some people.
  • Reduce the resolution. Start with 256 x 256 resolution. Just change the -W 256 -H 256 part in the command.
  • Try this fork as it requires a lot less VRAM according to many Reddit users.

If the issue persists, don’t worry. We have some additional troubleshooting tips for you to try. Keep reading!

Other Troubleshooting Tips

So you have tried all the simple and quick fixes but the runtime error seems to have no intention to leave you, huh? No worries! Let’s dive into relatively more complex steps. Here you go.

  • As mentioned in the error message, run the following command first: PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128. Then run the image generation command with: —n_samples 1.
  • Call the optimized python script. Use the following command: python optimizedSD/optimized_txt2img.py —prompt «a drawing of a cat on a log» —n_iter 5 —n_samples 1 —H 512 —W 512 —precision full
  • You can also try removing the safety checks aka NSFW filters, which take up 2GB of VRAM. Just replace scripts/txt2img.py with this:
    https://github.com/JustinGuese/stable-diffusor-docker-text2image/blob/master/txt2img.py

Hopefully, one of the suggestions will work for you and you will be able to generate images again. Now that the Stable Diffusion runtime error is fixed, have a look at how to access Stable Diffusion using Google Colab.

Понравилась статья? Поделить с друзьями:
  • Stabili track opel astra ошибка
  • Sta does not want to use the mechanism 37 ubiquiti как исправить
  • St no adj 83 паджеро ошибка митсубиси
  • Stack underflow ошибка печати
  • St link utility ошибка 0xc000007b