2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

【StableDiffusion】画像生成AI質問スレ22

1 :名無しさん@お腹いっぱい。 :2024/03/23(土) 14:16:20.22 ID:N0ymcDqFM.net
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください

Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>>970が立ててください。

質問する人はなるべく情報開示してください

・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く

テンプレは https://rentry.co/aiimggenqa

※前スレ
【StableDiffusion】画像生成AI質問スレ21
https://mevius.5ch.net/test/read.cgi/cg/1703243927/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

2 :名無しさん@お腹いっぱい。 :2024/03/23(土) 14:18:58.93 ID:N0ymcDqFM.net
■LoRAを使うと生成速度が落ちる
Lycorisの拡張機能を無効にすると直ることがあります

3 :名無しさん@お腹いっぱい。 :2024/03/26(火) 14:21:13.45 ID:X7niUkeB0.net
たておつ
前のスレでforgeのLoraの初回が遅いってやつ
それが発生したら一回生成すればちゃんと動くけど毎度待ってらんないから
一旦生成はキャンセルして再生成するとちゃんと動くようになるよ
なんだろうねバグかね
初回生成すらできないのはブラウザ更新かければ動くようになるよ

4 :名無しさん@お腹いっぱい。 :2024/03/26(火) 16:51:47.45 ID:uBsKwyQ/0.net
前スレの995です
返信ありがとうございます
>0995名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW)
>最近sdxlのためにforgeを使い始めたんですが、sdxlモデルの読込(初回使用時やモデルを変更する際の)に10分くらいかかるんですが
>2070の8gbを使用かつモデルが大きいからそのようなものでしょうか

Lycorisの拡張機能は元々入ってないようです
Diskinfoでチェックしてみましたが、正常で問題ありませんでした
>0996名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz)
>>>995
>それはさすがに時間がかかりすぎだと思う
>しかしどうしてだろうね?
>こういうのもLycorisの拡張機能をオフにすれば改善するのかな
>気休めかもしれないけどCrystalDiskInfoでストレージの健全性をチェックしてみるとか

CドライブがSSDなのですが、C直下に入れるのが嫌だったので内部HDDのDドライブに現在入れています
その環境下でSD1.5のモデルを読込む際は2GBのものは30秒程度、3GBのものは60秒程度で、SDXL(6GB)の場合は600秒程度要します
SDXLのような大きなサイズの場合にのみ影響が発生することはあるのでしょうか
>0997名無しさん@お腹いっぱい。 (ベーイモ MMc6-CYwW)

5 :名無しさん@お腹いっぱい。 :2024/03/26(火) 16:52:26.61 ID:uBsKwyQ/0.net
a1111ではsdxlを試していません
forgeにしてからSD1.5の読込はa1111と比較して快適になったのですが、上記にあるようにSDXLの場合に明らかに長くおかしいと思い聞いてみました
そういった知識がなく理解が怪しいので返答としてあっているのか分かりませんが、
RAM16GBを使用していてSDXLモデルを読込んでいる最中は使用量が95-99%を占め、利用可能が200MB〜1GB程度でコミット済みが35/40GB程度です
>0998名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro)
>文章的にa1111は問題なかった?ように読めるけど
>forgeはVRAM節約分、a1111よりメインメモリの使用量は多いとかなんとか
>メインメモリが少なくなってて、HDDの仮想メモリに溢れてるとかはない?

インストールし直すことにしまして以下のコマンドを使用しました
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git
元々最新verを使用していて、今回も最新verをインストールしました
ですが改善はされませんでした。おすすめのverとかってありますか?

6 :名無しさん@お腹いっぱい。 :2024/03/26(火) 17:08:25.94 ID:XBI5mrXPr.net
メインメモリ16は少なすぎるし
HDD上で動かすのも良くない
メモリはせめて32、できれば64↑
SDはSSD上で動かす

Xはモデルデータか大きくなったから1.5の時に感じにくかったスペック問題が顕著になってる

7 :名無しさん@お腹いっぱい。 (ワッチョイ 8da4-rfcW):2024/03/26(火) 17:38:48.03 ID:CqvchsRE0.net
AI脱がしで良いんでは???
1日1回無料だし
https://nudefusion.com/ja?referral=kjtj4k6kop6emod
https://nudefusion.com/ja?referral=pbmsbfo7myo6z8t
https://clothoff.app/r/clmd0jl3n164ezy6089glizot
https://drawnudes.app/r/clq4xlk3u312auuji

8 :名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz):2024/03/26(火) 17:45:34.39 ID:+VX7H6no0.net
モデルはSSDに入れるのがいいと思う、読み込みの早さがぜんぜん違うから
モデルが入っているフォルダを指定する方法もあるから、forge本体はHDD、モデルはSSDという運用も可能
「webui-user.bat」で「set COMMANDLINE_ARGS=--ckpt-dir c:\\sd\model\sdxl」みたいに指定する

メインメモリが16GBで足りないってことはないんじゃないかなあ
forgeとブラウザのほかに大きいアプリケーションを起動してなければ大丈夫じゃない?

forgeでおすすめのバージョンは特にありません。考え方は人によるけど、forgeはいつも最新を使うのがいいと思う

9 :名無しさん@お腹いっぱい。 (ワッチョイ 6e41-lp1z):2024/03/26(火) 17:47:15.43 ID:wEjgLBtH0.net
前スレでcleavage cutout教えてくれた方
ありがとうございます
シコる前に一言お礼を言わせてください

10 :名無しさん@お腹いっぱい。 (オイコラミネオ MM91-1A7h):2024/03/26(火) 18:09:58.79 ID:+IWPpmp+M.net
カピカピになった手で書き込みされても…

11 :名無しさん@お腹いっぱい。 :2024/03/26(火) 18:17:16.57 ID:BUl+x2840.net
前スレ
https://mevius.5ch.net/test/read.cgi/cg/1703243927/918
> dynamic promptsのchunkが生成ファイルに残らない
これ「ReloadUIしてなかった」で解決と思ってたけど違ってて再発


https://github.com/Bing-su/adetailer/issues/447
https://github.com/adieyal/sd-dynamic-prompts/issues/703
Adetailerと併用すると消えてしまうとのこと、たまたまadetailer使わずに治ったと思い込んでた模様

https://github.com/adieyal/sd-dynamic-prompts/pull/705
で、とりあえずは治りました
報告まで・・・

12 :名無しさん@お腹いっぱい。 :2024/03/26(火) 19:08:49.85 ID:uBsKwyQ/0.net
4です、ありがとうございます
SDXLのモデルをSSDのCドライブに入れたところ、10分の読込が2,3分に短縮されました
HDDを使っていたばかりにお手数おかけしました
容量を気にせず使えるように外付けのSSDを購入しようと思います
返信していただいた方々ありがとうございました

13 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4):2024/03/26(火) 20:16:39.73 ID:TfP3Ko6R0.net
数日前から、VAEを変更しても生成結果に表示されるVAEのハッシュ値が変わらない現象が発生してます
元々vae-ft-mse-840000-ema-prunedを使用しており、ハッシュ値も正しいもの(735e4c3a44)が表示されていたのですが、sdxl_vaeを1度使用してから、VAEの、ハッシュ値がsdxl_vaeのもの(63aeecb90f)に固定されてしまっています
UI・端末再起動、VAEの削除、再ダウンロード等試しましたがハッシュ値の固定は解消されません

この現象が起きてから生成画像のクオリティが安定せず、経験ある方や何かご存知の方いたら教えて頂きたいです

必要か分からないけど以下簡単なスペック
i7-8700
rtx2060su
ram16gb

14 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4):2024/03/26(火) 20:17:47.99 ID:TfP3Ko6R0.net
>>13
UIはforgeの最新版です

15 :名無しさん@お腹いっぱい。 (ワッチョイ 59c2-tIrN):2024/03/26(火) 20:25:17.28 ID:MIi0LxvU0.net
>>13
sdxl_vae削除したときはどーなんの?
vaeが適用されない?
(まあsdxlはvae焼かれてるモデルも結構あるが)
あと結局sd1.5とsdxlどっち使いたいんだろ

16 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4):2024/03/26(火) 20:50:42.18 ID:TfP3Ko6R0.net
>>15
sdxl_vaeを削除して、vae-ft-mse-840000-ema-prunedを選択してもsdxl_vaeのハッシュ値が表示されてますね

sdxlは好奇心で使ってみただけで、マシンスペック的にも1.5を使用してくつもりです

17 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4):2024/03/26(火) 21:01:51.52 ID:TfP3Ko6R0.net
あ、文章の意味勘違いしてた
vaeが反映されない、ですね

18 :名無しさん@お腹いっぱい。 :2024/03/27(水) 00:01:15.24 ID:b9uaFY8B0.net
>>16
sdxl_vaeを削除して、上のSD VAEの更新(reflesh)ボタン押してみて、
sdxl_vae.safetensorは▽のリストにまだある?ない?

その駄目な感じの生成した時にCUI窓の方にはエラーかなんか出てない?

19 :名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro):2024/03/27(水) 01:42:29.29 ID:b9uaFY8B0.net
あと、VAE変えるときのCUIのメッセージにも異常がないかも

20 :名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+):2024/03/27(水) 01:48:49.57 ID:Kdot0TRC0.net
VAEに関するこの手のバグを前にもスレで見た気がするな
ここだったかどうか覚えてないけど

21 :名無しさん@お腹いっぱい。 :2024/03/27(水) 08:56:34.75 ID:1a89kVsbd.net
>>18
リストからは消えてます
エラーは特に出てないんですよね…
生成時にも切り替え時にも

22 :名無しさん@お腹いっぱい。 :2024/03/27(水) 09:24:50.19 ID:b9uaFY8B0.net
わからんね・・
vaeの場所指定はmklink?COMMANDLINE_ARGS?
具体的にどこに入れてる?a1111内?forgeのmodelのVAE内?
外付けとかに入れてない?(昔不具合報告みたことある)

forgeのwebuiフォルダにあるconfig.jsonの325行あたりの「"sd_vae": 」が起動時の設定なんだけど
他のvaeがなんらかの原因で突如何故か認識できずに自動的に見える奴に戻してる感じだろうか
これ変えてもたぶん挙動は同じだろうなぁ

ぶっちゃけ、別フォルダにforgeそのものを入れなおすのが一番早いような・・

23 :名無しさん@お腹いっぱい。 :2024/03/27(水) 10:13:29.34 ID:o/IHU/f0d.net
>>22
場所指定はデフォルトのままで内蔵m.2 SSDのforge内models/vaeを見てます

帰ったらconfig.json確認してみます

ここまで来るとたしかに再構築した方が早そうですね、ご助力頂きありがとうございます

24 :名無しさん@お腹いっぱい。 (ワッチョイ adfa-rfcW):2024/03/27(水) 11:17:44.11 ID:a5ORGnkh0.net
forgeのloraロード時間バグは困ってたけど
https://github.com/lllyasviel/stable-diffusion-webui-forge/issues/500
このあたりが原因かな

25 :名無しさん@お腹いっぱい。 (ワッチョイ 016f-VtrB):2024/03/27(水) 17:44:59.80 ID:ZtOGuIeh0.net
forgeは最近なんか不安定。
XLモデルを変更して生成しようとするとwinの方で例外エラーが出て落ちる
モデル切り替え時にメインメモリ(16GB)が足らなくなるっぽいんだが、以前は普通に変更できてたんだよな

26 :名無しさん@お腹いっぱい。 (ワッチョイ b2b1-qS4M):2024/03/27(水) 18:32:41.79 ID:ItFwqSwH0.net
安定してたバージョンに戻せば良いんじゃないの?

27 :名無しさん@お腹いっぱい。 (ワッチョイ 8da7-HV/b):2024/03/27(水) 20:10:11.73 ID:pXGF6/BY0.net
コントロールネットの某人間めんどくさいので、クリペの3Dの画像で何か手軽に出来る方法ありませんか?

28 :名無しさん@お腹いっぱい。 (ワッチョイ 7524-6Gz/):2024/03/27(水) 20:47:55.08 ID:Ppy5KKOo0.net
A1111でバッチサイズ8/回数3で生成しているが、使用メインメモリは12.7GBでずっと安定している。
VRAMが16GBあるからメインメモリまではみ出してこないのかもしれんが。

29 :名無しさん@お腹いっぱい。 (ワッチョイ 6ef2-23IO):2024/03/27(水) 21:52:40.03 ID:LUcLOXS/0.net
家で4070
出先で3070laptopでやってるんだけど同じモデルと設定でやってるのに質に違いが出るのはなんでだろう
4070は早いけど顔が崩れやすい
ノートは遅いけど比較的忠実
前者は元の画像サイズを上げると多少マシになるけどそれでもノートで生成するより打率が低い
4070の方だけ1.8.0にアプデしたのが影響してるのかな…

30 :名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+):2024/03/27(水) 21:57:31.17 ID:Kdot0TRC0.net
ありとあらゆる環境が生成に影響するから仕方ないね
たまたま噛み合って自分の気に入ったものが出るならそれを大事にするしかない
seedやプロンプトには固定させる要素がそれほどないんだ

31 :名無しさん@お腹いっぱい。 :2024/03/27(水) 22:07:13.02 ID:LUcLOXS/0.net
なるほど
俺の場合は4070の方をLoRA作成に使った方が良さそうだね
なんかLoRAの出来にも違いが出そうだけど(-_-;)
ありがとう

32 :名無しさん@お腹いっぱい。 :2024/03/27(水) 22:13:54.57 ID:Ppy5KKOo0.net
同じSEEDでもCFGスケール値やサンプリングステップ値を変えるだけで別の絵が出てくるね。

33 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:21:23.46 ID:AVgxsnoJ0.net
質問です。
最初に画像を作成しようとしたり
モデルを変更したりしたら
TypeError: 'NoneType' object is not iterable
というメッセージが出て
一切画像を生成できなくなったのですが
これはどうやったら治るのでしょうか。

普通に複数回画像を生成できても
途中でこのエラーが表示されて
全く生成できなくなります。

34 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:31:43.80 ID:kI0Td/Xd0.net
Forgeで起きやすい問題らしいけどどんな環境かわからんし
ただ生成してるだけなのか拡張機能を何か1つでも使ってるのかもわからん
もうちょっと情報書いてほしい

35 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:37:11.43 ID:AVgxsnoJ0.net
使用しているバージョンは
version: f0.0.16v1.8.0rc-latest-268-gb59deaa3
python: 3.10.6
torch: 2.1.2+cu121
xformers: 0.0.23.post1
gradio: 3.41.2

です。
こちらで生成しようとするとエラーが頻発するようになりました

別のバージョンのversion: latest-51-g5bea443d ?
の方を今使っていますが、こちらは今のところエラーは見られません。
?

36 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:43:19.09 ID:AVgxsnoJ0.net
正直全然原因がわからないです。
昨日から変わった事はといえば中国の
容華:国風大模型
古風大模型XL
緒儿:泛光唯美大模型
亜洲人像
といったベースモデルを新しく入れて
試しに画像を生成していたのですが
異常なくらいに出力が遅く
その後に色々とエラーが出るようになったという事です。

モデルを以前から使っているアニメ系モデルに変えても
Stable Diffusionを終了して再度起動しても
同様にTypeError: 'NoneType' object is not iterable
のエラーが何度も出ます。

37 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:57:31.91 ID:NGR8/IcM0.net
https://github.com/lllyasviel/stable-diffusion-webui-forge/issues/243
このあたりだろうか
2/14なんで丁度そのバージョン跨ぎあたり?
で、つらつら読んでると
https://github.com/portu-sim/sd-webui-bmab
これ使ってる?

38 :名無しさん@お腹いっぱい。 :2024/03/28(木) 07:30:08.74 ID:AVgxsnoJ0.net
>>37
下のURLの追加プログラムはインストールしていません。
上のURLの会話には「SwinIR_4x 」という単語がたびたび出ますが
自分は高解像度補助アップスケールの際に
「4x ultraSharp」というものをたびたび使いますが
以前から使用していたので、これがバグの原因とは思えません。

それから昨日は同一seedで様々なvaeとSamplerを
ひとつひとつ使って生成結果を試していて
その後に元の設定に戻したのですかず
もしかするとそのあたりも何か関係しているのかもしれません。

39 :名無しさん@お腹いっぱい。 (ワッチョイ 75d7-VC0S):2024/03/28(木) 12:05:51.84 ID:33edf7Nh0.net
.statisfaction じゃなく.ckpt
だったりして、、、、悪意の、、

つか追加したモデルファイルをどうしてるか、消したり移動したりはしてないのよね?

40 :名無しさん@お腹いっぱい。 :2024/03/28(木) 12:33:31.75 ID:zNM4xzEj0.net
たぶん、pythonのバージョンの認識エラー
venvをリネームして様子見てみれば、何か分かるかも知れない

41 :名無しさん@お腹いっぱい。 :2024/03/28(木) 15:44:55.01 ID:AVgxsnoJ0.net
>>40
venvをいったん削除して再起動すると
新しくvenyが作られるので
削除して再起動しましたが、変わらずに同様のエラーが出て
画像を生成できません。

>>39
追加した中華性モデルファイルは使い物にならないので
リネームして、廃棄物を集めたフォルダに移動しました。

42 :名無しさん@お腹いっぱい。 :2024/03/28(木) 15:51:51.01 ID:AVgxsnoJ0.net
なおPythonのバージョンは 3.10.6です。
起動画面には緑文字や赤文字で
[notice] A new release of pip available: 22.2.1 -> 24.0
[notice] To update, run: D:\StableDiffusion\Forge\venv\Scripts\python.exe -m pip install --upgrade pip
と出てきます。
table DiffusionのAUTOMATIC 1111は
Pythonのバージョンの3.1系でないと動かないとあるので
アップデートはしていません。

43 :名無しさん@お腹いっぱい。 :2024/03/28(木) 16:08:59.98 ID:NGR8/IcM0.net
ちなみにhires.fixなしでも同じエラー出る?

44 :名無しさん@お腹いっぱい。 :2024/03/28(木) 16:20:00.62 ID:oh2Y5HqH0.net
forgeはcu12.1でxformers: 0.0.23が対応してないっぽいけどそれじゃないの?
https://github.com/Stability-AI/stablediffusion/issues/170
https://github.com/facebookresearch/xformers/issues/960

>>42
それ自体はpipのバージョンらしいから問題ないっぽい
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q10277653520
https://pip.pypa.io/en/stable/news/

45 :名無しさん@お腹いっぱい。 :2024/03/28(木) 17:14:41.40 ID:AVgxsnoJ0.net
昨日、画像生成速度がかなり上がるという
a1111-sd-webui-tomeという拡張機能をインストールしたのですが
この機能をインストール済一覧からチェックを外して再起動したら
エラーの数がかなり減ったように思います。

46 :名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro):2024/03/28(木) 19:52:53.33 ID:NGR8/IcM0.net
> 昨日から変わった事はといえば中国の
> 昨日、画像生成速度がかなり上がるというa1111-sd-webui-tomeという拡張機能をインストールしたのですが
ええ・・

47 :名無しさん@お腹いっぱい。 (オッペケ Sr79-Rh4k):2024/03/28(木) 19:56:56.48 ID:70smoLWjr.net
このなんとも言えないもんにょり感よ……

この感じだと、他にも拡張機能一気にアップデートしたとか色々原因ありそうよな

48 :名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+):2024/03/28(木) 19:59:35.55 ID:kI0Td/Xd0.net
だって最初の質問から漂う空気が
「なにもしてないのに壊れた」って感じだったもん

49 :名無しさん@お腹いっぱい。 :2024/03/29(金) 03:20:03.68 ID:SNPW60uA0.net
環境の変化でなにかが起こったかどうか完全に新しい構築をもう一つ作って
動作確認してから来てほしい、

50 :名無しさん@お腹いっぱい。 (JP 0H1a-rfcW):2024/03/30(土) 11:17:54.48 ID:KWy2Tc8UH.net
生成した画像をワンクリックでimg2imgとかに送るタブがあると思うんですが
a1111の方は大きいタブでSend to img2imgみたいに書いてあって見て分かりやすい
forgeの方はタブが小さくカーソルを合わせれば説明が出てくるのですが見て分かりづらい
という違いが起きているのですが、これは拡張機能やセッティングでどうにかなるものですか

51 :名無しさん@お腹いっぱい。 (ワッチョイ b108-Juro):2024/03/30(土) 12:15:07.92 ID:2sr8ax9v0.net
a1111が1.6(2023/8/31)あたりでアイコンになってるのでめっちゃ古いの使ってたのでは・・
forgeは基本、倣ってるだけなんで

変える設定はぱぱっと検索した限りでは見つからなかった
そもそもボタンでかすぎるだろって要望で変えたんだろうし
gradio触れる人なら簡単にできそう

52 :名無しさん@お腹いっぱい。 :2024/03/30(土) 12:48:00.90 ID:KWy2Tc8UH.net
>>51
ありがとうございます
改良の結果アイコンが小さくなってたんですね
確かにa1111の方は不便がないかぎりアップデートしてなかったのでver1.5くらいで止まってました

53 :名無しさん@お腹いっぱい。 :2024/03/30(土) 15:41:16.33 ID:GiQ1byac0.net
a11111.7.0でcivitai helper使ってるんだけどUIが変わってからダウンロードできなくなった
url入れてget model…クリックすると「subfolder string is None」て出るんだけど解決方法教えてくれ
前のサムネが出るタイプのときは問題なかったんだがサムネのでないタイプになってからはダメ

54 :名無しさん@お腹いっぱい。 :2024/03/30(土) 17:22:11.58 ID:/M7/6GSa0.net
>>53
civitai helperが新UIに対応するまではじっと我慢しかないのでは
githubのissueに当座の解決方法が提案されているかも

55 :名無しさん@お腹いっぱい。 :2024/03/30(土) 17:22:48.68 ID:2sr8ax9v0.net
使ってないので詳しいことは知らないけど
https://github.com/civitai/civitai/issues/1100
このあたりかな?helperの作者さんもレスしてる
civitaiがAPI周りを変更したとか
https://github.com/civitai/civitai/issues

56 :名無しさん@お腹いっぱい。 :2024/03/30(土) 17:23:19.46 ID:8sE0RXzG0.net
>>53
【StableDiffusion】画像生成AI質問スレ22
https://mevius.5ch.net/test/read.cgi/cg/1708834240/608

57 :名無しさん@お腹いっぱい。 :2024/03/30(土) 18:36:23.77 ID:pQlmR15m0.net
近い将来AVは生のAV女優を使わなくても過去のAVから生成AIで
いくらでもAVを作れるようになりますか?
そうなればAV界の様々な問題も解決していいですね
AV女優も不要になりますから

58 :名無しさん@お腹いっぱい。 :2024/03/30(土) 18:44:28.44 ID:9g5bZlqRr.net
やってることがディープフェイクと区別つかんから
技術はともかく倫理と法的にあと何十年かは合法にならんかも

59 :名無しさん@お腹いっぱい。 :2024/03/30(土) 18:52:17.12 ID:sSL943Ek0.net
自動運転と同じで法整備が追い付かないパターンになりそうね
追い付いたら追いついたで動画が証拠として使えなくなるような世界になっていそうだけど

60 :名無しさん@お腹いっぱい。 :2024/03/30(土) 19:23:02.45 ID:eb8SFqty0.net
>>57
なりません

61 :名無しさん@お腹いっぱい。 :2024/03/30(土) 19:29:10.47 ID:Zr+TGOtV0.net
Stability Matrix 超便利よ

62 :名無しさん@お腹いっぱい。 :2024/04/08(月) 22:29:08.52 ID:BAKh+Ur/0.net
>>57
数年の間に、チラシや広告の安いのはAIに取って代わられるだろうな。
次に出てくるのがCMだ。30sec程度の動画ならパワフルなPCで自由自在になるだろう。
その次が30分モノのTV漫画かな。
長尺のAVは一番最後だろうね。

63 :名無しさん@お腹いっぱい。 :2024/04/09(火) 14:09:23.01 ID:+FO8pOXFM.net
マッチングアプリの広告でAI画像にしか見えないのが使われてて、そのことで話題になってるのとかあるよね
ああいうところから入れ替わっていくんだろうな

64 :名無しさん@お腹いっぱい。 :2024/04/14(日) 05:32:07.32 ID:fwMkCCJK0.net
>>57
いまのAI生成周り見る限りでは、作ること自体は可能になるだろうけど、
2人以上の絡みとかは普通の人には難しくて作れないので買う形になって
プログラマ兼モーションデザイナーみたいな職業ができると思う

65 :名無しさん@お腹いっぱい。 :2024/04/17(水) 10:08:48.11 ID:E4qVb1dNM.net
過去のAVから作るって、
顔だけ変えてとかのフェイク動画なら今でもできるだろね

AIが小説を書くのと同じレベルで
勝手にシナリオ作って動画まで作れるようになるとそりゃ凄いな

人間が指示しないと出来ないようなら、
女優男優に演じてもらった方が早い

66 :名無しさん@お腹いっぱい。 :2024/04/17(水) 15:55:31.36 ID:r0OBxfMh0.net
AVってヤッてることみんな同じじゃん?
ストーリー学習させたらAIが退屈して鼻くそほじりだしそう

67 :名無しさん@お腹いっぱい。 :2024/04/18(木) 22:33:35.96 ID:6RPNcF9x0.net
stable-diffusionのスレだから、LoRAを作るkohya_ssもOKでしょうか?

実は低スペックpcで実行してエラーが出て困っており、お助けいただけないかと。
12年前のノートパソコンHP-ProBook-4730sで、GPUはRADEONのため、フルCPUで実施しています。
512☓512の画像作成に30分はかかりますかねぇ((泣)

そんな環境で、無謀にもRoLA作成しようとしてエラーが出てしまいました。

学習は実行され、LoRAはとりあえず3個できたところでエラー吐いて終了。

自由に使えるパソコンはこれしかなく、ターゲットがエロ絵なので公開のサーバーを使うわけにもいかず、エラー解消して動かしたいのですが、技術的な助言をいただけないでしょうか?

実行中の端末から取り出したエラーはこんな感じです。
subprocess.CalledProcessError: Command '['/home/hoge/ダウンロード/kohya_ss
/venv/bin/python', '/home/hoge/ダウンロード/kohya_ss/sd-scripts/train_network.py', '--bucket_no_upscale', '--bucket_reso_steps=64',
'--cache_latents', '--caption_extension=.txt', '--clip_skip=2', '--enable_bucket', '--min_bucket_reso=256', '--max_bucket_reso=2048',
'--learning_rate=0.0001', '--lr_scheduler=cosine', '--lr_scheduler_num_cycles=10', '--lr_warmup_steps=325', '--max_data_loader_n_workers=0', '--max_grad_norm=1'
, '--resolution=512,512', '--max_train_steps=3250', '--mixed_precision=no', '--network_alpha=1', '--network_dim=8'
, '--network_module=networks.lora', '--optimizer_type=AdamW'
, '--output_dir=/home/hoge/ダウンロード/kohya_ss/outputs', '--output_name=mimudagirl_v1', '--pretrained_model_name_or_path=/home/hoge
/ダウンロード/kohya_ss/models/anyloraCheckpoint_bakedvaeBlessedFp16.safetensors'
, '--save_every_n_epochs=2', '--save_model_as=safetensors', '--save_precision=fp16', '--seed=1000', '--text_encoder_lr=0.0001'
, '--train_batch_size=1', '--train_data_dir=/home/hoge/ダウンロード
/kohya_ss/input/mimudagirl', '--unet_lr=0.0001']' died with <Signals.SIGKILL: 9>.

長過ぎると怒られたので適当に改行しましたが、エラーメッセージは1行で出力されました。

68 :名無しさん@お腹いっぱい。 :2024/04/18(木) 22:50:47.48 ID:Hg6+L1Rl0.net
素直にマシン買い換えろ。
第八世代辺りの中古デスクトップなら1万円切ってる。

69 :名無しさん@お腹いっぱい。 :2024/04/18(木) 23:00:18.74 ID:gCGcaBHR0.net
ダウンロードフォルダが原因じゃね? 2バイトコード名だし

70 :名無しさん@お腹いっぱい。 :2024/04/18(木) 23:32:45.67 ID:xQwywUhn0.net
カタカナやめてみたら?

71 :名無しさん@お腹いっぱい。 (ワッチョイ 7fa9-ZO1Y):2024/04/19(金) 11:14:36.57 ID:Tu0uSSbn0.net
もしかして
AI生成って何回もリセマラしたり
一枚納得の出来る画像作るまで何日もかけたり
大量のLoraを用意するのが普通?
蒸留のような泥臭い方法はよくあること?

72 :名無しさん@お腹いっぱい。 (ワッチョイ b7fd-AFAK):2024/04/19(金) 12:05:01.48 ID:hf9IB9RY0.net
>>71
Loraは盛りすぎると引っ張りあって変な画像になることもあるから使用するのは3個くらいまでじゃね?
用意という点でいえばDLした数が多いほど幅が広がるから好きなLoraを手に入れればいい
蒸留が何を意味してるかもわからんし泥臭い方法がなんなのかもわからんが
悪い部分をそぎ落とすのはプロンプトの仕事だからリセマラとは関係ない
版権絵をぶち込んで顔だけ固定するとかやれるけど泥臭いというより入手手段が合法で公表しないなら内心の自由みたいなもん
日数は遅いマシンなら1枚の絵を仕上げるのに数日かかったりはする
open pose とかControlNetとか使ってこだわるならもう少し時間がかかるかもしれん

73 :名無しさん@お腹いっぱい。 (オッペケ Sr8b-ROwx):2024/04/19(金) 12:26:45.01 ID:i5z2wnibr.net
まず、AI生成のコツを掴むまでに、512x512の画像1枚にすら30分とかかけてたら不毛すぎるぞ

>>67 の状況とか
・生成時間の無駄
・生成してる間の電気代の無駄
・生成で負荷が掛かり続けてPC寿命を無駄に削る


>>71
生成時間、生成者の環境とか慣れ具合とか生成目的とか拘りぐあいで千差万別
それこそSDXL基本サイズ(1024x1024)1枚生成5秒以下の環境使ってる人と、>>67 みたいな環境使ってる人とじゃ何もかも基準が違う

74 :名無しさん@お腹いっぱい。 :2024/04/19(金) 12:34:26.88 ID:zrU++40vM.net
最近始めてMeinaMixってやつそのまま使ってるだけなんだけど、顔エロくすると髪がよく顔に被さるんだけど何かいい対策ある?

75 :名無しさん@お腹いっぱい。 :2024/04/19(金) 12:52:39.06 ID:sm8NSs7N0.net
foreheadぶち込んどけば、なんとかなる

76 :名無しさん@お腹いっぱい。 :2024/04/19(金) 14:03:11.02 ID:zrU++40vM.net
ほーんサンキュー先輩
試してみるわ

77 :名無しさん@お腹いっぱい。 :2024/04/19(金) 15:42:47.28 ID:5NWf3eiI0.net
>>71
プロンプト1発で目的絵を出すのはある程度慣れた人か細かいこと気にしない人向けかな
低解像度で先に大枠作ったりLoraやCNでリセマラ繰り返しながら
自分流のやり方の確立とベースになる絵の資産が増えていく

78 :名無しさん@お腹いっぱい。 :2024/04/19(金) 16:42:35.70 ID:23ysX13t0.net
>>71
そもそも正確に細かい指定をすることができない
こっちが明確に指定したとしても、99%出る物や10%しか出ないような物が混在している
なによりあらゆる事象を学習しているわけでもないので、出力不可な要素もある

出る出ないを把握すれば、出る範囲で狙ったものを高確率で一発出しすることは可能

79 ::2024/04/19(金) 16:44:34.20 ID:Y8N+P8BA0.net
ebara pony(またはpony)でガチホモ絵を作ってます
受けの年齢を竿役と同じくらい(25歳以上)で出したいのですがyears oldなどのプロンプトを使ってもショタや少年で出力されることが多く狙った絵が上手く出せません

どうかお力を貸していただけないでしょうか

80 :名無しさん@お腹いっぱい。 :2024/04/19(金) 16:53:34.13 ID:23ysX13t0.net
>>67
新しいの買え
あまりに低性能すぎる。
その問題を解決しても、へたすると完成させるのに数日かかるんじゃないのか

81 :名無しさん@お腹いっぱい。 :2024/04/19(金) 16:56:23.63 ID:bPdl8Z1K0.net
>>79
エロは専用スレがいいと思う

【StableDiffusion】AIエロ画像情報交換39
https://mercury.bbspink.com/test/read.cgi/erocg/1712242461/

82 ::2024/04/19(金) 17:19:10.16 ID:Y8N+P8BA0.net
>>81
ありがとうございます
移動します

83 :名無しさん@お腹いっぱい。 :2024/04/19(金) 18:55:40.66 ID:mu6VZmgv0.net
>>67
むしろそのスペックでLoRA3つも吐けたなら、自分もチャレンジしようかと思ったw
ちなみに11年前のOptiplex 9020 + GTX 1050 Ti 今なら約2万円
ComfyUIのCPUモード試してみたけど 512*512で7分、LCM LoRA使って1分、GPU+LCM なら12秒
動画とLoRA学習はColabやオンラインサービスでと割り切ってるけど。

84 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:05:03.39 ID:hzdMeb1SM.net
>>76
無料の生成AIサイトがあっちこっちにあるからそこから試してみれば?

ローカルで環境構築するのは慣れないと時間かかるしなんとなく作り方のイメージ掴んだりpromptやLoraの使い方を理解するにはそっちの方が手っ取り早い

85 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:48:40.93 ID:vMjDndO70.net
>>77-78
便乗なんだが、完パケ生成までのプロセスってみんなはどうやっている?
ある程度プロンプトを固めたらガチャで100枚くらい引いて、その中で気に入ったシチュエーションを何枚か選んで、さらにパラメータいじって再生成?
それとも、きっちりとプロンプトとパラメータ追い込んでから、シード指定して量産?

86 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:53:41.04 ID:1m5svYev0.net
10秒で出力できるんだから、
適当にガチャって捨てたほうが早い

87 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:59:37.13 ID:bsEgaukK0.net
comfyUIにComfyUI ManagerをインストールしてComfyUI ManagerからWAS Node Suiteをインストールして、styleリストを適用させるのがうまくいきません。

https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk
上の動画の11:25の部分

styleリストをcomfyUIに移植できない
Noneでしか出てきません
入っているとまずい構文のANDやBREAKは取り除きました

styleリストの移植は必須でしょうか
comfyuiではプロンプトの保存はどうやりますか

88 :名無しさん@お腹いっぱい。 :2024/04/19(金) 21:18:51.49 ID:23ysX13t0.net
>>85
それ聞いてどうすんの
別にどっちでもよくないか

答えるとしたらその日の気分でいろいろやる
たいていは新しく知った知識で試行錯誤してるだけで時間無くなるが

89 :名無しさん@お腹いっぱい。 :2024/04/19(金) 21:21:28.79 ID:oSzAkXxf0.net
>>88
コミュ障やなぁ
ちょっとした雑談やん

90 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:07:58.83 ID:fNCpbJSo0.net
Stability matrixからforge使ってると
たまにpythonが保護されてるメモリにアクセスしたとやらで落ちるんだけど
修正する方法ないですかね

91 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:32:11.51 ID:V/lhjAGz0.net
男loraと女loraと2キャラでセクロス画像の生成ってどうやるの?
できればプロンプトのみで出来ないのかな?

92 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:35:39.71 ID:DKpT6qBN0.net
プロンプトのみは無理よー
2つのLoRAの効きを生成する画像に合わせて場所限定でさせるような技術は
拡張機能なしではどうにもなんない
人体が絡み合うと「この場所にある手とか足とかどっちのやねん! わからんわ全部一緒や!」ってAIちゃんが判断してしまう

93 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:46:15.16 ID:PO+VWf4b0.net
ebaraのbakedってこれなんのvae焼かれてるかわかる?

94 :名無しさん@お腹いっぱい。 :2024/04/19(金) 23:10:01.76 ID:k+NF9UvI0.net
>>93
たぶん標準のsdxl_vaeだろう、全く同じになるので

95 :0067 :2024/04/19(金) 23:18:27.46 ID:fAk4MQCM0.net
ありがとうございます。
そういえばOSの事書いてませんでした。Ubuntu22.04デスクトップで実施してます。

2.5インチ型のSSD250GBで。7割くらい埋まってますか。
StableDiffusionは容量も喰いますね。

>>0068
う゛……万切ってるなら考えましょうかねぇ……でもグラボが高かったような……

>>0069
>>0070
あ〜そういえば、ダウンロードしたからってそのままそこでやってました。
一度試してみます。

>>0073
アニメでグサグサ刺さるやつですね(嗤)
まぁ、元々、ノーパソのリプレースで余ってクローゼットに転がって、何年も電源いれてなかったヤツなので、寿命はとっくなんですが、電気代は確かにもったいないかな……
時間は……寝る前にプロンプト仕込んで、朝起きたら何枚かできてるって感じですので、あまり気にしてませんでした。


>>0080
数日なんてそんな……このLoRA仕込んだときは、完成予想に250時間ってでました。
実際、六日ほど動いたところで、エラー吐いたんですが(嗤
う〜ん、岸田のせいでカネがないから、万単位のPCなんて手が……

>>0083
秒単位で1枚ですか。う〜ん……カネがあれば……

96 :名無しさん@お腹いっぱい。 :2024/04/19(金) 23:36:41.51 ID:bsEgaukK0.net
was node suiteの再インストールがうまくいかない問題が起こっています
https://github.com/WASasquatch/was-node-suite-comfyui/issues/322

手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります
パスは確認して合ってると思います

97 :名無しさん@お腹いっぱい。 :2024/04/19(金) 23:43:44.82 ID:PO+VWf4b0.net
>>94
chacolの色味違いすぎるからなにか特別なvaeかな?とか思ってたけどそうか…普通のSDXLか…

98 :名無しさん@お腹いっぱい。 :2024/04/20(土) 00:28:37.83 ID:ND5rtJbr0.net
>>97
chacolはXL_VAE_Cのc0使ってるなあ

99 :名無しさん@お腹いっぱい。 :2024/04/20(土) 01:00:09.28 ID:hYFTRSS20.net
dynamic promptsみたいに
画像サイズをランダムとか交互に変えて、batch count入れて回す方法ってあるかな?
縦長と横長でやりたい

100 :名無しさん@お腹いっぱい。 :2024/04/20(土) 02:01:42.16 ID:LN6DbvZO0.net
>>95
俺もCPUで生成やってた時期はあるけど、圧倒的な速度差があるから本当に続けるなら買ったほうがいいよ
それに慣れるまではLORA作成が一発で成功することはまずないから、そのPCが順調に動いたとしても完成するのはいつになるかわからんぞ

101 :名無しさん@お腹いっぱい。 :2024/04/20(土) 06:46:27.46 ID:xKlsDTeN0.net
SDforgeで生成完了後にブラウザで表示される生成結果の表示を無効にしたいです。(生成された画像はすべて保存設定にしているため)
理由として長時間の生成をおこなった場合、中断に時間がかかっている状況で おそらく生成結果の表示に手間取っている影響だと思います。

102 :名無しさん@お腹いっぱい。 :2024/04/20(土) 09:30:44.65 ID:fFIeohMz0.net
>>87
数か月前のComfyUIと半年程前のWAS-NODE-SUITEでは動きました(最新版は不明)

>styleリストの移植は必須でしょうか
別途プロンプト用のノード(CLIP Text Encode等)を用意すれば問題ないかと

>comfyuiではプロンプトの保存はどうやりますか
画面右側のSaveボタンをクリックして、workflowの保存をしてください

>手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります
パスの記述内容が間違っていると、以下のエラーメッセージがコンソールに出力されるみたいなので修正してください。問題がなければComfyUIを再起動してブラウザを更新すればstyles.csvの要素が選択できます
```
WAS Node Suite Error: Unable to load conf file at `D:\***\ComfyUI\custom_nodes\was-node-suite-comfyui\was_suite_config.json`. Using internal config template.
```

103 :名無しさん@お腹いっぱい。 :2024/04/20(土) 10:45:43.05 ID:hYFTRSS20.net
>>101
settingsの「Quicksettings list」に
「do_not_show_images」追加してチェックでON/OFFする、(VAEやclipやEtaやら同様)

他にも「live_previews_enable」ってのもある

104 :名無しさん@お腹いっぱい。 :2024/04/20(土) 11:09:18.95 ID:3TLQfVWt0.net
「do_not_show_images」は設定の「Gallery」にある「Do not show any images in gallery」やね
だけど中断に時間がかかる理由は別にある気がするなあ

105 :名無しさん@お腹いっぱい。 :2024/04/20(土) 11:15:11.00 ID:hYFTRSS20.net
答える前にあるんじゃないかって一応見たんだけど、自分のforge
(version: f0.0.17v1.8.0rc-latest-273-gb9705c58 )にはなかったので・・
https://i.imgur.com/eOdkqxw.png
左上は入れたやつね

106 :名無しさん@お腹いっぱい。 :2024/04/20(土) 11:43:50.34 ID:3TLQfVWt0.net
>>105
quicksettings listに入れた設定項目は「Settings」タブから消えるんよ

107 :名無しさん@お腹いっぱい。 :2024/04/20(土) 12:00:06.07 ID:hYFTRSS20.net
つまり俺は嘘つきじゃねーか!
見落としてたのか、すまん

108 :名無しさん@お腹いっぱい。 :2024/04/20(土) 14:16:29.03 ID:58Z1MQDz0.net
>>102
ありがとうございます!
すべて直りました
style.csvの編集で1行目がemptyだとだめでした
1行目をname
2行目をempty
3行目からセーブされた名前
に編集したらいけました
それと¥マークが1つ足りていない箇所がありそこもうまく読め込めない要因でしたすみません

ところでforgeのプロンプトはどこに保存されているか分かりますか?
1111とは別のように思います
forgeのフォルダ内を見ていますがプロンプトが保存されているファイルstyle.csvらしきものが分かりません

109 :名無しさん@お腹いっぱい。 :2024/04/20(土) 16:52:36.36 ID:uQ5JSUjZd.net
いい年齢がたたかだか数千円でと思いつつみんな他にもゲームやってたりするのか

110 :名無しさん@お腹いっぱい。 :2024/04/20(土) 16:52:55.61 ID:uQ5JSUjZd.net
すまん誤爆

111 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:16:17.02 ID:xKlsDTeN0.net
>>103
>>104
ありがとうございます。
まだ数時間以上生成からの停止は試してないですが、停止は早くなった感じしてます。

112 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:18:41.66 ID:58Z1MQDz0.net
comfyUIでstyle.csvの移植に成功してPrompt Multiple Styles Selectorに表示されるようになったけど、Show Textでプロンプトが見れないです
実際にSelectorに繋いで出力するとエラーが出ます

Error occurred when executing Prompt Multiple Styles Selector:

unsupported operand type(s) for +: 'NoneType' and 'str'

このエラーコード分かりますでしょうか

113 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:37:29.81 ID:58Z1MQDz0.net
すみません直りました!

114 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:55:12.79 ID:3TLQfVWt0.net
>>112
> comfyUIでstyle.csvの移植に成功して

これどうやったか教えていただけますか?

115 :名無しさん@お腹いっぱい。 :2024/04/20(土) 20:23:08.57 ID:58Z1MQDz0.net
>>114
はい、なんの知識もありませんがわたしでよければ
>>87にあるここの説明ですが、
https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk
正確には13:35の部分を一時停止して見てください
この方は、一行目にemptyの項目を作成 と動画で紹介していますが、よく見ると2行目にemptyと書いています
パソコンでフルスクリーンにして見ると分かると思います
なので、
一行目は
A B C ←Exelの表の横のABC....のやつ
name prompt negative_prompt←一行目
empty←二行目(BとCは空欄)
セーブしたスタイルリストの名前←3行目(BにポジCにネガ)

となります
これで1111で使ってたプロンプトスタイルをcomfyUIで読み込めると思います

けれど自分はこのあと>>112のようなエラーが出ました
このエラーは、なんか判別できない記号が含まれてるよーみたいなエラー内容だったので
極力プロンプトをシンプルにしました
試しに
ポジにwoman
ネガにnsfw
しか書かないでセーブしてcomfyUIで読み込ませました
そしたらShow Textでも内容が見れましたし、出力も終えました
comfyUIで使えない構文が見直しても分からなかったので、シンプルにしました
ここから少しずつプロンプトを足していって編集していこうと思います
ワークフローをセーブすればいいんですが、1111から移植して使いたい場合、エラーが出たら極力シンプルにして徐々に足していくといいと思います
メモ帳より表計算のソフトで編集するといいです
私は編集はXLSX Editorというのを使いました

116 :名無しさん@お腹いっぱい。 :2024/04/20(土) 20:26:07.27 ID:58Z1MQDz0.net
>>115
1行目は
name prompt negative_prompt
です

117 :名無しさん@お腹いっぱい。 :2024/04/20(土) 20:43:59.88 ID:3TLQfVWt0.net
>>115
ありがとうございました!

118 :名無しさん@お腹いっぱい。 :2024/04/20(土) 22:50:53.23 ID:58Z1MQDz0.net
stability matrixでインストールしないとモデルやロラのサムネイル出てきませんかね?
view infoではサムネ見れてシビタイにも飛べますが

もうインストール紹介サイトありすぎてなんでstability matrixでインストールしなかったんだよと己と参考にしたサイトを呪ってる

しかも導入昨日から全然進んでないし
問題が解決しただけよかったが目標としてる動画生成まで辿り着けるだろうか

119 :名無しさん@お腹いっぱい。 :2024/04/20(土) 22:56:30.85 ID:58Z1MQDz0.net
いちいち問題に直面して辛すぎる

今はforgeで出力した画像をcomfyuiにドロップして生成するとなぜか汚いという問題に直面している

えんべでぃんぐフォルダを当ててないから汚いのかもしれないがforgeのときえんべでぃんぐ使ってなかったと思うのに
cpuではなくてgpuで出力してる
ああー心配
これもまたあした調べてみる
歳のせいか集中力が落ちてきてる

120 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:10:56.14 ID:hYFTRSS20.net
comfyUIとか窓から投げ捨てたよ
ぶっちゃけあれ使ってる人がなにやら凄い画像を作ってるってわけでもないし・・
forgeがある今、「こんなの使ってる俺スゲー」みたいな欲が半分くらいある時間泥棒パズルゲームって印象

121 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:16:48.10 ID:uHBxyudW0.net
いや、さすがにそれは

122 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:22:18.50 ID:58Z1MQDz0.net
シビタイのvideoってタブにある縦長の動画を作りたいんだよ
その設定に四苦八苦してね全然進んでないんだけどさ
forgeは生成早いですね
comfyui配線ごちゃごちゃしてるけどこれから無線化するところさ
5chのスレも2つあってこれから困ったらどっちで聞いていいのかわからんち

123 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:28:07.47 ID:9fB4G4E50.net
まだ初めて間もないのですが
どうも二人以上の絡みになると途端におかしくなる事が多いです
もしかしてみなさん、何回もやり直してるんですか?
そろそろ心が折れそうです・・・

124 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:35:43.46 ID:sOL49JN10.net
2人以上の絡みはRegional Prompterとか使わんとまともに描けんよ

125 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:37:31.73 ID:hYFTRSS20.net
XLのponyとかはちょっとマシに出るかな、すでに使ってるならそういうもんです
1.5でやると専用のLora使ってもなかなか難しい

126 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:38:46.61 ID:FamJEfVP0.net
>>123
画像貼ってどんな画像出したいかを書くとアドバイスもらいやすいぞ
二人以上の絡みって言っても体位や男女の数配置チェックポイントやLora含めて組み合わせ方が全然違う

127 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:40:55.10 ID:sOL49JN10.net
えちぃのはなんJ行くと猛者がたくさんいるぞ

128 :名無しさん@お腹いっぱい。 :2024/04/21(日) 11:09:50.82 ID:PlALCCp20.net
>>119
試行錯誤が辛いなら金で解決しろ
有料解説サイトがいくつもあるだろ

129 :名無しさん@お腹いっぱい。 :2024/04/21(日) 13:49:41.75 ID:yvMBHgIt0.net
>>128
もしよかったら質問したとき教えてくれませんか?
お金はなくてクレカで買ったグラボの支払いに恐れているくらいなので
わたしの質問をみかけたらどうかよろしくたのんます

130 :名無しさん@お腹いっぱい。 :2024/04/21(日) 14:19:27.39 ID:yo6I7OI50.net
質問者はグラボ何使ってるかぐらいは言った方が良い
VRAMの量によって回答内容が変わってくる質問は多い

131 :sage :2024/04/21(日) 14:57:57.62 ID:yvMBHgIt0.net
了解です

132 :名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01):2024/04/21(日) 15:57:36.06 ID:LMG+dEZI0.net
>>1に書いてあるんだけどなかなかね

133 :名無しさん@お腹いっぱい。 (ワッチョイ e062-TxeL):2024/04/21(日) 16:23:58.29 ID:yvMBHgIt0.net
>>119に書いた通りなのですが、comfyUIで出力すると汚くなってしまう
forgeで生成した画像をcomfyUIにドロップしてみると質感がまったく違う
どこかの設定をいじらないと元の画質には近付けないですか?

134 :名無しさん@お腹いっぱい。 (ワッチョイ a925-0QaG):2024/04/21(日) 16:37:50.46 ID:I2EA7lXw0.net
comfyUIとforgeまたはA1111は計算方法が少し違うので同じ絵は出ないです
計算式を近づける方法はあったと思うけど、完全に一致させるのは無理と言われてた

135 :名無しさん@お腹いっぱい。 :2024/04/21(日) 16:45:30.69 ID:c5jiss+70.net
使ったことないからどうなのかはしらんが
a1111風に解釈するノードがあったはずやな

136 :名無しさん@お腹いっぱい。 :2024/04/21(日) 16:51:48.38 ID:yvMBHgIt0.net
>>135それはどういうことでしょうか
なにか思いついたことがあればなんでもお願いします
グラボはrtx3060 12gです
majinAIにアップしても情報がnullになってしまう
それでも比較画像をのせたら分かりやすいか

137 :名無しさん@お腹いっぱい。 :2024/04/21(日) 16:52:07.77 ID:3fRE40Hz0.net
hiresも1111が優秀すぎてね
comfyUIの誰かさんのhiresカスタムノードでやるとこれがなぜか汚い汚い・・
設定値あれこれいじってもどうやってもスタート地点(1111並み)に立てない

で、adetailerあたりでもの凄いノードの塊に直面
他人の既存workflowをコピペするだけとはいえ、意味わからないとって全部意味調べてるうちに
画像生成全くせずに一日中俺何やってんだろ、で嫌になって投げた
マイナスからスタートみたいな、で、その先にプラス部分は本当にあるの?って疑念がフツフツと

>>135
prompt中のtokenの強度分布が違うので1111に合わせるやつね
あれはあくまでその部分だけの話

138 :名無しさん@お腹いっぱい。 :2024/04/21(日) 17:10:13.83 ID:yo6I7OI50.net
>>137
素直に1111使用をオススメ
comfyUIは自分で利点を見いだせて、かつあのカスタム要素を楽しみ続けれる性格じゃないといずれどこかで投げ出すよ

139 :名無しさん@お腹いっぱい。 :2024/04/21(日) 17:13:06.33 ID:yvMBHgIt0.net
>>137
えぇ…そうなんですね
comfyuiでの動画生成が目的ですが綺麗な画像をforgeで生成して、それをcomfyuiにドロップして動画を作るってことはできますか?
comfyuiで画像生成は向かないのかな

>>134
質感がかなり違うんですよね
リアル系の画像を生成してますが人間に近い質感ではなく汚い感じ

forgeだと簡単にホイホイ綺麗な画像が出てくるけどcomfyuiでリアル系は厳しいのだろうか

comfyuiで生成した画像はmajinAIに載せられませんでした
サポートしてないと出た

140 :名無しさん@お腹いっぱい。 :2024/04/21(日) 17:16:36.13 ID:yvMBHgIt0.net
>>138
ありがとうございます
動画生成のanimatediffの手順までcomfyuiで覚えて、画像はforgeで作ります
苦労するとのお話なのでanimateDiffはどうやるのか手順を学んでみます

141 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:17:15.64 ID:PlALCCp20.net
sd1.5時代にいい感じだったシードを使ってsdxlで描くと、全然別ポーズになる。
シードって何なんだろうね。

142 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:20:09.17 ID:txW698FF0.net
PixAIは使ってる人居ない感じですか?
環境用意出来ないので頼りっきりで不安になりました

143 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:30:04.96 ID:AsOSqfh80.net
comfyUIはサンプラーが1111にあるのが無かったり逆もあるし、カスタムノード入れないと1111系とはトークンの解釈も違うしbreak構文も使えないと違いは結構あるからね
カスタムノード入れれば使えるけど

144 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:32:37.71 ID:LMG+dEZI0.net
>>142
専用スレがあるよー

PixAiについて語るスレ 4
https://mevius.5ch.net/test/read.cgi/cg/1710594011/

145 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:44:53.74 ID:LMG+dEZI0.net
>>141
シードはStable Diffusionに最初に与えるノイズ画像を生成するもととなる数値
出力解像度が変われば異なるノイズ画像が生成されるはず
SD1.5とSDXLではもし最初のノイズ画像が同じでもモデルや内部の処理が違うから同じ結果にはならないよ

1.5で生成した画像と同じポーズの画像をSDXLでも生成したいなら、1.5の画像をもとにimg2imgやControlNetを使うのがよさそう

146 :名無しさん@お腹いっぱい。 (ワッチョイ 9611-LqfZ):2024/04/21(日) 19:15:26.59 ID:yo6I7OI50.net
>>140
情報小出しで全然わかんなかったけど、3060で動画生成が最終目標なら全然話が変わってくるよ
comfyUIに利点しかないのでcomfyUI頑張れとしか

147 :名無しさん@お腹いっぱい。 (ワッチョイ e0d3-oJNE):2024/04/21(日) 19:29:27.84 ID:yvMBHgIt0.net
>>146
comfyuiで頑張ります
こういった動画を作りたいです
https://civitai.com/models/372584?modelVersionId=426894
作成手順が分からなくて
comfyuiを使うっぽいからYouTubeの動画見てる
作り方分かりますか?

148 :名無しさん@お腹いっぱい。 (ワッチョイ 9611-LqfZ):2024/04/21(日) 19:41:23.39 ID:yo6I7OI50.net
>>147
アニメ出始めの頃にちょっとループ系アニメをcomfyUIで作ろうとしたことあるけど、
最初のフレームと最後のフレームの画像を予め決めて、残りのフレームの前半で最初の画像から遠ざけ、後半のフレームで最後の画像に近づけていくようなワークフロー作ったらそれっぽいの出来るんじゃないかな?
長い動画は複数足していくことになりそうだけど、最近は最長でどれぐらいの長さまで一気に生成できるのかとかは自分もよく知らない

ただ、上記で書いたような事すら1111だと出来る気がしないので、アニメ作成はcomfyUIが一番ラクだし、グラボ3060だとなおのことcomfyUI一択か

149 :名無しさん@お腹いっぱい。 :2024/04/21(日) 19:50:25.42 ID:xGPOxBHF0.net
>>147
プロンプトスケジュールっつーnodeに15フレームごとに別々プロンプト書いていくのよ
いちおうa1111にもdeforumって拡張がある

150 :名無しさん@お腹いっぱい。 :2024/04/21(日) 19:57:28.28 ID:xGPOxBHF0.net
' Batch pompt schedule' だった

151 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:03:13.17 ID:3fRE40Hz0.net
ID:yvMBHgIt0氏については>>138と同意見
ここでいちいち聞いてるようじゃお先真っ暗だと思う、comfyUI適性がない
敷居が高くて人口が少ない上に、さらに人口が少ない動画生成ときてるので

https://comfyworkflows.com/
こういうところから他人のワークフロー落としつつ、自分でコツコツい調べていく感じの人じゃないと
なお自分は無理な側だった

152 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:07:02.13 ID:yvMBHgIt0.net
>>148
ありがとうございます
comfyuiは動画生成に強くてA1111は画像生成に強いということでしょうか
今は関係ないかもだけどアップスケールについて動画見てます
>>115の次の動画
一気にanimatediffの動画見ても分からなさそうだったので

>>150
ありがとうございます
昨日から問題に直面してばかりだから一筋縄ではいかないでしょうがやってみます
最終的に教わった通りに生成できたら嬉しい
すこーしずつ

153 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:09:55.03 ID:yvMBHgIt0.net
>>151
厳しいのは昨日の時点で感じた
わんさかエラーが出てくる
いつのまにか1111も起動しなくなってたし

一気にすっとばさずにステップ毎に学んでいくよ
大変そうだけどなぁ

154 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:15:08.76 ID:yo6I7OI50.net
>>152
comfyUIが動画に強いというか、それ以外が動画適正悪すぎるという感じ
特に長時間(2秒以上)のループ動画とかはまぁ1111で現状ほぼ無理じゃないかな
短時間ループぐらいなら1111でも拡張とかでいけそうにはおもえるけどね

155 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8):2024/04/21(日) 21:34:51.25 ID:3fRE40Hz0.net
動画やりたいって確固たる目的があるのはいいね
自分みたいになんかかっちょいいじゃん?みたいなヨコシマな心だと折れるのも早い

156 :名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D):2024/04/21(日) 22:09:08.78 ID:AsOSqfh80.net
とりあえず動画で公開されてるワークフロー探してきて、まずはそれ動かすところからじゃないかなあ

157 :名無しさん@お腹いっぱい。 (ワッチョイ 038b-K5o/):2024/04/21(日) 22:11:08.73 ID:rmgSPXw60.net
質問です
SDやらforgeやらの環境構築するには
ストレージは何Gbほど必要でしょうか?

158 :名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D):2024/04/21(日) 22:13:12.30 ID:AsOSqfh80.net
モデルやらLORAやらcontrol netやらを使うことを考えると100GBぐらいはないとあっという間にモデル関係だけで埋まる
あとはどれぐらい画像生成するか

159 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8):2024/04/21(日) 22:17:33.59 ID:3fRE40Hz0.net
>>157
本体+checkpoint+lora用にM.2 SSDが1TBは最低欲しい
画像保存用は別にHDDでも外付けSSDでもなんでもいいので多めに

160 :名無しさん@お腹いっぱい。 :2024/04/21(日) 22:52:51.20 ID:STVurYO80.net
2TをSD専用にしてるけど、残り700GB
そんな世界です

161 :名無しさん@お腹いっぱい。 :2024/04/21(日) 23:02:10.21 ID:3fRE40Hz0.net
自分も2TBで残り1TBだわ

162 :名無しさん@お腹いっぱい。 :2024/04/21(日) 23:14:43.08 ID:IKknNeXA0.net
ミッドジャーニーで出した女の顔を固定してSDで大量生産してくれと言われたけどムズいわ
Lora作ったほうが早い?

163 :157 :2024/04/21(日) 23:22:25.64 ID:rmgSPXw60.net
皆さん回答ありがとう
なるべく大きい容量用意しようと思います、感謝

164 :名無しさん@お腹いっぱい。 :2024/04/21(日) 23:35:47.57 ID:3fRE40Hz0.net
>>162
MJってちょっと前にそういう機能実装されたんじゃなかったっけ?
cref(キャラクターリファレンス)とかいうの

って、検索したらSDには敵わないみたいなこと書いてるサイトあるね
> まだ、顔固定はStable Diffusionに軍配が上がりそうですね

165 :名無しさん@お腹いっぱい。 :2024/04/22(月) 08:34:56.94 ID:Mj3mBU4Y0.net
>>157
モデルファイルはHDDではなくNVMeのSSDに入れること
数GBの読み込みはHDDだと1~2分かかるけどNVMeなら長くても十数秒だからね

166 :名無しさん@お腹いっぱい。 :2024/04/22(月) 16:46:22.43 ID:1egco9eJ0.net
目の中心(黒目の部分)の色だけ変えたい場合ってどうやったらいいのかな?
red eyesとか入れても白目の部分だけ赤くなって中心の瞳が黒いまま色が変わらない。

167 :名無しさん@お腹いっぱい。 :2024/04/22(月) 17:09:32.32 ID:7Cx1yMej0.net
中心からこの順番
pupil 瞳孔 < iris 虹彩 < sclera 白目 < eye 目

eyeに色指定するとirisが変わるモデルが多いね

168 :名無しさん@お腹いっぱい。 :2024/04/22(月) 17:12:30.10 ID:7Cx1yMej0.net
red eyesだけはただの色指定だけじゃなくて
写真での赤目現象とか寝不足とか充血とか
広範囲の意味があるから描画の動作が少し変わるよ

169 :名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX):2024/04/22(月) 20:25:52.64 ID:tuJQSL0t0.net
髪長めでパラッと左右に広がってるようなモデル使ってロングヘア指定すると
髪がマントやコートに化けてしまうんだけどこれ防ぐにはどうしたらいいですかね?

170 :名無しさん@お腹いっぱい。 (ワッチョイ 4ab1-Qi8t):2024/04/22(月) 20:28:45.78 ID:kCQ4f8gZ0.net
ネガティブにマントやコートを入れればいいんちゃうの?

171 :名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX):2024/04/22(月) 21:38:22.98 ID:tuJQSL0t0.net
>>170
それやったんだけどあんま効果なかったんだ
ポジティブ側にもcompletely nakedが入ってる状態なんだよね

172 :名無しさん@お腹いっぱい。 (ワッチョイ ce1b-/G3D):2024/04/22(月) 22:09:06.87 ID:iasIUhSM0.net
末端が溶けちゃって融合するアレか
強いて言えば髪の先端もちゃんとpromptに組み込むことかな
先っちょがちょっと跳ねているみたいに
SDはpromptにあるものはきっちり描こうとするから、これで溶けるのを減らせる
同じように服を半脱げにしたい時は肩にタトゥーとか入れるとそれを描写するために脱ぐ

173 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8):2024/04/22(月) 22:19:43.51 ID:rU2KmxKQ0.net
negpipは試した?
あれはかなり強烈に削除してくる

174 :名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX):2024/04/22(月) 22:26:05.82 ID:tuJQSL0t0.net
なるほど確かに
色々試してみようかな
もしかするとLong hair閾値よりもモデルの髪のが長い(脚ぐらいまである)からそれを補うために化けてるのかも知れん
どもども

175 :名無しさん@お腹いっぱい。 :2024/04/23(火) 12:18:46.19 ID:YjLQjtag0.net
negpipってなんて読む人がおおいの?
ねぎぴっぴ?

176 :名無しさん@お腹いっぱい。 :2024/04/23(火) 17:02:55.61 ID:Q5r3/KcU0.net
>>175
頭の中ではねぎぴっぷになりがち、人と話すならねがぴっぷかなあ

177 :名無しさん@お腹いっぱい。 (ワッチョイ a8ea-K5o/):2024/04/23(火) 22:59:10.30 ID:1VgVZe5I0.net
普通に読めばネグピップだろ

178 :名無しさん@お腹いっぱい。 (ワッチョイ 2901-Gp8I):2024/04/23(火) 23:22:46.78 ID:paRuqrDQ0.net
音節末のgとpは無声化か内破音になるからなぁ

179 :名無しさん@お腹いっぱい。 :2024/04/24(水) 08:49:36.03 ID:f+ufn/690.net
a1111がいつの間にか1.9.3だが1.9.0から何か変わった?

180 :名無しさん@お腹いっぱい。 :2024/04/24(水) 09:15:43.44 ID:NwLGXzeAr.net
1.9→1.9.3はほぼバグフィックス系に思える

181 :名無しさん@お腹いっぱい。 :2024/04/24(水) 09:41:01.46 ID:OUw/uoViH.net
地震系のショートフィード
YOUTUBEのAIは、写真のような高精細な画像のほうが
優先的にショートフィードに乗るみたいだが
無料で出来るところないですかね?
「bing デザイナー」や「google gemini」は
いかにも生成AIで作りましたっていう画像しか生成できない
無料の壁???

182 :名無しさん@お腹いっぱい。 :2024/04/24(水) 09:50:57.33 ID:hCu2wla50.net
だから企むな

183 :名無しさん@お腹いっぱい。 (オッペケ Src1-LqfZ):2024/04/24(水) 12:09:47.53 ID:NwLGXzeAr.net
災害系のフェイク画像とか動画作る奴らはホントにクソ

184 :名無しさん@お腹いっぱい。 (ワッチョイ da14-EBMD):2024/04/24(水) 12:47:50.68 ID:XbU46hON0.net
微妙に質問かえて、
ずっと同じこと聞く

185 :名無しさん@お腹いっぱい。 :2024/04/24(水) 18:48:14.18 ID:3NM2XnuT0.net
comfyuiでワークフローを部分的にセーブするにはどうしたらいいですか?

186 :名無しさん@お腹いっぱい。 :2024/04/24(水) 22:58:32.75 ID:tuMWhOrI0.net
JSONデータで保存して不要な部分を削除する

187 :名無しさん@お腹いっぱい。 :2024/04/24(水) 23:21:53.50 ID:3NM2XnuT0.net
>>186
テンプレートていうのがあった

188 :名無しさん@お腹いっぱい。 :2024/04/25(木) 11:29:55.72 ID:580QVCXm0.net
よくモデルやstep、LoRAの重みの比較で生成画像を並べて上や左側にステータス情報を書いた画像を見掛けるのですが
どのようにすれば作れるのでしょうか
SD forge版を使用しています 内蔵の機能や設定で再現可能ですか?

189 :名無しさん@お腹いっぱい。 :2024/04/25(木) 11:36:11.02 ID:fWDkJ9Wa0.net
>>188
画面一番下にあるscript欄から設定でできる
X/Y/Z plot でググレカス

190 :名無しさん@お腹いっぱい。 :2024/04/25(木) 11:37:30.56 ID:fyPVbjy80.net
>>188
Forgeでも使えるX/Y/Z plotの機能です
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#xyz-plot

画面左下の「スクリプト」から「X/Y/Z plot」を選んで使います

191 :名無しさん@お腹いっぱい。 (ワッチョイ f631-XgJ3):2024/04/25(木) 12:07:42.80 ID:xyH8qE1Z0.net
3060tiのvram8GBで版権キャラのえっちな絵を作りたい場合はnovelAIとsd forgeどっちの方がいいんや
DRAMは32GBあるけどあんま関係ないよな?

192 :名無しさん@お腹いっぱい。 :2024/04/25(木) 12:31:42.82 ID:580QVCXm0.net
>>189 >190
ありがとうございます!助かりました

193 :名無しさん@お腹いっぱい。 :2024/04/25(木) 12:32:17.45 ID:fyPVbjy80.net
>>191
novelAIはWebサービスなのでパソコンの性能は関係なく、スマホでも画像を作れる

SD ForgeはVRAM8GBで問題なく画像生成できるでしょう
メインメモリも32GBなら十分です

版権キャラのえっちな絵を作りやすいのはどっちだろう?
ひとまずタダでできるForgeでやってみては
学習モデルはPony Diffusion V6 XLがいいでしょう

194 :名無しさん@お腹いっぱい。 :2024/04/25(木) 12:45:28.81 ID:xyH8qE1Z0.net
>>193
細かくありがとうとりまforgeいれた
学習モデルっていうのは自分でキャラを学習させる感じ?

195 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:04:06.91 ID:/ZExFKS6H.net
forgeってXL専用?
1.5でi2iで拡大すると時間は異常にかかるわ絵はボロボロだわで使い物にならない

196 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:13:52.81 ID:fyPVbjy80.net
>>194
なるほど、そこからか。
学習モデルは学習済みのモデルファイルのことで、ダウンロードしてきて所定のフォルダに置けばいいんよ

あとはこれ読んで。長いけど基礎知識が1記事に詰まってる

AIイラストが理解る!StableDiffusion超入門【2024年最新版】A1111、Forge対応|賢木イオ @studiomasakaki
https://note.com/studiomasakaki/n/n7ad935416c5d

197 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:16:55.25 ID:fyPVbjy80.net
>>195
ForgeはSD1.5も使えるよー
いったん出した画像をもっと大きなサイズで出し直したいときはhires.fixを使うといいよ
それでうまくいかなかったら、拡大前の画像と拡大した画像をcatboxに上げてここに載せてくれれば問題の切り分けをしやすいと思う

198 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:21:03.18 ID:Dxc92GFD0.net
ホントに頑なになんのグラボ使ってるのかとか解像度どれぐらいだとか書かない人ばっかりだな……

199 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:36:20.47 ID:xyH8qE1Z0.net
>>196
checkpointのことか初心者だから知らなかった

200 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:44:41.11 ID:hWpnD/U5M.net
>>198
義務教育で2進法は習わない時代だよ
あらゆる基礎の0,1ですらわかんねえのに
グラボおいしいの?くらいだろ

201 :名無しさん@お腹いっぱい。 :2024/04/25(木) 14:42:22.96 ID:fyPVbjy80.net
>>199
いいのいいの、誰でも最初は知らないからね

202 :名無しさん@お腹いっぱい。 (ワッチョイ a615-C/Ad):2024/04/25(木) 17:26:43.93 ID:DfAyQFOo0.net
俺のSD導入初日は
「なんやねん、チェックポイントって・・・
学習モデルとかデータとかそれっぽい英語名でええやん・・・」
「ローラって誰や・・・」

ずっとこんな感じだった気がする

203 :名無しさん@お腹いっぱい。 :2024/04/25(木) 20:29:15.22 ID:mD2ePJOZ0.net
>>198
3060TiのVRAM8GBってちゃんと書いてあるやん
何が不満なんだ?

204 :名無しさん@お腹いっぱい。 :2024/04/25(木) 21:37:34.86 ID:Dxc92GFD0.net
>>203
>>196 とかそれ以外のコレまでのスレ内のことだぞ?
別にちゃんと詳細書いてる人のことではない

205 :名無しさん@お腹いっぱい。 :2024/04/25(木) 21:38:29.18 ID:Dxc92GFD0.net
>>204
>>196 じゃなくて>>195 とか

206 :名無しさん@お腹いっぱい。 :2024/04/25(木) 22:58:26.30 ID:81pZq5e/0.net
環境を説明しないのはA100だけど、初心者なのにA100だなんて言い出せないからかもしれん
書いてなければA100前提で答えればいい

207 :名無しさん@お腹いっぱい。 :2024/04/26(金) 01:28:52.21 ID:Vn4NMll80.net
>>202
それな
日本語訳と英名のイメージ違いすぎる
なんやcheckpointって

208 :名無しさん@お腹いっぱい。 :2024/04/26(金) 01:34:20.22 ID:GNvXr7IB0.net
そういう考えなくていいところで悩むのはもったいないと思うんだぜ
なるほどそういう風に表現してるものなのか、で済ませた方が心が楽

209 :名無しさん@お腹いっぱい。 :2024/04/26(金) 02:42:05.49 ID:Vn4NMll80.net
>>208
もちろんそーなんだけど勉強とかでも聞いたことある単語出た覚えやすいよねって

210 :名無しさん@お腹いっぱい。 (ワッチョイ 6bfd-sbZL):2024/04/26(金) 04:33:27.29 ID:qyQHbrI00.net
>>195のForgeはXL専用ですか?という単純な質問に詳しい情報いるか?
従来のモデルも使えるしXLモデルも使える
ただControlNet系の拡張は使えないものがある

211 :名無しさん@お腹いっぱい。 :2024/04/26(金) 15:38:43.12 ID:RWUhfJ2L0.net
>>202
俺は物知りだからローラがヴィーガンなのは知ってるぞ😤

212 :名無しさん@お腹いっぱい。 :2024/04/26(金) 15:47:45.46 ID:HwpyCWET0.net
>>202
SD出始めならまだしも、今なんて解説サイトがわんさかあるのにそれは流石に無理がある

213 :名無しさん@お腹いっぱい。 :2024/04/26(金) 17:40:53.71 ID:Z207ZsTq0.net
導入し始めた時はチェックポイントなんか一個しかなかったし、1111もなかったから迷う余地が無かったな
トークン制限で苦しんでたのが嘘のようだ

214 :名無しさん@お腹いっぱい。 :2024/04/26(金) 18:03:04.48 ID:BctKS1Vt0.net
最初はhlkyだったな
generateボタンができた当時の誰かのツイートが残ってた
https://twitter.com/kawai_nae/status/1563901723680587778
(deleted an unsolicited ad)

215 :名無しさん@お腹いっぱい。 :2024/04/26(金) 18:03:36.44 ID:BctKS1Vt0.net
ああ、できたではなく上に来た、か

216 :名無しさん@お腹いっぱい。 (ワッチョイ a8ba-4AlN):2024/04/26(金) 19:19:36.82 ID:6BjoeCHv0.net
自分もcheckpointは混乱したくち
みんなモデルモデル言うからcivitaiでmodelって単語探したら無いし、
後にcheckpointって言うんかーいって感じだった

217 :名無しさん@お腹いっぱい。 (アウアウウー Sab5-kdCE):2024/04/26(金) 19:22:02.30 ID:Rf6UIQrwa.net
AIピカソ、参考画像添付できなくなった。
全く受け付けない、どうすりゃ良いかな?

218 :名無しさん@お腹いっぱい。 (アウアウウー Sab5-kdCE):2024/04/26(金) 19:22:08.87 ID:Rf6UIQrwa.net
AIピカソ、参考画像添付できなくなった。
全く受け付けない、どうすりゃ良いかな?

219 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8):2024/04/27(土) 01:54:17.05 ID:KmYHmWVU0.net
> AIピカソ
なんだっけ・・
板の過去スレ検索したら2022年9月頃にポツポツレスが出てくるけど
あんまり使ってる人見たことない

220 :名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01):2024/04/27(土) 14:24:20.46 ID:7mADKKa60.net
>>217
普通に添付できたよ
アプリを再インストールしてみては

221 :名無しさん@お腹いっぱい。 (ワッチョイ a2c9-tUod):2024/04/27(土) 14:31:08.82 ID:6q5JNqhc0.net
キャプションを見直すためにWDtaggerを導入しようと思うのですが、以前、「開発者が変わったから、それ以降のヴァージョンは信用していいのかどうかわからない」みたいな話があったのを思い出しました。実際の所、大丈夫だったのでしょうか?

222 :名無しさん@お腹いっぱい。 (ワッチョイ ca6b-EBMD):2024/04/27(土) 15:19:22.84 ID:A8iBJZTV0.net
githubにあるんだから
ソースコードが公開されてるのでは?

223 :名無しさん@お腹いっぱい。 :2024/04/27(土) 16:37:51.76 ID:7mADKKa60.net
いま拡張機能タブの「拡張機能リスト(Available)」で読み込まれるのは
「WD 1.4 Tagger」 https://github.com/picobyte/stable-diffusion-webui-wd14-tagger.git
で、このURLは当初とは変わってる気がする(記憶が曖昧)
問題がないと保証はできないけど、問題があるという話も聞かないな

224 :名無しさん@お腹いっぱい。 :2024/04/27(土) 17:45:36.28 ID:KmYHmWVU0.net
https://github.com/toriato/stable-diffusion-webui-wd14-tagger
これが旧か、(>>223に誘導もされてる)
v1.6から動かないので信用もなにも、223使うしかないのでは
「みたいな話」のソースを是非

225 :名無しさん@お腹いっぱい。 :2024/04/27(土) 18:53:45.05 ID:bhoNhPsb0.net
タグ自体の意味もタグの使い方もどんどん変わってるしな
ダンボールタグ信者がいたころが懐かしい

226 :名無しさん@お腹いっぱい。 :2024/04/27(土) 22:55:17.58 ID:6q5JNqhc0.net
>>224

ソースというか、この板かお絵描き板のどちらかで以前そういう書き込みを見ただけです。それ以降何も言及がないなら、多分大丈夫ってことですよね…不安はあるけど、使ってみることにします

227 :名無しさん@お腹いっぱい。 :2024/04/28(日) 13:06:23.08 ID:V1tjf2uH0.net
>>226
おまえさんが使ってみて何か問題があったら報告してくれればそれでいい

228 :名無しさん@お腹いっぱい。 :2024/04/28(日) 14:39:49.01 ID:kCfRUYRZ0.net
>>226
公式からリンクされていてgithubにあるのなら、たくさんの目が見ているだろうからまず大丈夫だと思うよ
楽観的すぎるかもしれないけど

229 :名無しさん@お腹いっぱい。 :2024/04/28(日) 14:51:39.87 ID:/+eogJ+v0.net
オープンソースなのに病的すぎるやろ

230 :名無しさん@お腹いっぱい。 :2024/04/28(日) 15:33:23.07 ID:EMMuTwl+0.net
オープンソースであることと病的でないことが一切結びつかないから何が「オープンソースなのに」なか分からん……

231 :名無しさん@お腹いっぱい。 :2024/04/28(日) 17:37:16.85 ID:V1tjf2uH0.net
ソースが読めない者にとっては、フリーソフトもウィルスも同じだね

232 :名無しさん@お腹いっぱい。 :2024/04/28(日) 17:55:23.33 ID:/+eogJ+v0.net
匿名のここに太鼓判おしてもらったら
okっていうのも謎だし、
言ってることが全部おかしい

233 :名無しさん@お腹いっぱい。 :2024/04/28(日) 18:25:23.59 ID:hm0YJOas0.net
そこ疑ってたらローカルで画像生成なんかできんぞなもし
拡張機能なんか管理者権限でPython走らせてんだから

234 :名無しさん@お腹いっぱい。 :2024/04/28(日) 18:42:42.64 ID:r4t5reA70.net
お騒がせしてすみません
昔フリーソフトでマルウェアが検出されたことがあったせいか
ちょっとトラウマで…

a1111とかは割り切って普通に使ってます

235 :名無しさん@お腹いっぱい。 :2024/04/28(日) 18:45:31.79 ID:/+eogJ+v0.net
気になるなら
物理的にマシン2つが管理も楽でいいぞ

236 :名無しさん@お腹いっぱい。 :2024/04/29(月) 07:55:13.80 ID:nOmMWpWW0.net
https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd

のワークフローで生成しているうちにぼやけたりグロテスクっぽくなってしまう
バッチサイズはすべて統一してるのだが
288×512はやめたほうがいい?
けどこれは関係ない気がする
参照動画で使われてたサイズだし
サンプラーはIcmから変えてないカラスに変えると砂嵐になるため
なにがいけないんだろう
プロンプトは入れてもあまり意味がないとあった
けどipadapterはプロンプトで補強しないと正確性はあまりない
最初にモデル読み込んで、画像読み込み、Icmというサンプラーでやると参照画像からかけはなれてしまうデノイズ1より下げるとすぐノイズが入ってしまうし分からん

237 :名無しさん@お腹いっぱい。 :2024/04/29(月) 07:57:34.94 ID:nOmMWpWW0.net
まずは破綻しないのと顔を再現したい
そこだけでもいいから覚えたい

238 :名無しさん@お腹いっぱい。 :2024/04/29(月) 08:02:44.63 ID:nOmMWpWW0.net
https://youtu.be/mecA9feCihs?si=Uw4z8bdYgjdM5WQT

ここの説明と大きく変えてないのにぼやけすぎたりグロくなる

239 :名無しさん@お腹いっぱい。 :2024/04/29(月) 08:27:55.86 ID:nOmMWpWW0.net
諦めたくない…諦めたくないよお

些細な情報でも構いません
読み込んだ画像に似た生成のやり方をご存知のかたお願いいたします
ドアップになるか、破綻するか、グロくなるか、似ていない顔
のどれかになってしまいます

240 :名無しさん@お腹いっぱい。 :2024/04/29(月) 10:42:06.65 ID:hQ9wEbSH0.net
img2imgでやってるならCFG ScaleとDenoising strengthの調整してる?
大きすぎると破綻するよ

241 :名無しさん@お腹いっぱい。 :2024/04/29(月) 11:32:42.78 ID:672kJP7K0.net
どんな画像をもとにどんな動画を作りたいのか書いて、今どういう動画ができているのかimgurかcatboxにでも上げてよ
「読み込んだ画像に似た生成のやり方」では答えようがないよ
「諦めたくない」とかわざわざ書かなくてもいいからさ、聞きたいことを1つの書き込みに簡潔にまとめて書いてくれ

242 :名無しさん@お腹いっぱい。 :2024/04/29(月) 12:36:56.74 ID:wMEgYBiM0.net
・顔を再現させ似せる事が重要
・GWに突然5chに連投して「諦めたくないよお…」

これだけ見るとヤバい案件としか思えないんだが…

いやまあ愛犬のカワイイ変身動画かもしれんけどさ

243 :名無しさん@お腹いっぱい。 :2024/04/29(月) 13:37:33.39 ID:vVsU03Xg0.net
プロンプトに強調指定をすると破綻しやすいね

244 :名無しさん@お腹いっぱい。 :2024/04/29(月) 13:55:42.25 ID:0nYsyeln0.net
ID:nOmMWpWW0
ここで泣き言言ってる人が自分で調べまくる必要のあるcomfyUIは無理、諦めなさい
上の
ID:yvMBHgIt0
だよね

245 :名無しさん@お腹いっぱい。 :2024/04/29(月) 15:20:19.30 ID:E7YYt6QN0.net
>>ドアップになるか
とか書いてる時点で読み込んでる画像の解像度がおかしいか、出力画像解像度がおかしいのではとは思う

まぁこのスレってエスパー検定率高いよね
たまに一流エスパーが即解答して真顔になるときあるけど

246 :名無しさん@お腹いっぱい。 :2024/04/29(月) 15:27:15.56 ID:ugxdbEyf0.net
『AI生成で楽して副業』などの動画みて
調べる気ないのにやり始める人が多いけど
無責任動画だしてる人が最後まで教えたらいいのにな
それ系動画のコメ欄に書いてるのも見るけど、
質問コメは華麗にスルーしてんよな
面倒みろよw

コメ欄で無視され、こういうとこにくる

247 :名無しさん@お腹いっぱい。 :2024/04/29(月) 15:47:09.95 ID:nOmMWpWW0.net
(ふぅ…散々な言われようだが落ち着け落ち着くんだ
GWに諦めたくないよう、GWは関係ないだろっ
だめだ落ち着くんだ)

おはようございます
起きました
罵る系のレスも少々ありましたが、たくさんのアドバイスありがとうございます
言われたとおり、状況を冷静に伝えられるかトライしてみます
ヤバイ奴なので何時間かかかるかもしれませんがまた書き込みいたします

248 :名無しさん@お腹いっぱい。 :2024/04/29(月) 17:02:10.59 ID:672kJP7K0.net
(いや、だからそういうのをわざわざ書く必要はなくて、質問だけを簡潔に書いてほしいってことなんですけどね)

249 :名無しさん@お腹いっぱい。 :2024/04/29(月) 17:32:44.07 ID:nOmMWpWW0.net
真似したい動画はこちらで
https://civitai.com/images/9650365
最初は、こちらのワークフローで生成していました
https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd
↑4/27に更新されています(自分は更新前のワークフローで生成を試みていました)
真似したい動画に似せるどころか顔も変わってしまうので投稿者の言っている設定にできないものか思案していました
真似したい動画をDLして、それをcomfyUIのvideo infoというノードに動画をドロップしたら、投稿者がコメントで言っていたワークフローが出てきました
もちろんそのワークフローで生成しても崩れてしまいます

ワークフロー
https://comfyworkflows.com/workflows/7581cbd1-1cd5-4f3a-a9aa-80f5ceeb686a
読み込ませた画像
https://i.imgur.com/SrcFrfF.png
https://i.imgur.com/vOcgUwI.png
https://i.imgur.com/llYz9A9.png
https://i.imgur.com/xEEZLwd.png
生成動画
https://i.imgur.com/r2jLBiz.mp4

RTX3060 12gb

自分の画像には長い髪の毛が写ってないので最初から狙ってはいませんが、ぼやけたり顔が元よりかけ離れるのがわかりません
ワークフローでは間違ってloraを強めにかけてしまいました
アップスケール前のKsamplerでIcm以外を選択すると砂嵐になる
実写系の画像なので、dpmpp_2m karrasを選択しないとどうしようもないのでは
288-512というサイズのせいでこうなっているのか

始めから真似したい画像を成功させようとは思っていませんが、まずはロードした画像に動画の画質や造形を近付けたいです

250 :名無しさん@お腹いっぱい。 (ワッチョイ 67ba-ijkW):2024/04/29(月) 20:17:16.33 ID:WfhBdoQA0.net
>>249
学習データにはこの画角は無いんじゃないかな
つまり上半身か全体を描写させないと上のような症状が出る
わいなら全体を生成してアップを切り出すワークフローで作れる

251 :名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44):2024/04/29(月) 20:41:02.18 ID:nOmMWpWW0.net
>>250
ありがとうございます
顔の周りを髪がぐるぐる回ってるのはどうやるのでしょうか
もう少し詳しくお願いします

①まず身体全体を画像生成する

動画にする

アップを切り出すワークフローで作る

そして、アップにした顔の周りに髪の毛を付ける?

②身体全体の生成の段階で髪の毛も纏わりつくように画像生成する

動画にする

アップで切り出す

①と②どちらのやり方が近いですか

投稿者はqrcodeの50あたりから開始して350で終わるとコメントしてますがパターンはこちらで合ってますか?
https://i.imgur.com/FZojh3v.mp4
このパターンの50あたりから開始、終わりは350と翻訳で出ます

破綻しているせいかもしれませんが顔の向きを常に正面に向けるのも難しかったです

252 :名無しさん@お腹いっぱい。 :2024/04/29(月) 23:42:10.84 ID:vVsU03Xg0.net
REACTORで置き換えた顔の表情を変更するのって何か方法があるのかな?
プロンプトで何を指定しても笑顔が出てくる。
すまし顔とか困った顔が欲しいんだが。

253 :名無しさん@お腹いっぱい。 :2024/04/30(火) 00:28:13.09 ID:50IfL1TT0.net
惜しいところまできました
https://i.imgur.com/9uxOncC.mp4
更新されたワークフローをDLしてそれに画像をロードしました
CreateFadeMaskAdvancedのサイズのとこまで288-512にしちゃってました
それを512-512のままでやったらぼやけるのはなくなりました
モデルによってかなり変わるので変えながら試してみます

254 :名無しさん@お腹いっぱい。 :2024/04/30(火) 03:42:38.38 ID:50IfL1TT0.net
アップスケール前ですが近いのができたので、オリジナルの画像生成に移行します
ちょびちょびいじりながら少しずつ覚えていきます
たくさんのアドバイスありがとうございました
また行き詰ったら立ち寄ると思いますが、どうかよろしくお願いします
https://i.imgur.com/UVfZ2Gq.mp4

255 :名無しさん@お腹いっぱい。 :2024/04/30(火) 12:55:25.15 ID:50IfL1TT0.net
だめだああああ
ここからが遠い
みなさんにいくつか簡単な質問をしてもよろしいでしょうか
comfyui適性のないわたしですが何時間も格闘しても解決できない問題はあるものです
>>249に纏めてありますが
今回の問題は、顔の周りにどうやって髪の毛をまとわりつかせるか?です
あす内ハネ外ハネ巻き髪等のプロンプトを試してみますが、恐らくですが投稿者はダークレッドのスカーフで口元を覆っているのではないでしょうか
covering mouth with a darkred scarf
このようなプロンプトで口元は隠せます
しかし次の画像で髪の毛(口元含む)に変化をつけないと動画に動きが出ません
どなたか名案をお持ちでないでしょうか
windy hairで風で髪をなびかせられますが、風で髪が煽られると顔が露わになります

どなたかお願いします
問題はこれだけにとどまらないのですが

諦めたくない
諦めたくないようううぅ

256 :名無しさん@お腹いっぱい。 :2024/04/30(火) 13:08:08.14 ID:50IfL1TT0.net
目が醒めたらアドバイスがきてることを願います
みなさんのGWの有意義な1日も祈ります物価下落も祈ります

顔の周りに髪を纏わりつかせたい
真横に流れるように流線的な動きのある髪です
もしかしたらこれは、>>251にあるqrcodeのパターンによって生成された髪かもしれません
画像をロードする前は波打つような髪ではなかったが動画生成時に髪に動きがついた…のかもしれない
しかし多少は真横に髪が流れていないとあそこまでうねうねした動きは出せないと思います

どうかお知恵をお授けなすって
わたしは諦めたくないです

257 :名無しさん@お腹いっぱい。 :2024/04/30(火) 17:00:29.48 ID:f4CfLID80.net
まず簡潔に質問だけするという知恵をつけてください

258 :名無しさん@お腹いっぱい。 :2024/04/30(火) 17:28:59.47 ID:kHbVONl+0.net
相手したやつが面倒みるんだから
放っておいていいよ

259 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:38:55.21 ID:50IfL1TT0.net
頼むって
まじで頼むって(泣)

260 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:44:21.15 ID:3cZlDGMt0.net
理想を叶えたいなら聞くべき場所はここじゃないんだけどな
先人の知恵がいつでも無料で簡単に手に入ると思ってはいけない
相手の時間を自分のために使わせていることを常に考えた方がいい

261 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:49:12.96 ID:50IfL1TT0.net
それは考えてますけど…有料はきついよぉ
他のスレの方ががいいのかな

どうしたらいいのでしょう
うーん

262 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:50:20.05 ID:AYdy9KCd0.net
>>259
みんなが答えを知っていて、意地悪して教えないわけじゃないんだよ
質問の内容がわからない、わかっても答えられる人がいないから回答がないことだって普通にある
そうなるといくら頼まれたって無理なものは無理なの
それは理解してくれ

263 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:54:56.94 ID:50IfL1TT0.net
>>262
それはうんそうだよね
だから自分一人喚いても仕方ない
モデルひとつ変えただけで挙動が大きく変わるし、ほんとうにモデルのせいなのか?サンプラーなのかcfgなのかSchedulerなのか手探りでやっていくしかない

みんなごめんね
もし分かったらでいいので教えてくれると助かります
ここはいつも見てますので邪魔してごめんなさい

264 :名無しさん@お腹いっぱい。 :2024/05/01(水) 01:53:02.06 ID:M1PIKx2j0.net
クレクレうざすぎるからNGつっこんだ
そもそもComfirmは使う気にもならんし

265 :名無しさん@お腹いっぱい。 :2024/05/01(水) 02:43:24.31 ID:WrzFuge+0.net
うーん
口元を髪の毛で隠すのはモデル的に無理みたいだ
そんなloraもない
だからみんなloraを作るのか?

266 :名無しさん@お腹いっぱい。 :2024/05/01(水) 02:54:23.69 ID:WrzFuge+0.net
フォトショップで髪を伸ばすのか?
フォトショップなんか使ったことないぞ
なんでもいいからcomfyui以外で髪で口元を隠せばいけるかもしれん

267 :名無しさん@お腹いっぱい。 :2024/05/01(水) 04:27:57.32 ID:0cfl9Yuh0.net
半年ROMってろ。話はそれからだ

268 :名無しさん@お腹いっぱい。 :2024/05/01(水) 06:38:26.34 ID:WrzFuge+0.net
一応今はgimpを利用して髪の毛の合成を考えています
さすがに自分で合成したとなれば動きのある動画になると思うのでね
次はgimpの使い方を学びます
遠回りのようでこれが近道と信じて

269 :名無しさん@お腹いっぱい。 :2024/05/01(水) 06:51:51.59 ID:C4lLtt0L0.net
ここは質問スレであって日記帳ではないので、単なる報告や独り言は書き込まないでもらえるかな

270 :名無しさん@お腹いっぱい。 :2024/05/01(水) 09:27:37.76 ID:WFaskO9Vd.net
たぶんDiscordとかのほうが向いてると思うぞ

271 :名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44):2024/05/01(水) 09:44:03.42 ID:WrzFuge+0.net
Midjourneyですか?簡単にこの女性出せるんですか?

272 :名無しさん@お腹いっぱい。 (スププ Sdff-Ff1V):2024/05/01(水) 09:58:13.20 ID:TfrEhJfbd.net
そうじゃない
その聞き方するならDiscordのどっかのコミュニティでコテハンでやるほうが向いてるという話

273 :名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44):2024/05/01(水) 10:01:16.18 ID:WrzFuge+0.net
そんなコミュニティがあったのか
Discordで聞くなんて思いもつかなかった
ちょっと調べてみる

274 :名無しさん@お腹いっぱい。 :2024/05/01(水) 13:36:02.35 ID:hqBJzC8f0.net
>>273
これを作りたいんだったら
アニメーションリフト
ディープフェイク 2つ使った方が楽やろ

275 :名無しさん@お腹いっぱい。 :2024/05/01(水) 14:00:42.58 ID:c5SmJOthd.net
ここのニキらは優しいからそのお方を相手しとるんやろけど、そのお方は然るべきディスコにでも行ってもろてそっちで思う存分活躍してもろたほうがええと思うで
そのお方が居るというだけで、何人の有能ニキたちがスレをそっ閉じしたことやら

276 :名無しさん@お腹いっぱい。 :2024/05/01(水) 14:02:43.35 ID:c5SmJOthd.net
ちな272氏とはワッチョイ被りで別人やで
連投すまんの

277 :名無しさん@お腹いっぱい。 :2024/05/01(水) 17:07:35.88 ID:WrzFuge+0.net
有能て、、

278 :名無しさん@お腹いっぱい。 :2024/05/01(水) 17:19:03.54 ID:WrzFuge+0.net
なんとか今日も諦めずに少しでも前進したい
あまりクレクレ言うと怒られるから

279 :名無しさん@お腹いっぱい。 :2024/05/01(水) 17:37:56.72 ID:V1uedVa3H.net
forgeでxlを使っているんですが、チェックポイントを切り変える時にロード時間が以前よりも長くなりました
コマンドプロンプトを確認するとロード時にcalculate empty promptの部分が400-500sかかっています
この部分は何の影響を受けているかご存知の方はいますか?
lycorisの奴はもとから入っておらず、forgeはSSDに導入しています
forgeは使い始めた時から最新版(2月のもの)で、拡張機能も使い始めたときに導入したっきりで途中で追加していません

280 :名無しさん@お腹いっぱい。 :2024/05/01(水) 18:27:49.77 ID:AKZacZIS0.net
>>279
とりあえずデフラグ

281 :名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946):2024/05/01(水) 21:27:25.30 ID:C4lLtt0L0.net
>>279
別フォルダにforgeをインストールしてみて、同じようにモデルの切り換えに時間がかかるならストレージに不具合が出ているかも
もしモデルの切り換え時間が短くなったら今まで使っていたforgeになにか問題がある

みたいな切り分けをしてみては

282 :名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki):2024/05/01(水) 22:02:38.01 ID:22ScBS2t0.net
>>279
これで変わらないかな?
https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/667#discussioncomment-9125674

283 :名無しさん@お腹いっぱい。 :2024/05/01(水) 23:08:50.50 ID:lkajTWzi0.net
VRAMが大きくない場合は、メインメモリと仮想記憶を使いまくっているらしいので、そのへんをチェックしてみたら

284 :名無しさん@お腹いっぱい。 :2024/05/02(木) 00:22:46.45 ID:OBZW6+pC0.net
というか
> calculate empty promptの部分が400-500s
これだけならかなりおかしいよね

> Model loaded in 19.0s (load weights from disk: 10.2s, forge load real models: 7.9s, calculate empty prompt: 0.8s).
ここの他の部分はどうなってるの?全部貼ってくださいな

285 :名無しさん@お腹いっぱい。 :2024/05/02(木) 08:53:41.05 ID:eXo+mJMRH.net
>>279 です
みなさん返信ありがとうございます

以下で解決しました
>>282 のDisable memmapping...にチェックを入れて実行したところロード時間がさらに増大(20分くらい)したので
チェックを外してもとの状態に戻して実行したらモデルのロード時間が直りました(60-100s)

>280
forgeがあるドライブには問題ありませんでした(断片化なし)
>281
新しくインストールしようとしたのですが別の問題が発生してインストールが現在できませんでした
次問題が発生したときは新しくインストールして様子を見たいと思います
>283
問題があったときはモデルロード時にはメモリが98%に張り付いてPC自体が10分ほどフリーズといった感じでした
解決した今は重くなることはありますがフリーズはないです
>284
ログをコピーできていなかったのですが大体
forge load real models:100s, calculate empty prompt:400-500sでした
他の部分は特に時間がかかっているということはありませんでした

286 :名無しさん@お腹いっぱい。 (ワッチョイ dfad-b946):2024/05/02(木) 11:13:31.45 ID:SWHb25U50.net
Openpose Editorをインストールしたのですが、Openpose Editorのタブが表示されません。
調べた手順にのっとって、以下のURLをインストールして、applyや再起動もしました。
https://github.com/fkunn1326/openpose-editor
しかし、出てくるはずのタブが表示されません。
ちなみに、他の拡張機能で、同じようにタブが追加される拡張機能(Depth map library and poser)を入れたのですが、そちらもタブが追加されませんでした。
何か間違ってるんでしょうか?

Stable Diffusionのバージョンは以下です
version: v1.8.0
python: 3.10.10

287 :名無しさん@お腹いっぱい。 :2024/05/02(木) 11:57:08.13 ID:a2qxToNH0.net
>>286
Openpose Editorのページに記載があるように23年末で更新が終了しています
それ以降のバージョンのWeb-Uiでは正常動作は難しいかも
一応フォークで更新されてる物もあるようなのでそちらを試してみてはどうだろう(動作するかはわからんが)

288 :名無しさん@お腹いっぱい。 :2024/05/02(木) 12:20:57.66 ID:SWHb25U50.net
>>287
なんと、そういうことだったんですか。
ちょっとページを見てみたのですが見つかりませんでした。
では、自分の環境に古いバージョンのwebuiがあるのでそちらを使って画像だけ生成しようと思います。
助かりました、ありがとうございます。

289 :名無しさん@お腹いっぱい。 (ワッチョイ 7f9d-+Pu1):2024/05/02(木) 15:50:19.66 ID:kUMqjBOH0.net
mov2movとかも最新じゃもうタブ無くて使えないからなぁ

290 :名無しさん@お腹いっぱい。:2024/05/02(木) 17:02:12.80 ID:RwcnySRhg
最近はAIで脱がせるのか
一日一回無料で使えるし=~
https://drawnudes.app/r/clq4xlk3u312auujidqk0iybg
https://clothoff.io/r/clmd0jl3n164ezy6089glizot
https://nudefusion.com/en?referral=pbmsbfo7myo6z8t
https://nudefusion.com/en?referral=kjtj4k6kop6emod

291 :名無しさん@お腹いっぱい。 (ワッチョイ 871b-Ufki):2024/05/02(木) 23:14:15.30 ID:DP0pszvv0.net
サイトを見ながら勉強している段階なのですがModel hash: というのはどこに入力するんでしょうか?

292 :名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki):2024/05/02(木) 23:42:22.35 ID:OBZW6+pC0.net
>>291
なんのどれを勉強してるのかわからないけど、それは直接入力する必要はありません
選択したモデル(checkpoint)のハッシュ=指紋みたいなもの
ローカル側でモデル名を勝手に変えたりできるので、一意にこれってわかるように随所に表示されてる

293 :名無しさん@お腹いっぱい。 (オッペケ Sr5b-Pczd):2024/05/03(金) 00:12:09.98 ID:GT0XczL3r.net
勉強なんてしてないでとにかく導入するなりオンラインのサービス使うなりしようぜ
座学は体験に比べるとカスみたいな経験しか積めない

294 :名無しさん@お腹いっぱい。 :2024/05/03(金) 00:57:53.74 ID:RvMdh7fL0.net
>>289
花札アイコンを押してLoraを選ぶ、という説明がたくさん出回っているが、もう花札アイコンはない

97 KB
新着レスの表示

掲示板に戻る 全部 前100 次100 最新50
名前: E-mail (省略可) :

read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★