【StableDiffusion】画像生成AI質問スレ22
1 :名無しさん@お腹いっぱい。 :2024/03/23(土) 14:16:20.22 ID:N0ymcDqFM.net !extend:checked:vvvvv:1000:512 !extend:checked:vvvvv:1000:512 ↑スレ立て時にはこれを3行に増やしてください Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。 次スレは>>970 が立ててください。 質問する人はなるべく情報開示してください ・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する ・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く ・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ ・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く テンプレは https://rentry.co/aiimggenqa に ※前スレ 【StableDiffusion】画像生成AI質問スレ21 https://mevius.5ch.net/test/read.cgi/cg/1703243927/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2 :名無しさん@お腹いっぱい。 :2024/03/23(土) 14:18:58.93 ID:N0ymcDqFM.net ■LoRAを使うと生成速度が落ちる Lycorisの拡張機能を無効にすると直ることがあります
3 :名無しさん@お腹いっぱい。 :2024/03/26(火) 14:21:13.45 ID:X7niUkeB0.net たておつ 前のスレでforgeのLoraの初回が遅いってやつ それが発生したら一回生成すればちゃんと動くけど毎度待ってらんないから 一旦生成はキャンセルして再生成するとちゃんと動くようになるよ なんだろうねバグかね 初回生成すらできないのはブラウザ更新かければ動くようになるよ
4 :名無しさん@お腹いっぱい。 :2024/03/26(火) 16:51:47.45 ID:uBsKwyQ/0.net 前スレの995です 返信ありがとうございます >0995名無しさん@お腹いっぱい。 (ワッチョイ a901-rfcW) >最近sdxlのためにforgeを使い始めたんですが、sdxlモデルの読込(初回使用時やモデルを変更する際の)に10分くらいかかるんですが >2070の8gbを使用かつモデルが大きいからそのようなものでしょうか Lycorisの拡張機能は元々入ってないようです Diskinfoでチェックしてみましたが、正常で問題ありませんでした >0996名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz) >>>995 >それはさすがに時間がかかりすぎだと思う >しかしどうしてだろうね? >こういうのもLycorisの拡張機能をオフにすれば改善するのかな >気休めかもしれないけどCrystalDiskInfoでストレージの健全性をチェックしてみるとか CドライブがSSDなのですが、C直下に入れるのが嫌だったので内部HDDのDドライブに現在入れています その環境下でSD1.5のモデルを読込む際は2GBのものは30秒程度、3GBのものは60秒程度で、SDXL(6GB)の場合は600秒程度要します SDXLのような大きなサイズの場合にのみ影響が発生することはあるのでしょうか >0997名無しさん@お腹いっぱい。 (ベーイモ MMc6-CYwW)
5 :名無しさん@お腹いっぱい。 :2024/03/26(火) 16:52:26.61 ID:uBsKwyQ/0.net a1111ではsdxlを試していません forgeにしてからSD1.5の読込はa1111と比較して快適になったのですが、上記にあるようにSDXLの場合に明らかに長くおかしいと思い聞いてみました そういった知識がなく理解が怪しいので返答としてあっているのか分かりませんが、 RAM16GBを使用していてSDXLモデルを読込んでいる最中は使用量が95-99%を占め、利用可能が200MB〜1GB程度でコミット済みが35/40GB程度です >0998名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro) >文章的にa1111は問題なかった?ように読めるけど >forgeはVRAM節約分、a1111よりメインメモリの使用量は多いとかなんとか >メインメモリが少なくなってて、HDDの仮想メモリに溢れてるとかはない? インストールし直すことにしまして以下のコマンドを使用しました git clone https://github.com/lllyasviel/stable-diffusion-webui-forge.git 元々最新verを使用していて、今回も最新verをインストールしました ですが改善はされませんでした。おすすめのverとかってありますか?
6 :名無しさん@お腹いっぱい。 :2024/03/26(火) 17:08:25.94 ID:XBI5mrXPr.net メインメモリ16は少なすぎるし HDD上で動かすのも良くない メモリはせめて32、できれば64↑ SDはSSD上で動かす Xはモデルデータか大きくなったから1.5の時に感じにくかったスペック問題が顕著になってる
7 :名無しさん@お腹いっぱい。 (ワッチョイ 8da4-rfcW) :2024/03/26(火) 17:38:48.03 ID:CqvchsRE0.net AI脱がしで良いんでは??? 1日1回無料だし https://nudefusion.com/ja?referral=kjtj4k6kop6emod https://nudefusion.com/ja?referral=pbmsbfo7myo6z8t https://clothoff.app/r/clmd0jl3n164ezy6089glizot https://drawnudes.app/r/clq4xlk3u312auuji
8 :名無しさん@お腹いっぱい。 (ワッチョイ 5ef2-HgBz) :2024/03/26(火) 17:45:34.39 ID:+VX7H6no0.net モデルはSSDに入れるのがいいと思う、読み込みの早さがぜんぜん違うから モデルが入っているフォルダを指定する方法もあるから、forge本体はHDD、モデルはSSDという運用も可能 「webui-user.bat」で「set COMMANDLINE_ARGS=--ckpt-dir c:\\sd\model\sdxl」みたいに指定する メインメモリが16GBで足りないってことはないんじゃないかなあ forgeとブラウザのほかに大きいアプリケーションを起動してなければ大丈夫じゃない? forgeでおすすめのバージョンは特にありません。考え方は人によるけど、forgeはいつも最新を使うのがいいと思う
9 :名無しさん@お腹いっぱい。 (ワッチョイ 6e41-lp1z) :2024/03/26(火) 17:47:15.43 ID:wEjgLBtH0.net 前スレでcleavage cutout教えてくれた方 ありがとうございます シコる前に一言お礼を言わせてください
10 :名無しさん@お腹いっぱい。 (オイコラミネオ MM91-1A7h) :2024/03/26(火) 18:09:58.79 ID:+IWPpmp+M.net カピカピになった手で書き込みされても…
11 :名無しさん@お腹いっぱい。 :2024/03/26(火) 18:17:16.57 ID:BUl+x2840.net 前スレ https://mevius.5ch.net/test/read.cgi/cg/1703243927/918 > dynamic promptsのchunkが生成ファイルに残らない これ「ReloadUIしてなかった」で解決と思ってたけど違ってて再発 で https://github.com/Bing-su/adetailer/issues/447 https://github.com/adieyal/sd-dynamic-prompts/issues/703 Adetailerと併用すると消えてしまうとのこと、たまたまadetailer使わずに治ったと思い込んでた模様 https://github.com/adieyal/sd-dynamic-prompts/pull/705 で、とりあえずは治りました 報告まで・・・
12 :名無しさん@お腹いっぱい。 :2024/03/26(火) 19:08:49.85 ID:uBsKwyQ/0.net 4です、ありがとうございます SDXLのモデルをSSDのCドライブに入れたところ、10分の読込が2,3分に短縮されました HDDを使っていたばかりにお手数おかけしました 容量を気にせず使えるように外付けのSSDを購入しようと思います 返信していただいた方々ありがとうございました
13 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4) :2024/03/26(火) 20:16:39.73 ID:TfP3Ko6R0.net 数日前から、VAEを変更しても生成結果に表示されるVAEのハッシュ値が変わらない現象が発生してます 元々vae-ft-mse-840000-ema-prunedを使用しており、ハッシュ値も正しいもの(735e4c3a44)が表示されていたのですが、sdxl_vaeを1度使用してから、VAEの、ハッシュ値がsdxl_vaeのもの(63aeecb90f)に固定されてしまっています UI・端末再起動、VAEの削除、再ダウンロード等試しましたがハッシュ値の固定は解消されません この現象が起きてから生成画像のクオリティが安定せず、経験ある方や何かご存知の方いたら教えて頂きたいです 必要か分からないけど以下簡単なスペック i7-8700 rtx2060su ram16gb
14 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4) :2024/03/26(火) 20:17:47.99 ID:TfP3Ko6R0.net >>13 UIはforgeの最新版です
15 :名無しさん@お腹いっぱい。 (ワッチョイ 59c2-tIrN) :2024/03/26(火) 20:25:17.28 ID:MIi0LxvU0.net >>13 sdxl_vae削除したときはどーなんの? vaeが適用されない? (まあsdxlはvae焼かれてるモデルも結構あるが) あと結局sd1.5とsdxlどっち使いたいんだろ
16 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4) :2024/03/26(火) 20:50:42.18 ID:TfP3Ko6R0.net >>15 sdxl_vaeを削除して、vae-ft-mse-840000-ema-prunedを選択してもsdxl_vaeのハッシュ値が表示されてますね sdxlは好奇心で使ってみただけで、マシンスペック的にも1.5を使用してくつもりです
17 :名無しさん@お腹いっぱい。 (ワッチョイ e9a6-hXB4) :2024/03/26(火) 21:01:51.52 ID:TfP3Ko6R0.net あ、文章の意味勘違いしてた vaeが反映されない、ですね
18 :名無しさん@お腹いっぱい。 :2024/03/27(水) 00:01:15.24 ID:b9uaFY8B0.net >>16 sdxl_vaeを削除して、上のSD VAEの更新(reflesh)ボタン押してみて、 sdxl_vae.safetensorは▽のリストにまだある?ない? その駄目な感じの生成した時にCUI窓の方にはエラーかなんか出てない?
19 :名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro) :2024/03/27(水) 01:42:29.29 ID:b9uaFY8B0.net あと、VAE変えるときのCUIのメッセージにも異常がないかも
20 :名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+) :2024/03/27(水) 01:48:49.57 ID:Kdot0TRC0.net VAEに関するこの手のバグを前にもスレで見た気がするな ここだったかどうか覚えてないけど
21 :名無しさん@お腹いっぱい。 :2024/03/27(水) 08:56:34.75 ID:1a89kVsbd.net >>18 リストからは消えてます エラーは特に出てないんですよね… 生成時にも切り替え時にも
22 :名無しさん@お腹いっぱい。 :2024/03/27(水) 09:24:50.19 ID:b9uaFY8B0.net わからんね・・ vaeの場所指定はmklink?COMMANDLINE_ARGS? 具体的にどこに入れてる?a1111内?forgeのmodelのVAE内? 外付けとかに入れてない?(昔不具合報告みたことある) forgeのwebuiフォルダにあるconfig.jsonの325行あたりの「"sd_vae": 」が起動時の設定なんだけど 他のvaeがなんらかの原因で突如何故か認識できずに自動的に見える奴に戻してる感じだろうか これ変えてもたぶん挙動は同じだろうなぁ ぶっちゃけ、別フォルダにforgeそのものを入れなおすのが一番早いような・・
23 :名無しさん@お腹いっぱい。 :2024/03/27(水) 10:13:29.34 ID:o/IHU/f0d.net >>22 場所指定はデフォルトのままで内蔵m.2 SSDのforge内models/vaeを見てます 帰ったらconfig.json確認してみます ここまで来るとたしかに再構築した方が早そうですね、ご助力頂きありがとうございます
24 :名無しさん@お腹いっぱい。 (ワッチョイ adfa-rfcW) :2024/03/27(水) 11:17:44.11 ID:a5ORGnkh0.net forgeのloraロード時間バグは困ってたけど https://github.com/lllyasviel/stable-diffusion-webui-forge/issues/500 このあたりが原因かな
25 :名無しさん@お腹いっぱい。 (ワッチョイ 016f-VtrB) :2024/03/27(水) 17:44:59.80 ID:ZtOGuIeh0.net forgeは最近なんか不安定。 XLモデルを変更して生成しようとするとwinの方で例外エラーが出て落ちる モデル切り替え時にメインメモリ(16GB)が足らなくなるっぽいんだが、以前は普通に変更できてたんだよな
26 :名無しさん@お腹いっぱい。 (ワッチョイ b2b1-qS4M) :2024/03/27(水) 18:32:41.79 ID:ItFwqSwH0.net 安定してたバージョンに戻せば良いんじゃないの?
27 :名無しさん@お腹いっぱい。 (ワッチョイ 8da7-HV/b) :2024/03/27(水) 20:10:11.73 ID:pXGF6/BY0.net コントロールネットの某人間めんどくさいので、クリペの3Dの画像で何か手軽に出来る方法ありませんか?
28 :名無しさん@お腹いっぱい。 (ワッチョイ 7524-6Gz/) :2024/03/27(水) 20:47:55.08 ID:Ppy5KKOo0.net A1111でバッチサイズ8/回数3で生成しているが、使用メインメモリは12.7GBでずっと安定している。 VRAMが16GBあるからメインメモリまではみ出してこないのかもしれんが。
29 :名無しさん@お腹いっぱい。 (ワッチョイ 6ef2-23IO) :2024/03/27(水) 21:52:40.03 ID:LUcLOXS/0.net 家で4070 出先で3070laptopでやってるんだけど同じモデルと設定でやってるのに質に違いが出るのはなんでだろう 4070は早いけど顔が崩れやすい ノートは遅いけど比較的忠実 前者は元の画像サイズを上げると多少マシになるけどそれでもノートで生成するより打率が低い 4070の方だけ1.8.0にアプデしたのが影響してるのかな…
30 :名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+) :2024/03/27(水) 21:57:31.17 ID:Kdot0TRC0.net ありとあらゆる環境が生成に影響するから仕方ないね たまたま噛み合って自分の気に入ったものが出るならそれを大事にするしかない seedやプロンプトには固定させる要素がそれほどないんだ
31 :名無しさん@お腹いっぱい。 :2024/03/27(水) 22:07:13.02 ID:LUcLOXS/0.net なるほど 俺の場合は4070の方をLoRA作成に使った方が良さそうだね なんかLoRAの出来にも違いが出そうだけど(-_-;) ありがとう
32 :名無しさん@お腹いっぱい。 :2024/03/27(水) 22:13:54.57 ID:Ppy5KKOo0.net 同じSEEDでもCFGスケール値やサンプリングステップ値を変えるだけで別の絵が出てくるね。
33 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:21:23.46 ID:AVgxsnoJ0.net 質問です。 最初に画像を作成しようとしたり モデルを変更したりしたら TypeError: 'NoneType' object is not iterable というメッセージが出て 一切画像を生成できなくなったのですが これはどうやったら治るのでしょうか。 普通に複数回画像を生成できても 途中でこのエラーが表示されて 全く生成できなくなります。
34 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:31:43.80 ID:kI0Td/Xd0.net Forgeで起きやすい問題らしいけどどんな環境かわからんし ただ生成してるだけなのか拡張機能を何か1つでも使ってるのかもわからん もうちょっと情報書いてほしい
35 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:37:11.43 ID:AVgxsnoJ0.net 使用しているバージョンは version: f0.0.16v1.8.0rc-latest-268-gb59deaa3 python: 3.10.6 torch: 2.1.2+cu121 xformers: 0.0.23.post1 gradio: 3.41.2 です。 こちらで生成しようとするとエラーが頻発するようになりました 別のバージョンのversion: latest-51-g5bea443d ? の方を今使っていますが、こちらは今のところエラーは見られません。 ?
36 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:43:19.09 ID:AVgxsnoJ0.net 正直全然原因がわからないです。 昨日から変わった事はといえば中国の 容華:国風大模型 古風大模型XL 緒儿:泛光唯美大模型 亜洲人像 といったベースモデルを新しく入れて 試しに画像を生成していたのですが 異常なくらいに出力が遅く その後に色々とエラーが出るようになったという事です。 モデルを以前から使っているアニメ系モデルに変えても Stable Diffusionを終了して再度起動しても 同様にTypeError: 'NoneType' object is not iterable のエラーが何度も出ます。
37 :名無しさん@お腹いっぱい。 :2024/03/28(木) 06:57:31.91 ID:NGR8/IcM0.net https://github.com/lllyasviel/stable-diffusion-webui-forge/issues/243 このあたりだろうか 2/14なんで丁度そのバージョン跨ぎあたり? で、つらつら読んでると https://github.com/portu-sim/sd-webui-bmab これ使ってる?
38 :名無しさん@お腹いっぱい。 :2024/03/28(木) 07:30:08.74 ID:AVgxsnoJ0.net >>37 下のURLの追加プログラムはインストールしていません。 上のURLの会話には「SwinIR_4x 」という単語がたびたび出ますが 自分は高解像度補助アップスケールの際に 「4x ultraSharp」というものをたびたび使いますが 以前から使用していたので、これがバグの原因とは思えません。 それから昨日は同一seedで様々なvaeとSamplerを ひとつひとつ使って生成結果を試していて その後に元の設定に戻したのですかず もしかするとそのあたりも何か関係しているのかもしれません。
39 :名無しさん@お腹いっぱい。 (ワッチョイ 75d7-VC0S) :2024/03/28(木) 12:05:51.84 ID:33edf7Nh0.net .statisfaction じゃなく.ckpt だったりして、、、、悪意の、、 つか追加したモデルファイルをどうしてるか、消したり移動したりはしてないのよね?
40 :名無しさん@お腹いっぱい。 :2024/03/28(木) 12:33:31.75 ID:zNM4xzEj0.net たぶん、pythonのバージョンの認識エラー venvをリネームして様子見てみれば、何か分かるかも知れない
41 :名無しさん@お腹いっぱい。 :2024/03/28(木) 15:44:55.01 ID:AVgxsnoJ0.net >>40 venvをいったん削除して再起動すると 新しくvenyが作られるので 削除して再起動しましたが、変わらずに同様のエラーが出て 画像を生成できません。 >>39 追加した中華性モデルファイルは使い物にならないので リネームして、廃棄物を集めたフォルダに移動しました。
42 :名無しさん@お腹いっぱい。 :2024/03/28(木) 15:51:51.01 ID:AVgxsnoJ0.net なおPythonのバージョンは 3.10.6です。 起動画面には緑文字や赤文字で [notice] A new release of pip available: 22.2.1 -> 24.0 [notice] To update, run: D:\StableDiffusion\Forge\venv\Scripts\python.exe -m pip install --upgrade pip と出てきます。 table DiffusionのAUTOMATIC 1111は Pythonのバージョンの3.1系でないと動かないとあるので アップデートはしていません。
43 :名無しさん@お腹いっぱい。 :2024/03/28(木) 16:08:59.98 ID:NGR8/IcM0.net ちなみにhires.fixなしでも同じエラー出る?
44 :名無しさん@お腹いっぱい。 :2024/03/28(木) 16:20:00.62 ID:oh2Y5HqH0.net forgeはcu12.1でxformers: 0.0.23が対応してないっぽいけどそれじゃないの? https://github.com/Stability-AI/stablediffusion/issues/170 https://github.com/facebookresearch/xformers/issues/960 >>42 それ自体はpipのバージョンらしいから問題ないっぽい https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q10277653520 https://pip.pypa.io/en/stable/news/
45 :名無しさん@お腹いっぱい。 :2024/03/28(木) 17:14:41.40 ID:AVgxsnoJ0.net 昨日、画像生成速度がかなり上がるという a1111-sd-webui-tomeという拡張機能をインストールしたのですが この機能をインストール済一覧からチェックを外して再起動したら エラーの数がかなり減ったように思います。
46 :名無しさん@お腹いっぱい。 (ワッチョイ ad61-Juro) :2024/03/28(木) 19:52:53.33 ID:NGR8/IcM0.net > 昨日から変わった事はといえば中国の > 昨日、画像生成速度がかなり上がるというa1111-sd-webui-tomeという拡張機能をインストールしたのですが ええ・・
47 :名無しさん@お腹いっぱい。 (オッペケ Sr79-Rh4k) :2024/03/28(木) 19:56:56.48 ID:70smoLWjr.net このなんとも言えないもんにょり感よ…… この感じだと、他にも拡張機能一気にアップデートしたとか色々原因ありそうよな
48 :名無しさん@お腹いっぱい。 (ワッチョイ 5e10-Re1+) :2024/03/28(木) 19:59:35.55 ID:kI0Td/Xd0.net だって最初の質問から漂う空気が 「なにもしてないのに壊れた」って感じだったもん
49 :名無しさん@お腹いっぱい。 :2024/03/29(金) 03:20:03.68 ID:SNPW60uA0.net 環境の変化でなにかが起こったかどうか完全に新しい構築をもう一つ作って 動作確認してから来てほしい、
50 :名無しさん@お腹いっぱい。 (JP 0H1a-rfcW) :2024/03/30(土) 11:17:54.48 ID:KWy2Tc8UH.net 生成した画像をワンクリックでimg2imgとかに送るタブがあると思うんですが a1111の方は大きいタブでSend to img2imgみたいに書いてあって見て分かりやすい forgeの方はタブが小さくカーソルを合わせれば説明が出てくるのですが見て分かりづらい という違いが起きているのですが、これは拡張機能やセッティングでどうにかなるものですか
51 :名無しさん@お腹いっぱい。 (ワッチョイ b108-Juro) :2024/03/30(土) 12:15:07.92 ID:2sr8ax9v0.net a1111が1.6(2023/8/31)あたりでアイコンになってるのでめっちゃ古いの使ってたのでは・・ forgeは基本、倣ってるだけなんで 変える設定はぱぱっと検索した限りでは見つからなかった そもそもボタンでかすぎるだろって要望で変えたんだろうし gradio触れる人なら簡単にできそう
52 :名無しさん@お腹いっぱい。 :2024/03/30(土) 12:48:00.90 ID:KWy2Tc8UH.net >>51 ありがとうございます 改良の結果アイコンが小さくなってたんですね 確かにa1111の方は不便がないかぎりアップデートしてなかったのでver1.5くらいで止まってました
53 :名無しさん@お腹いっぱい。 :2024/03/30(土) 15:41:16.33 ID:GiQ1byac0.net a11111.7.0でcivitai helper使ってるんだけどUIが変わってからダウンロードできなくなった url入れてget model…クリックすると「subfolder string is None」て出るんだけど解決方法教えてくれ 前のサムネが出るタイプのときは問題なかったんだがサムネのでないタイプになってからはダメ
54 :名無しさん@お腹いっぱい。 :2024/03/30(土) 17:22:11.58 ID:/M7/6GSa0.net >>53 civitai helperが新UIに対応するまではじっと我慢しかないのでは githubのissueに当座の解決方法が提案されているかも
55 :名無しさん@お腹いっぱい。 :2024/03/30(土) 17:22:48.68 ID:2sr8ax9v0.net 使ってないので詳しいことは知らないけど https://github.com/civitai/civitai/issues/1100 このあたりかな?helperの作者さんもレスしてる civitaiがAPI周りを変更したとか https://github.com/civitai/civitai/issues
56 :名無しさん@お腹いっぱい。 :2024/03/30(土) 17:23:19.46 ID:8sE0RXzG0.net >>53 【StableDiffusion】画像生成AI質問スレ22 https://mevius.5ch.net/test/read.cgi/cg/1708834240/608
57 :名無しさん@お腹いっぱい。 :2024/03/30(土) 18:36:23.77 ID:pQlmR15m0.net 近い将来AVは生のAV女優を使わなくても過去のAVから生成AIで いくらでもAVを作れるようになりますか? そうなればAV界の様々な問題も解決していいですね AV女優も不要になりますから
58 :名無しさん@お腹いっぱい。 :2024/03/30(土) 18:44:28.44 ID:9g5bZlqRr.net やってることがディープフェイクと区別つかんから 技術はともかく倫理と法的にあと何十年かは合法にならんかも
59 :名無しさん@お腹いっぱい。 :2024/03/30(土) 18:52:17.12 ID:sSL943Ek0.net 自動運転と同じで法整備が追い付かないパターンになりそうね 追い付いたら追いついたで動画が証拠として使えなくなるような世界になっていそうだけど
60 :名無しさん@お腹いっぱい。 :2024/03/30(土) 19:23:02.45 ID:eb8SFqty0.net >>57 なりません
61 :名無しさん@お腹いっぱい。 :2024/03/30(土) 19:29:10.47 ID:Zr+TGOtV0.net Stability Matrix 超便利よ
62 :名無しさん@お腹いっぱい。 :2024/04/08(月) 22:29:08.52 ID:BAKh+Ur/0.net >>57 数年の間に、チラシや広告の安いのはAIに取って代わられるだろうな。 次に出てくるのがCMだ。30sec程度の動画ならパワフルなPCで自由自在になるだろう。 その次が30分モノのTV漫画かな。 長尺のAVは一番最後だろうね。
63 :名無しさん@お腹いっぱい。 :2024/04/09(火) 14:09:23.01 ID:+FO8pOXFM.net マッチングアプリの広告でAI画像にしか見えないのが使われてて、そのことで話題になってるのとかあるよね ああいうところから入れ替わっていくんだろうな
64 :名無しさん@お腹いっぱい。 :2024/04/14(日) 05:32:07.32 ID:fwMkCCJK0.net >>57 いまのAI生成周り見る限りでは、作ること自体は可能になるだろうけど、 2人以上の絡みとかは普通の人には難しくて作れないので買う形になって プログラマ兼モーションデザイナーみたいな職業ができると思う
65 :名無しさん@お腹いっぱい。 :2024/04/17(水) 10:08:48.11 ID:E4qVb1dNM.net 過去のAVから作るって、 顔だけ変えてとかのフェイク動画なら今でもできるだろね AIが小説を書くのと同じレベルで 勝手にシナリオ作って動画まで作れるようになるとそりゃ凄いな 人間が指示しないと出来ないようなら、 女優男優に演じてもらった方が早い
66 :名無しさん@お腹いっぱい。 :2024/04/17(水) 15:55:31.36 ID:r0OBxfMh0.net AVってヤッてることみんな同じじゃん? ストーリー学習させたらAIが退屈して鼻くそほじりだしそう
67 :名無しさん@お腹いっぱい。 :2024/04/18(木) 22:33:35.96 ID:6RPNcF9x0.net stable-diffusionのスレだから、LoRAを作るkohya_ssもOKでしょうか? 実は低スペックpcで実行してエラーが出て困っており、お助けいただけないかと。 12年前のノートパソコンHP-ProBook-4730sで、GPUはRADEONのため、フルCPUで実施しています。 512☓512の画像作成に30分はかかりますかねぇ((泣) そんな環境で、無謀にもRoLA作成しようとしてエラーが出てしまいました。 学習は実行され、LoRAはとりあえず3個できたところでエラー吐いて終了。 自由に使えるパソコンはこれしかなく、ターゲットがエロ絵なので公開のサーバーを使うわけにもいかず、エラー解消して動かしたいのですが、技術的な助言をいただけないでしょうか? 実行中の端末から取り出したエラーはこんな感じです。 subprocess.CalledProcessError: Command '['/home/hoge/ダウンロード/kohya_ss /venv/bin/python', '/home/hoge/ダウンロード/kohya_ss/sd-scripts/train_network.py', '--bucket_no_upscale', '--bucket_reso_steps=64', '--cache_latents', '--caption_extension=.txt', '--clip_skip=2', '--enable_bucket', '--min_bucket_reso=256', '--max_bucket_reso=2048', '--learning_rate=0.0001', '--lr_scheduler=cosine', '--lr_scheduler_num_cycles=10', '--lr_warmup_steps=325', '--max_data_loader_n_workers=0', '--max_grad_norm=1' , '--resolution=512,512', '--max_train_steps=3250', '--mixed_precision=no', '--network_alpha=1', '--network_dim=8' , '--network_module=networks.lora', '--optimizer_type=AdamW' , '--output_dir=/home/hoge/ダウンロード/kohya_ss/outputs', '--output_name=mimudagirl_v1', '--pretrained_model_name_or_path=/home/hoge /ダウンロード/kohya_ss/models/anyloraCheckpoint_bakedvaeBlessedFp16.safetensors' , '--save_every_n_epochs=2', '--save_model_as=safetensors', '--save_precision=fp16', '--seed=1000', '--text_encoder_lr=0.0001' , '--train_batch_size=1', '--train_data_dir=/home/hoge/ダウンロード /kohya_ss/input/mimudagirl', '--unet_lr=0.0001']' died with <Signals.SIGKILL: 9>. 長過ぎると怒られたので適当に改行しましたが、エラーメッセージは1行で出力されました。
68 :名無しさん@お腹いっぱい。 :2024/04/18(木) 22:50:47.48 ID:Hg6+L1Rl0.net 素直にマシン買い換えろ。 第八世代辺りの中古デスクトップなら1万円切ってる。
69 :名無しさん@お腹いっぱい。 :2024/04/18(木) 23:00:18.74 ID:gCGcaBHR0.net ダウンロードフォルダが原因じゃね? 2バイトコード名だし
70 :名無しさん@お腹いっぱい。 :2024/04/18(木) 23:32:45.67 ID:xQwywUhn0.net カタカナやめてみたら?
71 :名無しさん@お腹いっぱい。 (ワッチョイ 7fa9-ZO1Y) :2024/04/19(金) 11:14:36.57 ID:Tu0uSSbn0.net もしかして AI生成って何回もリセマラしたり 一枚納得の出来る画像作るまで何日もかけたり 大量のLoraを用意するのが普通? 蒸留のような泥臭い方法はよくあること?
72 :名無しさん@お腹いっぱい。 (ワッチョイ b7fd-AFAK) :2024/04/19(金) 12:05:01.48 ID:hf9IB9RY0.net >>71 Loraは盛りすぎると引っ張りあって変な画像になることもあるから使用するのは3個くらいまでじゃね? 用意という点でいえばDLした数が多いほど幅が広がるから好きなLoraを手に入れればいい 蒸留が何を意味してるかもわからんし泥臭い方法がなんなのかもわからんが 悪い部分をそぎ落とすのはプロンプトの仕事だからリセマラとは関係ない 版権絵をぶち込んで顔だけ固定するとかやれるけど泥臭いというより入手手段が合法で公表しないなら内心の自由みたいなもん 日数は遅いマシンなら1枚の絵を仕上げるのに数日かかったりはする open pose とかControlNetとか使ってこだわるならもう少し時間がかかるかもしれん
73 :名無しさん@お腹いっぱい。 (オッペケ Sr8b-ROwx) :2024/04/19(金) 12:26:45.01 ID:i5z2wnibr.net まず、AI生成のコツを掴むまでに、512x512の画像1枚にすら30分とかかけてたら不毛すぎるぞ >>67 の状況とか ・生成時間の無駄 ・生成してる間の電気代の無駄 ・生成で負荷が掛かり続けてPC寿命を無駄に削る >>71 生成時間、生成者の環境とか慣れ具合とか生成目的とか拘りぐあいで千差万別 それこそSDXL基本サイズ(1024x1024)1枚生成5秒以下の環境使ってる人と、>>67 みたいな環境使ってる人とじゃ何もかも基準が違う
74 :名無しさん@お腹いっぱい。 :2024/04/19(金) 12:34:26.88 ID:zrU++40vM.net 最近始めてMeinaMixってやつそのまま使ってるだけなんだけど、顔エロくすると髪がよく顔に被さるんだけど何かいい対策ある?
75 :名無しさん@お腹いっぱい。 :2024/04/19(金) 12:52:39.06 ID:sm8NSs7N0.net foreheadぶち込んどけば、なんとかなる
76 :名無しさん@お腹いっぱい。 :2024/04/19(金) 14:03:11.02 ID:zrU++40vM.net ほーんサンキュー先輩 試してみるわ
77 :名無しさん@お腹いっぱい。 :2024/04/19(金) 15:42:47.28 ID:5NWf3eiI0.net >>71 プロンプト1発で目的絵を出すのはある程度慣れた人か細かいこと気にしない人向けかな 低解像度で先に大枠作ったりLoraやCNでリセマラ繰り返しながら 自分流のやり方の確立とベースになる絵の資産が増えていく
78 :名無しさん@お腹いっぱい。 :2024/04/19(金) 16:42:35.70 ID:23ysX13t0.net >>71 そもそも正確に細かい指定をすることができない こっちが明確に指定したとしても、99%出る物や10%しか出ないような物が混在している なによりあらゆる事象を学習しているわけでもないので、出力不可な要素もある 出る出ないを把握すれば、出る範囲で狙ったものを高確率で一発出しすることは可能
79 : :2024/04/19(金) 16:44:34.20 ID:Y8N+P8BA0.net ebara pony(またはpony)でガチホモ絵を作ってます 受けの年齢を竿役と同じくらい(25歳以上)で出したいのですがyears oldなどのプロンプトを使ってもショタや少年で出力されることが多く狙った絵が上手く出せません どうかお力を貸していただけないでしょうか
80 :名無しさん@お腹いっぱい。 :2024/04/19(金) 16:53:34.13 ID:23ysX13t0.net >>67 新しいの買え あまりに低性能すぎる。 その問題を解決しても、へたすると完成させるのに数日かかるんじゃないのか
81 :名無しさん@お腹いっぱい。 :2024/04/19(金) 16:56:23.63 ID:bPdl8Z1K0.net >>79 エロは専用スレがいいと思う 【StableDiffusion】AIエロ画像情報交換39 https://mercury.bbspink.com/test/read.cgi/erocg/1712242461/
82 : :2024/04/19(金) 17:19:10.16 ID:Y8N+P8BA0.net >>81 ありがとうございます 移動します
83 :名無しさん@お腹いっぱい。 :2024/04/19(金) 18:55:40.66 ID:mu6VZmgv0.net >>67 むしろそのスペックでLoRA3つも吐けたなら、自分もチャレンジしようかと思ったw ちなみに11年前のOptiplex 9020 + GTX 1050 Ti 今なら約2万円 ComfyUIのCPUモード試してみたけど 512*512で7分、LCM LoRA使って1分、GPU+LCM なら12秒 動画とLoRA学習はColabやオンラインサービスでと割り切ってるけど。
84 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:05:03.39 ID:hzdMeb1SM.net >>76 無料の生成AIサイトがあっちこっちにあるからそこから試してみれば? ローカルで環境構築するのは慣れないと時間かかるしなんとなく作り方のイメージ掴んだりpromptやLoraの使い方を理解するにはそっちの方が手っ取り早い
85 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:48:40.93 ID:vMjDndO70.net >>77-78 便乗なんだが、完パケ生成までのプロセスってみんなはどうやっている? ある程度プロンプトを固めたらガチャで100枚くらい引いて、その中で気に入ったシチュエーションを何枚か選んで、さらにパラメータいじって再生成? それとも、きっちりとプロンプトとパラメータ追い込んでから、シード指定して量産?
86 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:53:41.04 ID:1m5svYev0.net 10秒で出力できるんだから、 適当にガチャって捨てたほうが早い
87 :名無しさん@お腹いっぱい。 :2024/04/19(金) 20:59:37.13 ID:bsEgaukK0.net comfyUIにComfyUI ManagerをインストールしてComfyUI ManagerからWAS Node Suiteをインストールして、styleリストを適用させるのがうまくいきません。 https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk 上の動画の11:25の部分 styleリストをcomfyUIに移植できない Noneでしか出てきません 入っているとまずい構文のANDやBREAKは取り除きました styleリストの移植は必須でしょうか comfyuiではプロンプトの保存はどうやりますか
88 :名無しさん@お腹いっぱい。 :2024/04/19(金) 21:18:51.49 ID:23ysX13t0.net >>85 それ聞いてどうすんの 別にどっちでもよくないか 答えるとしたらその日の気分でいろいろやる たいていは新しく知った知識で試行錯誤してるだけで時間無くなるが
89 :名無しさん@お腹いっぱい。 :2024/04/19(金) 21:21:28.79 ID:oSzAkXxf0.net >>88 コミュ障やなぁ ちょっとした雑談やん
90 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:07:58.83 ID:fNCpbJSo0.net Stability matrixからforge使ってると たまにpythonが保護されてるメモリにアクセスしたとやらで落ちるんだけど 修正する方法ないですかね
91 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:32:11.51 ID:V/lhjAGz0.net 男loraと女loraと2キャラでセクロス画像の生成ってどうやるの? できればプロンプトのみで出来ないのかな?
92 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:35:39.71 ID:DKpT6qBN0.net プロンプトのみは無理よー 2つのLoRAの効きを生成する画像に合わせて場所限定でさせるような技術は 拡張機能なしではどうにもなんない 人体が絡み合うと「この場所にある手とか足とかどっちのやねん! わからんわ全部一緒や!」ってAIちゃんが判断してしまう
93 :名無しさん@お腹いっぱい。 :2024/04/19(金) 22:46:15.16 ID:PO+VWf4b0.net ebaraのbakedってこれなんのvae焼かれてるかわかる?
94 :名無しさん@お腹いっぱい。 :2024/04/19(金) 23:10:01.76 ID:k+NF9UvI0.net >>93 たぶん標準のsdxl_vaeだろう、全く同じになるので
95 :0067 :2024/04/19(金) 23:18:27.46 ID:fAk4MQCM0.net ありがとうございます。 そういえばOSの事書いてませんでした。Ubuntu22.04デスクトップで実施してます。 2.5インチ型のSSD250GBで。7割くらい埋まってますか。 StableDiffusionは容量も喰いますね。 >>0068 う゛……万切ってるなら考えましょうかねぇ……でもグラボが高かったような…… >>0069 >>0070 あ〜そういえば、ダウンロードしたからってそのままそこでやってました。 一度試してみます。 >>0073 アニメでグサグサ刺さるやつですね(嗤) まぁ、元々、ノーパソのリプレースで余ってクローゼットに転がって、何年も電源いれてなかったヤツなので、寿命はとっくなんですが、電気代は確かにもったいないかな…… 時間は……寝る前にプロンプト仕込んで、朝起きたら何枚かできてるって感じですので、あまり気にしてませんでした。 >>0080 数日なんてそんな……このLoRA仕込んだときは、完成予想に250時間ってでました。 実際、六日ほど動いたところで、エラー吐いたんですが(嗤 う〜ん、岸田のせいでカネがないから、万単位のPCなんて手が…… >>0083 秒単位で1枚ですか。う〜ん……カネがあれば……
96 :名無しさん@お腹いっぱい。 :2024/04/19(金) 23:36:41.51 ID:bsEgaukK0.net was node suiteの再インストールがうまくいかない問題が起こっています https://github.com/WASasquatch/was-node-suite-comfyui/issues/322 手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります パスは確認して合ってると思います
97 :名無しさん@お腹いっぱい。 :2024/04/19(金) 23:43:44.82 ID:PO+VWf4b0.net >>94 chacolの色味違いすぎるからなにか特別なvaeかな?とか思ってたけどそうか…普通のSDXLか…
98 :名無しさん@お腹いっぱい。 :2024/04/20(土) 00:28:37.83 ID:ND5rtJbr0.net >>97 chacolはXL_VAE_Cのc0使ってるなあ
99 :名無しさん@お腹いっぱい。 :2024/04/20(土) 01:00:09.28 ID:hYFTRSS20.net dynamic promptsみたいに 画像サイズをランダムとか交互に変えて、batch count入れて回す方法ってあるかな? 縦長と横長でやりたい
100 :名無しさん@お腹いっぱい。 :2024/04/20(土) 02:01:42.16 ID:LN6DbvZO0.net >>95 俺もCPUで生成やってた時期はあるけど、圧倒的な速度差があるから本当に続けるなら買ったほうがいいよ それに慣れるまではLORA作成が一発で成功することはまずないから、そのPCが順調に動いたとしても完成するのはいつになるかわからんぞ
101 :名無しさん@お腹いっぱい。 :2024/04/20(土) 06:46:27.46 ID:xKlsDTeN0.net SDforgeで生成完了後にブラウザで表示される生成結果の表示を無効にしたいです。(生成された画像はすべて保存設定にしているため) 理由として長時間の生成をおこなった場合、中断に時間がかかっている状況で おそらく生成結果の表示に手間取っている影響だと思います。
102 :名無しさん@お腹いっぱい。 :2024/04/20(土) 09:30:44.65 ID:fFIeohMz0.net >>87 数か月前のComfyUIと半年程前のWAS-NODE-SUITEでは動きました(最新版は不明) >styleリストの移植は必須でしょうか 別途プロンプト用のノード(CLIP Text Encode等)を用意すれば問題ないかと >comfyuiではプロンプトの保存はどうやりますか 画面右側のSaveボタンをクリックして、workflowの保存をしてください >手動で入れてstyle.csvをnullから指定したパスに変えると使えなくなります パスの記述内容が間違っていると、以下のエラーメッセージがコンソールに出力されるみたいなので修正してください。問題がなければComfyUIを再起動してブラウザを更新すればstyles.csvの要素が選択できます ``` WAS Node Suite Error: Unable to load conf file at `D:\***\ComfyUI\custom_nodes\was-node-suite-comfyui\was_suite_config.json`. Using internal config template. ```
103 :名無しさん@お腹いっぱい。 :2024/04/20(土) 10:45:43.05 ID:hYFTRSS20.net >>101 settingsの「Quicksettings list」に 「do_not_show_images」追加してチェックでON/OFFする、(VAEやclipやEtaやら同様) 他にも「live_previews_enable」ってのもある
104 :名無しさん@お腹いっぱい。 :2024/04/20(土) 11:09:18.95 ID:3TLQfVWt0.net 「do_not_show_images」は設定の「Gallery」にある「Do not show any images in gallery」やね だけど中断に時間がかかる理由は別にある気がするなあ
105 :名無しさん@お腹いっぱい。 :2024/04/20(土) 11:15:11.00 ID:hYFTRSS20.net 答える前にあるんじゃないかって一応見たんだけど、自分のforge (version: f0.0.17v1.8.0rc-latest-273-gb9705c58 )にはなかったので・・ https://i.imgur.com/eOdkqxw.png 左上は入れたやつね
106 :名無しさん@お腹いっぱい。 :2024/04/20(土) 11:43:50.34 ID:3TLQfVWt0.net >>105 quicksettings listに入れた設定項目は「Settings」タブから消えるんよ
107 :名無しさん@お腹いっぱい。 :2024/04/20(土) 12:00:06.07 ID:hYFTRSS20.net つまり俺は嘘つきじゃねーか! 見落としてたのか、すまん
108 :名無しさん@お腹いっぱい。 :2024/04/20(土) 14:16:29.03 ID:58Z1MQDz0.net >>102 ありがとうございます! すべて直りました style.csvの編集で1行目がemptyだとだめでした 1行目をname 2行目をempty 3行目からセーブされた名前 に編集したらいけました それと¥マークが1つ足りていない箇所がありそこもうまく読め込めない要因でしたすみません ところでforgeのプロンプトはどこに保存されているか分かりますか? 1111とは別のように思います forgeのフォルダ内を見ていますがプロンプトが保存されているファイルstyle.csvらしきものが分かりません
109 :名無しさん@お腹いっぱい。 :2024/04/20(土) 16:52:36.36 ID:uQ5JSUjZd.net いい年齢がたたかだか数千円でと思いつつみんな他にもゲームやってたりするのか
110 :名無しさん@お腹いっぱい。 :2024/04/20(土) 16:52:55.61 ID:uQ5JSUjZd.net すまん誤爆
111 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:16:17.02 ID:xKlsDTeN0.net >>103 >>104 ありがとうございます。 まだ数時間以上生成からの停止は試してないですが、停止は早くなった感じしてます。
112 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:18:41.66 ID:58Z1MQDz0.net comfyUIでstyle.csvの移植に成功してPrompt Multiple Styles Selectorに表示されるようになったけど、Show Textでプロンプトが見れないです 実際にSelectorに繋いで出力するとエラーが出ます Error occurred when executing Prompt Multiple Styles Selector: unsupported operand type(s) for +: 'NoneType' and 'str' このエラーコード分かりますでしょうか
113 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:37:29.81 ID:58Z1MQDz0.net すみません直りました!
114 :名無しさん@お腹いっぱい。 :2024/04/20(土) 19:55:12.79 ID:3TLQfVWt0.net >>112 > comfyUIでstyle.csvの移植に成功して これどうやったか教えていただけますか?
115 :名無しさん@お腹いっぱい。 :2024/04/20(土) 20:23:08.57 ID:58Z1MQDz0.net >>114 はい、なんの知識もありませんがわたしでよければ >>87 にあるここの説明ですが、 https://youtu.be/HMTY3eHRUk4?si=yMV276tS1e65lxRk 正確には13:35の部分を一時停止して見てください この方は、一行目にemptyの項目を作成 と動画で紹介していますが、よく見ると2行目にemptyと書いています パソコンでフルスクリーンにして見ると分かると思います なので、 一行目は A B C ←Exelの表の横のABC....のやつ name prompt negative_prompt←一行目 empty←二行目(BとCは空欄) セーブしたスタイルリストの名前←3行目(BにポジCにネガ) となります これで1111で使ってたプロンプトスタイルをcomfyUIで読み込めると思います けれど自分はこのあと>>112 のようなエラーが出ました このエラーは、なんか判別できない記号が含まれてるよーみたいなエラー内容だったので 極力プロンプトをシンプルにしました 試しに ポジにwoman ネガにnsfw しか書かないでセーブしてcomfyUIで読み込ませました そしたらShow Textでも内容が見れましたし、出力も終えました comfyUIで使えない構文が見直しても分からなかったので、シンプルにしました ここから少しずつプロンプトを足していって編集していこうと思います ワークフローをセーブすればいいんですが、1111から移植して使いたい場合、エラーが出たら極力シンプルにして徐々に足していくといいと思います メモ帳より表計算のソフトで編集するといいです 私は編集はXLSX Editorというのを使いました
116 :名無しさん@お腹いっぱい。 :2024/04/20(土) 20:26:07.27 ID:58Z1MQDz0.net >>115 1行目は name prompt negative_prompt です
117 :名無しさん@お腹いっぱい。 :2024/04/20(土) 20:43:59.88 ID:3TLQfVWt0.net >>115 ありがとうございました!
118 :名無しさん@お腹いっぱい。 :2024/04/20(土) 22:50:53.23 ID:58Z1MQDz0.net stability matrixでインストールしないとモデルやロラのサムネイル出てきませんかね? view infoではサムネ見れてシビタイにも飛べますが もうインストール紹介サイトありすぎてなんでstability matrixでインストールしなかったんだよと己と参考にしたサイトを呪ってる しかも導入昨日から全然進んでないし 問題が解決しただけよかったが目標としてる動画生成まで辿り着けるだろうか
119 :名無しさん@お腹いっぱい。 :2024/04/20(土) 22:56:30.85 ID:58Z1MQDz0.net いちいち問題に直面して辛すぎる 今はforgeで出力した画像をcomfyuiにドロップして生成するとなぜか汚いという問題に直面している えんべでぃんぐフォルダを当ててないから汚いのかもしれないがforgeのときえんべでぃんぐ使ってなかったと思うのに cpuではなくてgpuで出力してる ああー心配 これもまたあした調べてみる 歳のせいか集中力が落ちてきてる
120 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:10:56.14 ID:hYFTRSS20.net comfyUIとか窓から投げ捨てたよ ぶっちゃけあれ使ってる人がなにやら凄い画像を作ってるってわけでもないし・・ forgeがある今、「こんなの使ってる俺スゲー」みたいな欲が半分くらいある時間泥棒パズルゲームって印象
121 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:16:48.10 ID:uHBxyudW0.net いや、さすがにそれは
122 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:22:18.50 ID:58Z1MQDz0.net シビタイのvideoってタブにある縦長の動画を作りたいんだよ その設定に四苦八苦してね全然進んでないんだけどさ forgeは生成早いですね comfyui配線ごちゃごちゃしてるけどこれから無線化するところさ 5chのスレも2つあってこれから困ったらどっちで聞いていいのかわからんち
123 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:28:07.47 ID:9fB4G4E50.net まだ初めて間もないのですが どうも二人以上の絡みになると途端におかしくなる事が多いです もしかしてみなさん、何回もやり直してるんですか? そろそろ心が折れそうです・・・
124 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:35:43.46 ID:sOL49JN10.net 2人以上の絡みはRegional Prompterとか使わんとまともに描けんよ
125 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:37:31.73 ID:hYFTRSS20.net XLのponyとかはちょっとマシに出るかな、すでに使ってるならそういうもんです 1.5でやると専用のLora使ってもなかなか難しい
126 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:38:46.61 ID:FamJEfVP0.net >>123 画像貼ってどんな画像出したいかを書くとアドバイスもらいやすいぞ 二人以上の絡みって言っても体位や男女の数配置チェックポイントやLora含めて組み合わせ方が全然違う
127 :名無しさん@お腹いっぱい。 :2024/04/20(土) 23:40:55.10 ID:sOL49JN10.net えちぃのはなんJ行くと猛者がたくさんいるぞ
128 :名無しさん@お腹いっぱい。 :2024/04/21(日) 11:09:50.82 ID:PlALCCp20.net >>119 試行錯誤が辛いなら金で解決しろ 有料解説サイトがいくつもあるだろ
129 :名無しさん@お腹いっぱい。 :2024/04/21(日) 13:49:41.75 ID:yvMBHgIt0.net >>128 もしよかったら質問したとき教えてくれませんか? お金はなくてクレカで買ったグラボの支払いに恐れているくらいなので わたしの質問をみかけたらどうかよろしくたのんます
130 :名無しさん@お腹いっぱい。 :2024/04/21(日) 14:19:27.39 ID:yo6I7OI50.net 質問者はグラボ何使ってるかぐらいは言った方が良い VRAMの量によって回答内容が変わってくる質問は多い
131 :sage :2024/04/21(日) 14:57:57.62 ID:yvMBHgIt0.net 了解です
132 :名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01) :2024/04/21(日) 15:57:36.06 ID:LMG+dEZI0.net >>1 に書いてあるんだけどなかなかね
133 :名無しさん@お腹いっぱい。 (ワッチョイ e062-TxeL) :2024/04/21(日) 16:23:58.29 ID:yvMBHgIt0.net >>119 に書いた通りなのですが、comfyUIで出力すると汚くなってしまう forgeで生成した画像をcomfyUIにドロップしてみると質感がまったく違う どこかの設定をいじらないと元の画質には近付けないですか?
134 :名無しさん@お腹いっぱい。 (ワッチョイ a925-0QaG) :2024/04/21(日) 16:37:50.46 ID:I2EA7lXw0.net comfyUIとforgeまたはA1111は計算方法が少し違うので同じ絵は出ないです 計算式を近づける方法はあったと思うけど、完全に一致させるのは無理と言われてた
135 :名無しさん@お腹いっぱい。 :2024/04/21(日) 16:45:30.69 ID:c5jiss+70.net 使ったことないからどうなのかはしらんが a1111風に解釈するノードがあったはずやな
136 :名無しさん@お腹いっぱい。 :2024/04/21(日) 16:51:48.38 ID:yvMBHgIt0.net >>135 それはどういうことでしょうか なにか思いついたことがあればなんでもお願いします グラボはrtx3060 12gです majinAIにアップしても情報がnullになってしまう それでも比較画像をのせたら分かりやすいか
137 :名無しさん@お腹いっぱい。 :2024/04/21(日) 16:52:07.77 ID:3fRE40Hz0.net hiresも1111が優秀すぎてね comfyUIの誰かさんのhiresカスタムノードでやるとこれがなぜか汚い汚い・・ 設定値あれこれいじってもどうやってもスタート地点(1111並み)に立てない で、adetailerあたりでもの凄いノードの塊に直面 他人の既存workflowをコピペするだけとはいえ、意味わからないとって全部意味調べてるうちに 画像生成全くせずに一日中俺何やってんだろ、で嫌になって投げた マイナスからスタートみたいな、で、その先にプラス部分は本当にあるの?って疑念がフツフツと >>135 prompt中のtokenの強度分布が違うので1111に合わせるやつね あれはあくまでその部分だけの話
138 :名無しさん@お腹いっぱい。 :2024/04/21(日) 17:10:13.83 ID:yo6I7OI50.net >>137 素直に1111使用をオススメ comfyUIは自分で利点を見いだせて、かつあのカスタム要素を楽しみ続けれる性格じゃないといずれどこかで投げ出すよ
139 :名無しさん@お腹いっぱい。 :2024/04/21(日) 17:13:06.33 ID:yvMBHgIt0.net >>137 えぇ…そうなんですね comfyuiでの動画生成が目的ですが綺麗な画像をforgeで生成して、それをcomfyuiにドロップして動画を作るってことはできますか? comfyuiで画像生成は向かないのかな >>134 質感がかなり違うんですよね リアル系の画像を生成してますが人間に近い質感ではなく汚い感じ forgeだと簡単にホイホイ綺麗な画像が出てくるけどcomfyuiでリアル系は厳しいのだろうか comfyuiで生成した画像はmajinAIに載せられませんでした サポートしてないと出た
140 :名無しさん@お腹いっぱい。 :2024/04/21(日) 17:16:36.13 ID:yvMBHgIt0.net >>138 ありがとうございます 動画生成のanimatediffの手順までcomfyuiで覚えて、画像はforgeで作ります 苦労するとのお話なのでanimateDiffはどうやるのか手順を学んでみます
141 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:17:15.64 ID:PlALCCp20.net sd1.5時代にいい感じだったシードを使ってsdxlで描くと、全然別ポーズになる。 シードって何なんだろうね。
142 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:20:09.17 ID:txW698FF0.net PixAIは使ってる人居ない感じですか? 環境用意出来ないので頼りっきりで不安になりました
143 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:30:04.96 ID:AsOSqfh80.net comfyUIはサンプラーが1111にあるのが無かったり逆もあるし、カスタムノード入れないと1111系とはトークンの解釈も違うしbreak構文も使えないと違いは結構あるからね カスタムノード入れれば使えるけど
144 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:32:37.71 ID:LMG+dEZI0.net >>142 専用スレがあるよー PixAiについて語るスレ 4 https://mevius.5ch.net/test/read.cgi/cg/1710594011/
145 :名無しさん@お腹いっぱい。 :2024/04/21(日) 18:44:53.74 ID:LMG+dEZI0.net >>141 シードはStable Diffusionに最初に与えるノイズ画像を生成するもととなる数値 出力解像度が変われば異なるノイズ画像が生成されるはず SD1.5とSDXLではもし最初のノイズ画像が同じでもモデルや内部の処理が違うから同じ結果にはならないよ 1.5で生成した画像と同じポーズの画像をSDXLでも生成したいなら、1.5の画像をもとにimg2imgやControlNetを使うのがよさそう
146 :名無しさん@お腹いっぱい。 (ワッチョイ 9611-LqfZ) :2024/04/21(日) 19:15:26.59 ID:yo6I7OI50.net >>140 情報小出しで全然わかんなかったけど、3060で動画生成が最終目標なら全然話が変わってくるよ comfyUIに利点しかないのでcomfyUI頑張れとしか
147 :名無しさん@お腹いっぱい。 (ワッチョイ e0d3-oJNE) :2024/04/21(日) 19:29:27.84 ID:yvMBHgIt0.net >>146 comfyuiで頑張ります こういった動画を作りたいです https://civitai.com/models/372584?modelVersionId=426894 作成手順が分からなくて comfyuiを使うっぽいからYouTubeの動画見てる 作り方分かりますか?
148 :名無しさん@お腹いっぱい。 (ワッチョイ 9611-LqfZ) :2024/04/21(日) 19:41:23.39 ID:yo6I7OI50.net >>147 アニメ出始めの頃にちょっとループ系アニメをcomfyUIで作ろうとしたことあるけど、 最初のフレームと最後のフレームの画像を予め決めて、残りのフレームの前半で最初の画像から遠ざけ、後半のフレームで最後の画像に近づけていくようなワークフロー作ったらそれっぽいの出来るんじゃないかな? 長い動画は複数足していくことになりそうだけど、最近は最長でどれぐらいの長さまで一気に生成できるのかとかは自分もよく知らない ただ、上記で書いたような事すら1111だと出来る気がしないので、アニメ作成はcomfyUIが一番ラクだし、グラボ3060だとなおのことcomfyUI一択か
149 :名無しさん@お腹いっぱい。 :2024/04/21(日) 19:50:25.42 ID:xGPOxBHF0.net >>147 プロンプトスケジュールっつーnodeに15フレームごとに別々プロンプト書いていくのよ いちおうa1111にもdeforumって拡張がある
150 :名無しさん@お腹いっぱい。 :2024/04/21(日) 19:57:28.28 ID:xGPOxBHF0.net ' Batch pompt schedule' だった
151 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:03:13.17 ID:3fRE40Hz0.net ID:yvMBHgIt0氏については>>138 と同意見 ここでいちいち聞いてるようじゃお先真っ暗だと思う、comfyUI適性がない 敷居が高くて人口が少ない上に、さらに人口が少ない動画生成ときてるので https://comfyworkflows.com/ こういうところから他人のワークフロー落としつつ、自分でコツコツい調べていく感じの人じゃないと なお自分は無理な側だった
152 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:07:02.13 ID:yvMBHgIt0.net >>148 ありがとうございます comfyuiは動画生成に強くてA1111は画像生成に強いということでしょうか 今は関係ないかもだけどアップスケールについて動画見てます >>115 の次の動画 一気にanimatediffの動画見ても分からなさそうだったので >>150 ありがとうございます 昨日から問題に直面してばかりだから一筋縄ではいかないでしょうがやってみます 最終的に教わった通りに生成できたら嬉しい すこーしずつ
153 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:09:55.03 ID:yvMBHgIt0.net >>151 厳しいのは昨日の時点で感じた わんさかエラーが出てくる いつのまにか1111も起動しなくなってたし 一気にすっとばさずにステップ毎に学んでいくよ 大変そうだけどなぁ
154 :名無しさん@お腹いっぱい。 :2024/04/21(日) 20:15:08.76 ID:yo6I7OI50.net >>152 comfyUIが動画に強いというか、それ以外が動画適正悪すぎるという感じ 特に長時間(2秒以上)のループ動画とかはまぁ1111で現状ほぼ無理じゃないかな 短時間ループぐらいなら1111でも拡張とかでいけそうにはおもえるけどね
155 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8) :2024/04/21(日) 21:34:51.25 ID:3fRE40Hz0.net 動画やりたいって確固たる目的があるのはいいね 自分みたいになんかかっちょいいじゃん?みたいなヨコシマな心だと折れるのも早い
156 :名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D) :2024/04/21(日) 22:09:08.78 ID:AsOSqfh80.net とりあえず動画で公開されてるワークフロー探してきて、まずはそれ動かすところからじゃないかなあ
157 :名無しさん@お腹いっぱい。 (ワッチョイ 038b-K5o/) :2024/04/21(日) 22:11:08.73 ID:rmgSPXw60.net 質問です SDやらforgeやらの環境構築するには ストレージは何Gbほど必要でしょうか?
158 :名無しさん@お腹いっぱい。 (ワッチョイ ce11-/G3D) :2024/04/21(日) 22:13:12.30 ID:AsOSqfh80.net モデルやらLORAやらcontrol netやらを使うことを考えると100GBぐらいはないとあっという間にモデル関係だけで埋まる あとはどれぐらい画像生成するか
159 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8) :2024/04/21(日) 22:17:33.59 ID:3fRE40Hz0.net >>157 本体+checkpoint+lora用にM.2 SSDが1TBは最低欲しい 画像保存用は別にHDDでも外付けSSDでもなんでもいいので多めに
160 :名無しさん@お腹いっぱい。 :2024/04/21(日) 22:52:51.20 ID:STVurYO80.net 2TをSD専用にしてるけど、残り700GB そんな世界です
161 :名無しさん@お腹いっぱい。 :2024/04/21(日) 23:02:10.21 ID:3fRE40Hz0.net 自分も2TBで残り1TBだわ
162 :名無しさん@お腹いっぱい。 :2024/04/21(日) 23:14:43.08 ID:IKknNeXA0.net ミッドジャーニーで出した女の顔を固定してSDで大量生産してくれと言われたけどムズいわ Lora作ったほうが早い?
163 :157 :2024/04/21(日) 23:22:25.64 ID:rmgSPXw60.net 皆さん回答ありがとう なるべく大きい容量用意しようと思います、感謝
164 :名無しさん@お腹いっぱい。 :2024/04/21(日) 23:35:47.57 ID:3fRE40Hz0.net >>162 MJってちょっと前にそういう機能実装されたんじゃなかったっけ? cref(キャラクターリファレンス)とかいうの って、検索したらSDには敵わないみたいなこと書いてるサイトあるね > まだ、顔固定はStable Diffusionに軍配が上がりそうですね
165 :名無しさん@お腹いっぱい。 :2024/04/22(月) 08:34:56.94 ID:Mj3mBU4Y0.net >>157 モデルファイルはHDDではなくNVMeのSSDに入れること 数GBの読み込みはHDDだと1~2分かかるけどNVMeなら長くても十数秒だからね
166 :名無しさん@お腹いっぱい。 :2024/04/22(月) 16:46:22.43 ID:1egco9eJ0.net 目の中心(黒目の部分)の色だけ変えたい場合ってどうやったらいいのかな? red eyesとか入れても白目の部分だけ赤くなって中心の瞳が黒いまま色が変わらない。
167 :名無しさん@お腹いっぱい。 :2024/04/22(月) 17:09:32.32 ID:7Cx1yMej0.net 中心からこの順番 pupil 瞳孔 < iris 虹彩 < sclera 白目 < eye 目 eyeに色指定するとirisが変わるモデルが多いね
168 :名無しさん@お腹いっぱい。 :2024/04/22(月) 17:12:30.10 ID:7Cx1yMej0.net red eyesだけはただの色指定だけじゃなくて 写真での赤目現象とか寝不足とか充血とか 広範囲の意味があるから描画の動作が少し変わるよ
169 :名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX) :2024/04/22(月) 20:25:52.64 ID:tuJQSL0t0.net 髪長めでパラッと左右に広がってるようなモデル使ってロングヘア指定すると 髪がマントやコートに化けてしまうんだけどこれ防ぐにはどうしたらいいですかね?
170 :名無しさん@お腹いっぱい。 (ワッチョイ 4ab1-Qi8t) :2024/04/22(月) 20:28:45.78 ID:kCQ4f8gZ0.net ネガティブにマントやコートを入れればいいんちゃうの?
171 :名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX) :2024/04/22(月) 21:38:22.98 ID:tuJQSL0t0.net >>170 それやったんだけどあんま効果なかったんだ ポジティブ側にもcompletely nakedが入ってる状態なんだよね
172 :名無しさん@お腹いっぱい。 (ワッチョイ ce1b-/G3D) :2024/04/22(月) 22:09:06.87 ID:iasIUhSM0.net 末端が溶けちゃって融合するアレか 強いて言えば髪の先端もちゃんとpromptに組み込むことかな 先っちょがちょっと跳ねているみたいに SDはpromptにあるものはきっちり描こうとするから、これで溶けるのを減らせる 同じように服を半脱げにしたい時は肩にタトゥーとか入れるとそれを描写するために脱ぐ
173 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8) :2024/04/22(月) 22:19:43.51 ID:rU2KmxKQ0.net negpipは試した? あれはかなり強烈に削除してくる
174 :名無しさん@お腹いっぱい。 (ワッチョイ 0e10-vdLX) :2024/04/22(月) 22:26:05.82 ID:tuJQSL0t0.net なるほど確かに 色々試してみようかな もしかするとLong hair閾値よりもモデルの髪のが長い(脚ぐらいまである)からそれを補うために化けてるのかも知れん どもども
175 :名無しさん@お腹いっぱい。 :2024/04/23(火) 12:18:46.19 ID:YjLQjtag0.net negpipってなんて読む人がおおいの? ねぎぴっぴ?
176 :名無しさん@お腹いっぱい。 :2024/04/23(火) 17:02:55.61 ID:Q5r3/KcU0.net >>175 頭の中ではねぎぴっぷになりがち、人と話すならねがぴっぷかなあ
177 :名無しさん@お腹いっぱい。 (ワッチョイ a8ea-K5o/) :2024/04/23(火) 22:59:10.30 ID:1VgVZe5I0.net 普通に読めばネグピップだろ
178 :名無しさん@お腹いっぱい。 (ワッチョイ 2901-Gp8I) :2024/04/23(火) 23:22:46.78 ID:paRuqrDQ0.net 音節末のgとpは無声化か内破音になるからなぁ
179 :名無しさん@お腹いっぱい。 :2024/04/24(水) 08:49:36.03 ID:f+ufn/690.net a1111がいつの間にか1.9.3だが1.9.0から何か変わった?
180 :名無しさん@お腹いっぱい。 :2024/04/24(水) 09:15:43.44 ID:NwLGXzeAr.net 1.9→1.9.3はほぼバグフィックス系に思える
181 :名無しさん@お腹いっぱい。 :2024/04/24(水) 09:41:01.46 ID:OUw/uoViH.net 地震系のショートフィード YOUTUBEのAIは、写真のような高精細な画像のほうが 優先的にショートフィードに乗るみたいだが 無料で出来るところないですかね? 「bing デザイナー」や「google gemini」は いかにも生成AIで作りましたっていう画像しか生成できない 無料の壁???
182 :名無しさん@お腹いっぱい。 :2024/04/24(水) 09:50:57.33 ID:hCu2wla50.net だから企むな
183 :名無しさん@お腹いっぱい。 (オッペケ Src1-LqfZ) :2024/04/24(水) 12:09:47.53 ID:NwLGXzeAr.net 災害系のフェイク画像とか動画作る奴らはホントにクソ
184 :名無しさん@お腹いっぱい。 (ワッチョイ da14-EBMD) :2024/04/24(水) 12:47:50.68 ID:XbU46hON0.net 微妙に質問かえて、 ずっと同じこと聞く
185 :名無しさん@お腹いっぱい。 :2024/04/24(水) 18:48:14.18 ID:3NM2XnuT0.net comfyuiでワークフローを部分的にセーブするにはどうしたらいいですか?
186 :名無しさん@お腹いっぱい。 :2024/04/24(水) 22:58:32.75 ID:tuMWhOrI0.net JSONデータで保存して不要な部分を削除する
187 :名無しさん@お腹いっぱい。 :2024/04/24(水) 23:21:53.50 ID:3NM2XnuT0.net >>186 テンプレートていうのがあった
188 :名無しさん@お腹いっぱい。 :2024/04/25(木) 11:29:55.72 ID:580QVCXm0.net よくモデルやstep、LoRAの重みの比較で生成画像を並べて上や左側にステータス情報を書いた画像を見掛けるのですが どのようにすれば作れるのでしょうか SD forge版を使用しています 内蔵の機能や設定で再現可能ですか?
189 :名無しさん@お腹いっぱい。 :2024/04/25(木) 11:36:11.02 ID:fWDkJ9Wa0.net >>188 画面一番下にあるscript欄から設定でできる X/Y/Z plot でググレカス
190 :名無しさん@お腹いっぱい。 :2024/04/25(木) 11:37:30.56 ID:fyPVbjy80.net >>188 Forgeでも使えるX/Y/Z plotの機能です https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#xyz-plot 画面左下の「スクリプト」から「X/Y/Z plot」を選んで使います
191 :名無しさん@お腹いっぱい。 (ワッチョイ f631-XgJ3) :2024/04/25(木) 12:07:42.80 ID:xyH8qE1Z0.net 3060tiのvram8GBで版権キャラのえっちな絵を作りたい場合はnovelAIとsd forgeどっちの方がいいんや DRAMは32GBあるけどあんま関係ないよな?
192 :名無しさん@お腹いっぱい。 :2024/04/25(木) 12:31:42.82 ID:580QVCXm0.net >>189 >190 ありがとうございます!助かりました
193 :名無しさん@お腹いっぱい。 :2024/04/25(木) 12:32:17.45 ID:fyPVbjy80.net >>191 novelAIはWebサービスなのでパソコンの性能は関係なく、スマホでも画像を作れる SD ForgeはVRAM8GBで問題なく画像生成できるでしょう メインメモリも32GBなら十分です 版権キャラのえっちな絵を作りやすいのはどっちだろう? ひとまずタダでできるForgeでやってみては 学習モデルはPony Diffusion V6 XLがいいでしょう
194 :名無しさん@お腹いっぱい。 :2024/04/25(木) 12:45:28.81 ID:xyH8qE1Z0.net >>193 細かくありがとうとりまforgeいれた 学習モデルっていうのは自分でキャラを学習させる感じ?
195 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:04:06.91 ID:/ZExFKS6H.net forgeってXL専用? 1.5でi2iで拡大すると時間は異常にかかるわ絵はボロボロだわで使い物にならない
196 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:13:52.81 ID:fyPVbjy80.net >>194 なるほど、そこからか。 学習モデルは学習済みのモデルファイルのことで、ダウンロードしてきて所定のフォルダに置けばいいんよ あとはこれ読んで。長いけど基礎知識が1記事に詰まってる AIイラストが理解る!StableDiffusion超入門【2024年最新版】A1111、Forge対応|賢木イオ @studiomasakaki https://note.com/studiomasakaki/n/n7ad935416c5d
197 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:16:55.25 ID:fyPVbjy80.net >>195 ForgeはSD1.5も使えるよー いったん出した画像をもっと大きなサイズで出し直したいときはhires.fixを使うといいよ それでうまくいかなかったら、拡大前の画像と拡大した画像をcatboxに上げてここに載せてくれれば問題の切り分けをしやすいと思う
198 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:21:03.18 ID:Dxc92GFD0.net ホントに頑なになんのグラボ使ってるのかとか解像度どれぐらいだとか書かない人ばっかりだな……
199 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:36:20.47 ID:xyH8qE1Z0.net >>196 checkpointのことか初心者だから知らなかった
200 :名無しさん@お腹いっぱい。 :2024/04/25(木) 13:44:41.11 ID:hWpnD/U5M.net >>198 義務教育で2進法は習わない時代だよ あらゆる基礎の0,1ですらわかんねえのに グラボおいしいの?くらいだろ
201 :名無しさん@お腹いっぱい。 :2024/04/25(木) 14:42:22.96 ID:fyPVbjy80.net >>199 いいのいいの、誰でも最初は知らないからね
202 :名無しさん@お腹いっぱい。 (ワッチョイ a615-C/Ad) :2024/04/25(木) 17:26:43.93 ID:DfAyQFOo0.net 俺のSD導入初日は 「なんやねん、チェックポイントって・・・ 学習モデルとかデータとかそれっぽい英語名でええやん・・・」 「ローラって誰や・・・」 ずっとこんな感じだった気がする
203 :名無しさん@お腹いっぱい。 :2024/04/25(木) 20:29:15.22 ID:mD2ePJOZ0.net >>198 3060TiのVRAM8GBってちゃんと書いてあるやん 何が不満なんだ?
204 :名無しさん@お腹いっぱい。 :2024/04/25(木) 21:37:34.86 ID:Dxc92GFD0.net >>203 >>196 とかそれ以外のコレまでのスレ内のことだぞ? 別にちゃんと詳細書いてる人のことではない
205 :名無しさん@お腹いっぱい。 :2024/04/25(木) 21:38:29.18 ID:Dxc92GFD0.net >>204 >>196 じゃなくて>>195 とか
206 :名無しさん@お腹いっぱい。 :2024/04/25(木) 22:58:26.30 ID:81pZq5e/0.net 環境を説明しないのはA100だけど、初心者なのにA100だなんて言い出せないからかもしれん 書いてなければA100前提で答えればいい
207 :名無しさん@お腹いっぱい。 :2024/04/26(金) 01:28:52.21 ID:Vn4NMll80.net >>202 それな 日本語訳と英名のイメージ違いすぎる なんやcheckpointって
208 :名無しさん@お腹いっぱい。 :2024/04/26(金) 01:34:20.22 ID:GNvXr7IB0.net そういう考えなくていいところで悩むのはもったいないと思うんだぜ なるほどそういう風に表現してるものなのか、で済ませた方が心が楽
209 :名無しさん@お腹いっぱい。 :2024/04/26(金) 02:42:05.49 ID:Vn4NMll80.net >>208 もちろんそーなんだけど勉強とかでも聞いたことある単語出た覚えやすいよねって
210 :名無しさん@お腹いっぱい。 (ワッチョイ 6bfd-sbZL) :2024/04/26(金) 04:33:27.29 ID:qyQHbrI00.net >>195 のForgeはXL専用ですか?という単純な質問に詳しい情報いるか? 従来のモデルも使えるしXLモデルも使える ただControlNet系の拡張は使えないものがある
211 :名無しさん@お腹いっぱい。 :2024/04/26(金) 15:38:43.12 ID:RWUhfJ2L0.net >>202 俺は物知りだからローラがヴィーガンなのは知ってるぞ😤
212 :名無しさん@お腹いっぱい。 :2024/04/26(金) 15:47:45.46 ID:HwpyCWET0.net >>202 SD出始めならまだしも、今なんて解説サイトがわんさかあるのにそれは流石に無理がある
213 :名無しさん@お腹いっぱい。 :2024/04/26(金) 17:40:53.71 ID:Z207ZsTq0.net 導入し始めた時はチェックポイントなんか一個しかなかったし、1111もなかったから迷う余地が無かったな トークン制限で苦しんでたのが嘘のようだ
214 :名無しさん@お腹いっぱい。 :2024/04/26(金) 18:03:04.48 ID:BctKS1Vt0.net 最初はhlkyだったな generateボタンができた当時の誰かのツイートが残ってた https://twitter.com/kawai_nae/status/1563901723680587778 (deleted an unsolicited ad)
215 :名無しさん@お腹いっぱい。 :2024/04/26(金) 18:03:36.44 ID:BctKS1Vt0.net ああ、できたではなく上に来た、か
216 :名無しさん@お腹いっぱい。 (ワッチョイ a8ba-4AlN) :2024/04/26(金) 19:19:36.82 ID:6BjoeCHv0.net 自分もcheckpointは混乱したくち みんなモデルモデル言うからcivitaiでmodelって単語探したら無いし、 後にcheckpointって言うんかーいって感じだった
217 :名無しさん@お腹いっぱい。 (アウアウウー Sab5-kdCE) :2024/04/26(金) 19:22:02.30 ID:Rf6UIQrwa.net AIピカソ、参考画像添付できなくなった。 全く受け付けない、どうすりゃ良いかな?
218 :名無しさん@お腹いっぱい。 (アウアウウー Sab5-kdCE) :2024/04/26(金) 19:22:08.87 ID:Rf6UIQrwa.net AIピカソ、参考画像添付できなくなった。 全く受け付けない、どうすりゃ良いかな?
219 :名無しさん@お腹いっぱい。 (ワッチョイ df1f-t3I8) :2024/04/27(土) 01:54:17.05 ID:KmYHmWVU0.net > AIピカソ なんだっけ・・ 板の過去スレ検索したら2022年9月頃にポツポツレスが出てくるけど あんまり使ってる人見たことない
220 :名無しさん@お腹いっぱい。 (ワッチョイ d0f2-cK01) :2024/04/27(土) 14:24:20.46 ID:7mADKKa60.net >>217 普通に添付できたよ アプリを再インストールしてみては
221 :名無しさん@お腹いっぱい。 (ワッチョイ a2c9-tUod) :2024/04/27(土) 14:31:08.82 ID:6q5JNqhc0.net キャプションを見直すためにWDtaggerを導入しようと思うのですが、以前、「開発者が変わったから、それ以降のヴァージョンは信用していいのかどうかわからない」みたいな話があったのを思い出しました。実際の所、大丈夫だったのでしょうか?
222 :名無しさん@お腹いっぱい。 (ワッチョイ ca6b-EBMD) :2024/04/27(土) 15:19:22.84 ID:A8iBJZTV0.net githubにあるんだから ソースコードが公開されてるのでは?
223 :名無しさん@お腹いっぱい。 :2024/04/27(土) 16:37:51.76 ID:7mADKKa60.net いま拡張機能タブの「拡張機能リスト(Available)」で読み込まれるのは 「WD 1.4 Tagger」 https://github.com/picobyte/stable-diffusion-webui-wd14-tagger.git で、このURLは当初とは変わってる気がする(記憶が曖昧) 問題がないと保証はできないけど、問題があるという話も聞かないな
224 :名無しさん@お腹いっぱい。 :2024/04/27(土) 17:45:36.28 ID:KmYHmWVU0.net https://github.com/toriato/stable-diffusion-webui-wd14-tagger これが旧か、(>>223 に誘導もされてる) v1.6から動かないので信用もなにも、223使うしかないのでは 「みたいな話」のソースを是非
225 :名無しさん@お腹いっぱい。 :2024/04/27(土) 18:53:45.05 ID:bhoNhPsb0.net タグ自体の意味もタグの使い方もどんどん変わってるしな ダンボールタグ信者がいたころが懐かしい
226 :名無しさん@お腹いっぱい。 :2024/04/27(土) 22:55:17.58 ID:6q5JNqhc0.net >>224 ソースというか、この板かお絵描き板のどちらかで以前そういう書き込みを見ただけです。それ以降何も言及がないなら、多分大丈夫ってことですよね…不安はあるけど、使ってみることにします
227 :名無しさん@お腹いっぱい。 :2024/04/28(日) 13:06:23.08 ID:V1tjf2uH0.net >>226 おまえさんが使ってみて何か問題があったら報告してくれればそれでいい
228 :名無しさん@お腹いっぱい。 :2024/04/28(日) 14:39:49.01 ID:kCfRUYRZ0.net >>226 公式からリンクされていてgithubにあるのなら、たくさんの目が見ているだろうからまず大丈夫だと思うよ 楽観的すぎるかもしれないけど
229 :名無しさん@お腹いっぱい。 :2024/04/28(日) 14:51:39.87 ID:/+eogJ+v0.net オープンソースなのに病的すぎるやろ
230 :名無しさん@お腹いっぱい。 :2024/04/28(日) 15:33:23.07 ID:EMMuTwl+0.net オープンソースであることと病的でないことが一切結びつかないから何が「オープンソースなのに」なか分からん……
231 :名無しさん@お腹いっぱい。 :2024/04/28(日) 17:37:16.85 ID:V1tjf2uH0.net ソースが読めない者にとっては、フリーソフトもウィルスも同じだね
232 :名無しさん@お腹いっぱい。 :2024/04/28(日) 17:55:23.33 ID:/+eogJ+v0.net 匿名のここに太鼓判おしてもらったら okっていうのも謎だし、 言ってることが全部おかしい
233 :名無しさん@お腹いっぱい。 :2024/04/28(日) 18:25:23.59 ID:hm0YJOas0.net そこ疑ってたらローカルで画像生成なんかできんぞなもし 拡張機能なんか管理者権限でPython走らせてんだから
234 :名無しさん@お腹いっぱい。 :2024/04/28(日) 18:42:42.64 ID:r4t5reA70.net お騒がせしてすみません 昔フリーソフトでマルウェアが検出されたことがあったせいか ちょっとトラウマで… a1111とかは割り切って普通に使ってます
235 :名無しさん@お腹いっぱい。 :2024/04/28(日) 18:45:31.79 ID:/+eogJ+v0.net 気になるなら 物理的にマシン2つが管理も楽でいいぞ
236 :名無しさん@お腹いっぱい。 :2024/04/29(月) 07:55:13.80 ID:nOmMWpWW0.net https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd のワークフローで生成しているうちにぼやけたりグロテスクっぽくなってしまう バッチサイズはすべて統一してるのだが 288×512はやめたほうがいい? けどこれは関係ない気がする 参照動画で使われてたサイズだし サンプラーはIcmから変えてないカラスに変えると砂嵐になるため なにがいけないんだろう プロンプトは入れてもあまり意味がないとあった けどipadapterはプロンプトで補強しないと正確性はあまりない 最初にモデル読み込んで、画像読み込み、Icmというサンプラーでやると参照画像からかけはなれてしまうデノイズ1より下げるとすぐノイズが入ってしまうし分からん
237 :名無しさん@お腹いっぱい。 :2024/04/29(月) 07:57:34.94 ID:nOmMWpWW0.net まずは破綻しないのと顔を再現したい そこだけでもいいから覚えたい
238 :名無しさん@お腹いっぱい。 :2024/04/29(月) 08:02:44.63 ID:nOmMWpWW0.net https://youtu.be/mecA9feCihs?si=Uw4z8bdYgjdM5WQT ここの説明と大きく変えてないのにぼやけすぎたりグロくなる
239 :名無しさん@お腹いっぱい。 :2024/04/29(月) 08:27:55.86 ID:nOmMWpWW0.net 諦めたくない…諦めたくないよお … 些細な情報でも構いません 読み込んだ画像に似た生成のやり方をご存知のかたお願いいたします ドアップになるか、破綻するか、グロくなるか、似ていない顔 のどれかになってしまいます
240 :名無しさん@お腹いっぱい。 :2024/04/29(月) 10:42:06.65 ID:hQ9wEbSH0.net img2imgでやってるならCFG ScaleとDenoising strengthの調整してる? 大きすぎると破綻するよ
241 :名無しさん@お腹いっぱい。 :2024/04/29(月) 11:32:42.78 ID:672kJP7K0.net どんな画像をもとにどんな動画を作りたいのか書いて、今どういう動画ができているのかimgurかcatboxにでも上げてよ 「読み込んだ画像に似た生成のやり方」では答えようがないよ 「諦めたくない」とかわざわざ書かなくてもいいからさ、聞きたいことを1つの書き込みに簡潔にまとめて書いてくれ
242 :名無しさん@お腹いっぱい。 :2024/04/29(月) 12:36:56.74 ID:wMEgYBiM0.net ・顔を再現させ似せる事が重要 ・GWに突然5chに連投して「諦めたくないよお…」 これだけ見るとヤバい案件としか思えないんだが… いやまあ愛犬のカワイイ変身動画かもしれんけどさ
243 :名無しさん@お腹いっぱい。 :2024/04/29(月) 13:37:33.39 ID:vVsU03Xg0.net プロンプトに強調指定をすると破綻しやすいね
244 :名無しさん@お腹いっぱい。 :2024/04/29(月) 13:55:42.25 ID:0nYsyeln0.net ID:nOmMWpWW0 ここで泣き言言ってる人が自分で調べまくる必要のあるcomfyUIは無理、諦めなさい 上の ID:yvMBHgIt0 だよね
245 :名無しさん@お腹いっぱい。 :2024/04/29(月) 15:20:19.30 ID:E7YYt6QN0.net >>ドアップになるか とか書いてる時点で読み込んでる画像の解像度がおかしいか、出力画像解像度がおかしいのではとは思う まぁこのスレってエスパー検定率高いよね たまに一流エスパーが即解答して真顔になるときあるけど
246 :名無しさん@お腹いっぱい。 :2024/04/29(月) 15:27:15.56 ID:ugxdbEyf0.net 『AI生成で楽して副業』などの動画みて 調べる気ないのにやり始める人が多いけど 無責任動画だしてる人が最後まで教えたらいいのにな それ系動画のコメ欄に書いてるのも見るけど、 質問コメは華麗にスルーしてんよな 面倒みろよw コメ欄で無視され、こういうとこにくる
247 :名無しさん@お腹いっぱい。 :2024/04/29(月) 15:47:09.95 ID:nOmMWpWW0.net (ふぅ…散々な言われようだが落ち着け落ち着くんだ GWに諦めたくないよう、GWは関係ないだろっ だめだ落ち着くんだ) おはようございます 起きました 罵る系のレスも少々ありましたが、たくさんのアドバイスありがとうございます 言われたとおり、状況を冷静に伝えられるかトライしてみます ヤバイ奴なので何時間かかかるかもしれませんがまた書き込みいたします
248 :名無しさん@お腹いっぱい。 :2024/04/29(月) 17:02:10.59 ID:672kJP7K0.net (いや、だからそういうのをわざわざ書く必要はなくて、質問だけを簡潔に書いてほしいってことなんですけどね)
249 :名無しさん@お腹いっぱい。 :2024/04/29(月) 17:32:44.07 ID:nOmMWpWW0.net 真似したい動画はこちらで https://civitai.com/images/9650365 最初は、こちらのワークフローで生成していました https://civitai.com/models/372584/ipivs-morph-img2vid-animatediff-lcm-hyper-sd ↑4/27に更新されています(自分は更新前のワークフローで生成を試みていました) 真似したい動画に似せるどころか顔も変わってしまうので投稿者の言っている設定にできないものか思案していました 真似したい動画をDLして、それをcomfyUIのvideo infoというノードに動画をドロップしたら、投稿者がコメントで言っていたワークフローが出てきました もちろんそのワークフローで生成しても崩れてしまいます ワークフロー https://comfyworkflows.com/workflows/7581cbd1-1cd5-4f3a-a9aa-80f5ceeb686a 読み込ませた画像 https://i.imgur.com/SrcFrfF.png https://i.imgur.com/vOcgUwI.png https://i.imgur.com/llYz9A9.png https://i.imgur.com/xEEZLwd.png 生成動画 https://i.imgur.com/r2jLBiz.mp4 RTX3060 12gb 自分の画像には長い髪の毛が写ってないので最初から狙ってはいませんが、ぼやけたり顔が元よりかけ離れるのがわかりません ワークフローでは間違ってloraを強めにかけてしまいました アップスケール前のKsamplerでIcm以外を選択すると砂嵐になる 実写系の画像なので、dpmpp_2m karrasを選択しないとどうしようもないのでは 288-512というサイズのせいでこうなっているのか 始めから真似したい画像を成功させようとは思っていませんが、まずはロードした画像に動画の画質や造形を近付けたいです
250 :名無しさん@お腹いっぱい。 (ワッチョイ 67ba-ijkW) :2024/04/29(月) 20:17:16.33 ID:WfhBdoQA0.net >>249 学習データにはこの画角は無いんじゃないかな つまり上半身か全体を描写させないと上のような症状が出る わいなら全体を生成してアップを切り出すワークフローで作れる
251 :名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44) :2024/04/29(月) 20:41:02.18 ID:nOmMWpWW0.net >>250 ありがとうございます 顔の周りを髪がぐるぐる回ってるのはどうやるのでしょうか もう少し詳しくお願いします ①まず身体全体を画像生成する ↓ 動画にする ↓ アップを切り出すワークフローで作る ↓ そして、アップにした顔の周りに髪の毛を付ける? ②身体全体の生成の段階で髪の毛も纏わりつくように画像生成する ↓ 動画にする ↓ アップで切り出す ①と②どちらのやり方が近いですか 投稿者はqrcodeの50あたりから開始して350で終わるとコメントしてますがパターンはこちらで合ってますか? https://i.imgur.com/FZojh3v.mp4 このパターンの50あたりから開始、終わりは350と翻訳で出ます 破綻しているせいかもしれませんが顔の向きを常に正面に向けるのも難しかったです
252 :名無しさん@お腹いっぱい。 :2024/04/29(月) 23:42:10.84 ID:vVsU03Xg0.net REACTORで置き換えた顔の表情を変更するのって何か方法があるのかな? プロンプトで何を指定しても笑顔が出てくる。 すまし顔とか困った顔が欲しいんだが。
253 :名無しさん@お腹いっぱい。 :2024/04/30(火) 00:28:13.09 ID:50IfL1TT0.net 惜しいところまできました https://i.imgur.com/9uxOncC.mp4 更新されたワークフローをDLしてそれに画像をロードしました CreateFadeMaskAdvancedのサイズのとこまで288-512にしちゃってました それを512-512のままでやったらぼやけるのはなくなりました モデルによってかなり変わるので変えながら試してみます
254 :名無しさん@お腹いっぱい。 :2024/04/30(火) 03:42:38.38 ID:50IfL1TT0.net アップスケール前ですが近いのができたので、オリジナルの画像生成に移行します ちょびちょびいじりながら少しずつ覚えていきます たくさんのアドバイスありがとうございました また行き詰ったら立ち寄ると思いますが、どうかよろしくお願いします https://i.imgur.com/UVfZ2Gq.mp4
255 :名無しさん@お腹いっぱい。 :2024/04/30(火) 12:55:25.15 ID:50IfL1TT0.net だめだああああ ここからが遠い みなさんにいくつか簡単な質問をしてもよろしいでしょうか comfyui適性のないわたしですが何時間も格闘しても解決できない問題はあるものです >>249 に纏めてありますが 今回の問題は、顔の周りにどうやって髪の毛をまとわりつかせるか?です あす内ハネ外ハネ巻き髪等のプロンプトを試してみますが、恐らくですが投稿者はダークレッドのスカーフで口元を覆っているのではないでしょうか covering mouth with a darkred scarf このようなプロンプトで口元は隠せます しかし次の画像で髪の毛(口元含む)に変化をつけないと動画に動きが出ません どなたか名案をお持ちでないでしょうか windy hairで風で髪をなびかせられますが、風で髪が煽られると顔が露わになります どなたかお願いします 問題はこれだけにとどまらないのですが 諦めたくない 諦めたくないようううぅ
256 :名無しさん@お腹いっぱい。 :2024/04/30(火) 13:08:08.14 ID:50IfL1TT0.net 目が醒めたらアドバイスがきてることを願います みなさんのGWの有意義な1日も祈ります物価下落も祈ります 顔の周りに髪を纏わりつかせたい 真横に流れるように流線的な動きのある髪です もしかしたらこれは、>>251 にあるqrcodeのパターンによって生成された髪かもしれません 画像をロードする前は波打つような髪ではなかったが動画生成時に髪に動きがついた…のかもしれない しかし多少は真横に髪が流れていないとあそこまでうねうねした動きは出せないと思います どうかお知恵をお授けなすって わたしは諦めたくないです
257 :名無しさん@お腹いっぱい。 :2024/04/30(火) 17:00:29.48 ID:f4CfLID80.net まず簡潔に質問だけするという知恵をつけてください
258 :名無しさん@お腹いっぱい。 :2024/04/30(火) 17:28:59.47 ID:kHbVONl+0.net 相手したやつが面倒みるんだから 放っておいていいよ
259 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:38:55.21 ID:50IfL1TT0.net 頼むって まじで頼むって(泣)
260 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:44:21.15 ID:3cZlDGMt0.net 理想を叶えたいなら聞くべき場所はここじゃないんだけどな 先人の知恵がいつでも無料で簡単に手に入ると思ってはいけない 相手の時間を自分のために使わせていることを常に考えた方がいい
261 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:49:12.96 ID:50IfL1TT0.net それは考えてますけど…有料はきついよぉ 他のスレの方ががいいのかな どうしたらいいのでしょう うーん
262 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:50:20.05 ID:AYdy9KCd0.net >>259 みんなが答えを知っていて、意地悪して教えないわけじゃないんだよ 質問の内容がわからない、わかっても答えられる人がいないから回答がないことだって普通にある そうなるといくら頼まれたって無理なものは無理なの それは理解してくれ
263 :名無しさん@お腹いっぱい。 :2024/04/30(火) 21:54:56.94 ID:50IfL1TT0.net >>262 それはうんそうだよね だから自分一人喚いても仕方ない モデルひとつ変えただけで挙動が大きく変わるし、ほんとうにモデルのせいなのか?サンプラーなのかcfgなのかSchedulerなのか手探りでやっていくしかない みんなごめんね もし分かったらでいいので教えてくれると助かります ここはいつも見てますので邪魔してごめんなさい
264 :名無しさん@お腹いっぱい。 :2024/05/01(水) 01:53:02.06 ID:M1PIKx2j0.net クレクレうざすぎるからNGつっこんだ そもそもComfirmは使う気にもならんし
265 :名無しさん@お腹いっぱい。 :2024/05/01(水) 02:43:24.31 ID:WrzFuge+0.net うーん 口元を髪の毛で隠すのはモデル的に無理みたいだ そんなloraもない だからみんなloraを作るのか?
266 :名無しさん@お腹いっぱい。 :2024/05/01(水) 02:54:23.69 ID:WrzFuge+0.net フォトショップで髪を伸ばすのか? フォトショップなんか使ったことないぞ なんでもいいからcomfyui以外で髪で口元を隠せばいけるかもしれん
267 :名無しさん@お腹いっぱい。 :2024/05/01(水) 04:27:57.32 ID:0cfl9Yuh0.net 半年ROMってろ。話はそれからだ
268 :名無しさん@お腹いっぱい。 :2024/05/01(水) 06:38:26.34 ID:WrzFuge+0.net 一応今はgimpを利用して髪の毛の合成を考えています さすがに自分で合成したとなれば動きのある動画になると思うのでね 次はgimpの使い方を学びます 遠回りのようでこれが近道と信じて
269 :名無しさん@お腹いっぱい。 :2024/05/01(水) 06:51:51.59 ID:C4lLtt0L0.net ここは質問スレであって日記帳ではないので、単なる報告や独り言は書き込まないでもらえるかな
270 :名無しさん@お腹いっぱい。 :2024/05/01(水) 09:27:37.76 ID:WFaskO9Vd.net たぶんDiscordとかのほうが向いてると思うぞ
271 :名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44) :2024/05/01(水) 09:44:03.42 ID:WrzFuge+0.net Midjourneyですか?簡単にこの女性出せるんですか?
272 :名無しさん@お腹いっぱい。 (スププ Sdff-Ff1V) :2024/05/01(水) 09:58:13.20 ID:TfrEhJfbd.net そうじゃない その聞き方するならDiscordのどっかのコミュニティでコテハンでやるほうが向いてるという話
273 :名無しさん@お腹いっぱい。 (ワッチョイ 5fad-7i44) :2024/05/01(水) 10:01:16.18 ID:WrzFuge+0.net そんなコミュニティがあったのか Discordで聞くなんて思いもつかなかった ちょっと調べてみる
274 :名無しさん@お腹いっぱい。 :2024/05/01(水) 13:36:02.35 ID:hqBJzC8f0.net >>273 これを作りたいんだったら アニメーションリフト ディープフェイク 2つ使った方が楽やろ
275 :名無しさん@お腹いっぱい。 :2024/05/01(水) 14:00:42.58 ID:c5SmJOthd.net ここのニキらは優しいからそのお方を相手しとるんやろけど、そのお方は然るべきディスコにでも行ってもろてそっちで思う存分活躍してもろたほうがええと思うで そのお方が居るというだけで、何人の有能ニキたちがスレをそっ閉じしたことやら
276 :名無しさん@お腹いっぱい。 :2024/05/01(水) 14:02:43.35 ID:c5SmJOthd.net ちな272氏とはワッチョイ被りで別人やで 連投すまんの
277 :名無しさん@お腹いっぱい。 :2024/05/01(水) 17:07:35.88 ID:WrzFuge+0.net 有能て、、
278 :名無しさん@お腹いっぱい。 :2024/05/01(水) 17:19:03.54 ID:WrzFuge+0.net なんとか今日も諦めずに少しでも前進したい あまりクレクレ言うと怒られるから
279 :名無しさん@お腹いっぱい。 :2024/05/01(水) 17:37:56.72 ID:V1uedVa3H.net forgeでxlを使っているんですが、チェックポイントを切り変える時にロード時間が以前よりも長くなりました コマンドプロンプトを確認するとロード時にcalculate empty promptの部分が400-500sかかっています この部分は何の影響を受けているかご存知の方はいますか? lycorisの奴はもとから入っておらず、forgeはSSDに導入しています forgeは使い始めた時から最新版(2月のもの)で、拡張機能も使い始めたときに導入したっきりで途中で追加していません
280 :名無しさん@お腹いっぱい。 :2024/05/01(水) 18:27:49.77 ID:AKZacZIS0.net >>279 とりあえずデフラグ
281 :名無しさん@お腹いっぱい。 (ワッチョイ 7ff2-b946) :2024/05/01(水) 21:27:25.30 ID:C4lLtt0L0.net >>279 別フォルダにforgeをインストールしてみて、同じようにモデルの切り換えに時間がかかるならストレージに不具合が出ているかも もしモデルの切り換え時間が短くなったら今まで使っていたforgeになにか問題がある みたいな切り分けをしてみては
282 :名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki) :2024/05/01(水) 22:02:38.01 ID:22ScBS2t0.net >>279 これで変わらないかな? https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/667#discussioncomment-9125674
283 :名無しさん@お腹いっぱい。 :2024/05/01(水) 23:08:50.50 ID:lkajTWzi0.net VRAMが大きくない場合は、メインメモリと仮想記憶を使いまくっているらしいので、そのへんをチェックしてみたら
284 :名無しさん@お腹いっぱい。 :2024/05/02(木) 00:22:46.45 ID:OBZW6+pC0.net というか > calculate empty promptの部分が400-500s これだけならかなりおかしいよね > Model loaded in 19.0s (load weights from disk: 10.2s, forge load real models: 7.9s, calculate empty prompt: 0.8s). ここの他の部分はどうなってるの?全部貼ってくださいな
285 :名無しさん@お腹いっぱい。 :2024/05/02(木) 08:53:41.05 ID:eXo+mJMRH.net >>279 です みなさん返信ありがとうございます 以下で解決しました >>282 のDisable memmapping...にチェックを入れて実行したところロード時間がさらに増大(20分くらい)したので チェックを外してもとの状態に戻して実行したらモデルのロード時間が直りました(60-100s) >280 forgeがあるドライブには問題ありませんでした(断片化なし) >281 新しくインストールしようとしたのですが別の問題が発生してインストールが現在できませんでした 次問題が発生したときは新しくインストールして様子を見たいと思います >283 問題があったときはモデルロード時にはメモリが98%に張り付いてPC自体が10分ほどフリーズといった感じでした 解決した今は重くなることはありますがフリーズはないです >284 ログをコピーできていなかったのですが大体 forge load real models:100s, calculate empty prompt:400-500sでした 他の部分は特に時間がかかっているということはありませんでした
286 :名無しさん@お腹いっぱい。 (ワッチョイ dfad-b946) :2024/05/02(木) 11:13:31.45 ID:SWHb25U50.net Openpose Editorをインストールしたのですが、Openpose Editorのタブが表示されません。 調べた手順にのっとって、以下のURLをインストールして、applyや再起動もしました。 https://github.com/fkunn1326/openpose-editor しかし、出てくるはずのタブが表示されません。 ちなみに、他の拡張機能で、同じようにタブが追加される拡張機能(Depth map library and poser)を入れたのですが、そちらもタブが追加されませんでした。 何か間違ってるんでしょうか? Stable Diffusionのバージョンは以下です version: v1.8.0 python: 3.10.10
287 :名無しさん@お腹いっぱい。 :2024/05/02(木) 11:57:08.13 ID:a2qxToNH0.net >>286 Openpose Editorのページに記載があるように23年末で更新が終了しています それ以降のバージョンのWeb-Uiでは正常動作は難しいかも 一応フォークで更新されてる物もあるようなのでそちらを試してみてはどうだろう(動作するかはわからんが)
288 :名無しさん@お腹いっぱい。 :2024/05/02(木) 12:20:57.66 ID:SWHb25U50.net >>287 なんと、そういうことだったんですか。 ちょっとページを見てみたのですが見つかりませんでした。 では、自分の環境に古いバージョンのwebuiがあるのでそちらを使って画像だけ生成しようと思います。 助かりました、ありがとうございます。
289 :名無しさん@お腹いっぱい。 (ワッチョイ 7f9d-+Pu1) :2024/05/02(木) 15:50:19.66 ID:kUMqjBOH0.net mov2movとかも最新じゃもうタブ無くて使えないからなぁ
290 :名無しさん@お腹いっぱい。 :2024/05/02(木) 17:02:12.80 ID:RwcnySRhg 最近はAIで脱がせるのか 一日一回無料で使えるし=~https://drawnudes.app/r/clq4xlk3u312auujidqk0iybg https://clothoff.io/r/clmd0jl3n164ezy6089glizot https://nudefusion.com/en?referral=pbmsbfo7myo6z8t https://nudefusion.com/en?referral=kjtj4k6kop6emod
291 :名無しさん@お腹いっぱい。 (ワッチョイ 871b-Ufki) :2024/05/02(木) 23:14:15.30 ID:DP0pszvv0.net サイトを見ながら勉強している段階なのですがModel hash: というのはどこに入力するんでしょうか?
292 :名無しさん@お腹いっぱい。 (ワッチョイ 671f-Ufki) :2024/05/02(木) 23:42:22.35 ID:OBZW6+pC0.net >>291 なんのどれを勉強してるのかわからないけど、それは直接入力する必要はありません 選択したモデル(checkpoint)のハッシュ=指紋みたいなもの ローカル側でモデル名を勝手に変えたりできるので、一意にこれってわかるように随所に表示されてる
293 :名無しさん@お腹いっぱい。 (オッペケ Sr5b-Pczd) :2024/05/03(金) 00:12:09.98 ID:GT0XczL3r.net 勉強なんてしてないでとにかく導入するなりオンラインのサービス使うなりしようぜ 座学は体験に比べるとカスみたいな経験しか積めない
294 :名無しさん@お腹いっぱい。 :2024/05/03(金) 00:57:53.74 ID:RvMdh7fL0.net >>289 花札アイコンを押してLoraを選ぶ、という説明がたくさん出回っているが、もう花札アイコンはない
97 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★
本文 スレッドタイトル 投稿者