2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【StableDiffusion】AI画像生成技術8【Midjourney】

1 :名無しさん@お腹いっぱい。:2022/10/10(月) 16:40:34.56 ID:EN25VE7L.net
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/

2 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:03:55.87 ID:+XD7dv7a.net
各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう

3 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:54:40.11 ID:Gj1IXST8.net
ワッチョイ派のお兄ちゃんお姉ちゃん達怖かった(´;ω;`)

4 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:56:16.00 ID:1bDnmn14.net
https://rentry.org/sdg_FAQ#building-xformers
xformers導入方法のリンクが見つからなくて苦労したのでとりあえず張っておく

5 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:58:42.81 ID:ZvhIqRE0.net
curatedの再現できないなぁ
海外では再現法見つかってるんやろか

6 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:01:02.05 ID:gscUMfzz.net
WaifuDiffusion 1.4 現在の進捗

https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
から、kl-f8-anime.ckptをDLしてmodleフォルダに保存。
リネームして、wd-v1-3-float***.vae.ptに変えて、1111を再起動。
***は16とか32とかfull-optとか使ってるckptの名前に準じる。

で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のやり方っぽい。

7 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:05:07.03 ID:U+M/ykXy.net
まともなの1枚も出なくなってしまった

8 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:07:28.11 ID:fzcab7+d.net
xformersは古いGPUでやると逆に遅くなるな。最近のGPU専用か

9 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:08:28.72 ID:gscUMfzz.net
うーん、まだ読みに行くだけって感じだな。

10 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:12:22.34 ID:1bDnmn14.net
batファイル起動するとLoading VAE weights fromってメッセージが出るから読み込みはできてるけど
質的な違いは変わってないような気がするな

11 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:13:15.43 ID:EMyATYCl.net
調子乗って画像生成しまくってたけど電気代のことを考えてなかったから今震えてる
都合1000枚くらい生成したけどこれ何円くらい上乗せされるのかな

12 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:20:42.51 ID:fzcab7+d.net
1000枚程度なら百円行かないレベルじゃないの?
マイニングで一月フル回転してもグラボ一枚なら3000円位らしいし

13 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:23:26.75 ID:tixPEkND.net
>>1
荒らし抑制効果があるのかは知らんけどNGしたいときにやりやすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずIDころころ変わっちゃったりするけど、ワッチョイあれば説明しなくても過去レスと同一人物であることを伝えられる

14 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:35:07.53 ID:vrG9EP2J.net
NAIは判子絵しか出ない背景も殆ど描けない代わりにクオリティがクソ高い
WD1.2は暴れ馬な代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの?

15 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:36:28.67 ID:+Ij4h03E.net
例のまとめ(一部修正)

Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce

Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce

Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
Settingタブの [Stop At last layers of CLIP model] を 2 に
webui-user.batをメモ帳で開きオプションを追加
set COMMANDLINE_ARGS=

set COMMANDLINE_ARGS=--xformers

比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg

比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2

16 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:45:03.32 ID:gscUMfzz.net
Waifu Diffusion 1.3 Release Notes
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1

promptの書き方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのpromptに書き方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。

1.4ではボチボチTrinartとのマージは意味なくなりそうだなあ。

17 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:45:14.46 ID:h4X7qE9c.net
素人考えだけど実行ファイルのサイズを10テラ位にすれば流出防止になんじゃね?

18 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:58:04.09 ID:vrG9EP2J.net
いくら何でもこんなに早く丸ごと流出して最初から説明書みたいのも付いてたってんだろ?
明らかに訴訟回避で自分たちで漏らしてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金殺到で社員全員一生遊んで暮らせる金稼ぎ終わっただろうし

19 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:01:38.28 ID:5cPe3xaV.net
それなら今回の件と関係ないgptとかお漏らししないと思うけど

20 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:03:43.02 ID:ynEZ5O3d.net
Stableさっき入れたけどエロに規制掛けてるってマジ?
改造でなんとかスルー出来るらしいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとして見つけてBANとかしてくるの?

つかオープンソースでBANなんて出来るの?

21 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:09:33.72 ID:+RuPmzAv.net
>>11
契約にもよるけど電気代は1000Wh(1000Wを1時間付けっぱなし)で30円くらいだから
PCが333Wで回ると仮定したら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ

22 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:10:33.89 ID:lHTtdA8q.net
>>20
とりあえずお前がよくわかってないってことはわかった
そして質問に答えようにも情報が目茶苦茶だ
何を見て何をどうやって導入したのかだけでも説明しろ

23 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:11:43.95 ID:Jaszf78g.net
>>20
たぶん色々ごっちゃになってるな
エロ規制はほぼ正しい(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除ができるのも正しい
ネット繋げながらというより、Colabを使って生成して、Googleドライブに保存してる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライブに入れたらBANされた的な事例はあるらしい
SD自体とGoogle垢BANは無関係

という感じのはず

24 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:15:46.51 ID:lHTtdA8q.net
>>18
さすがに説明書なんてなかったよ
結局基本がstablediffusionベースなので詳しい人が見ればすぐわかる代物だった、というだけ

25 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:28:24.64 ID:ynEZ5O3d.net
>>22
>>23
https://nmkd.itch.io/t2i-gui
こっからSD-GUI-1.5.0をダウンロードして
エロ回避しようとみましたが
https://gigazine.net/news/20220903-stable-diffusion-safety-filter/

・ステップ2の
「txt2img.py」をエディタで開き、以下の行を探す(通常は309行目)
x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim)
が見当たらない…

26 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:35:28.08 ID:ynEZ5O3d.net
https://i.gyazo.com/cc6c15cb8622f511b781727f5f926ecc.png
この中のにあるのどれもcheckedという文字すらHITしなかった…

27 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:36:50.79 ID:ynEZ5O3d.net
txt2img.pyがスクリプトフォルダにないからダウンロードしてるverが違うんでしょうか

28 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:40:13.92 ID:qLVZxWBM.net
>>25
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?

あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いやすくするために簡易アプリ化したものだと思って欲しい
本家のSDとは扱いがやや違うし、他の環境とも違いも多い
NMKDのようにローカルマシンに導入して動かすタイプのものは、インストール時以外は基本的にオンラインのやり取りがないのでBANという概念もないから安心していい

29 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:41:58.69 ID:+RuPmzAv.net
>>11
ごめん最近の電力の単価は諸々含めると 35円/kWhくらいらしい
RTX3060で計算してみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算してみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20steps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力できる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50steps 512x768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる

つまり「画像1000枚当たりの電気代は、8〜32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな

30 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:42:52.11 ID:ynEZ5O3d.net
>>28
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます

31 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:43:36.36 ID:4E2s8WMB.net
>>25
gigazineの記事は一ヶ月以上前のだから古くなっているのかも

nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがあるし、ユーザーも機能も多いからそっちを使ってもいいかもね

32 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:49:04.54 ID:ynEZ5O3d.net
>>28
んでこのファイルの中に>>6を入れれば日本の萌えキャラみたいなのが作りやすくなるよって事でいいですか?
その本家本元?は有料って事ですかね?
配布してるのはテスト版?

33 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:54:06.56 ID:+VC1PwwK.net
>>29
ID変わってるけど親切に教えてくれてありがとう
大した額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ

34 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:55:59.20 ID:WBulEFxq.net
WD1.4に置いてあるvae導入してみた。

https://i.imgur.com/4FkWFuv.png
https://i.imgur.com/hkgXz1D.png
https://i.imgur.com/vpiCyhs.png

顔と手が改善された。色合いが薄くなって変わった。体型も改善された?
まだテスト段階だから良くなっていくと思われる

35 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:05:19.38 ID:r/AtNiCe.net
>>30
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
>>23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわしくないものでもガンガン真っ黒にされる

36 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:05:28.82 ID:qLVZxWBM.net
>>32
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気にしなくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売として使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる

ひとまず使う学習モデルに関してはここ読んで勉強してこい
https://gigazine.net/news/20221004-stable-diffusion-models-matome/

37 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:10:04.23 ID:gscUMfzz.net
>>34
スマホ、かなり綺麗に持ってるね。

38 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:16:45.81 ID:pWFrk5Hs.net
>>15
>>4に色々書いてあるけどxformerって書き足すだけじゃ導入できない?
>>4の手順を踏んでからbatファイルに書き足しでok?

39 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:20:14.87 ID:eaFbeTfF.net
>>34
こっちはおっぱいダメよ
【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1665317109/

40 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:45:45.53 ID:fzcab7+d.net
>>38
githubにあるモジュールのソースをコンパイルしてpythonの仮想環境にインストールしないとダメ。手順通りやるべし

41 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:49:34.11 ID:ynEZ5O3d.net
>>40
難しいなぁ
zip解凍して場所指定してインストールとかじゃないんだ
youtubeとかに上がってないのかな
ニッチだから再生数稼げないのかな

コンパイルとか言われてもぷよぷよしか思い浮かばん

42 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:50:35.87 ID:ynEZ5O3d.net
https://note.com/uunin/n/n725ae4601264
ここ見ながらやっていったら駄目?
一ヶ月前のだからこれも古いのかな

43 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:50:54.97 ID:5cPe3xaV.net
xformers導入
手順通りやるだけだから何も難しいことはないけどね

44 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:52:11.96 ID:NG0XU+CV.net
NMKDの運用できない奴すら惹き寄せるAIエロ絵の魔力恐るべし

45 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:58:56.03 ID:/GYn74uZ.net
Dreamboothの重ねがけで作りたい絵に近づけるらしい
特定の画風を学ばせた後で特定のキャラを学ばせるとか
やってみた人いる?

46 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:00:36.95 ID:fzcab7+d.net
>>41
まぁxformersは高速化のモジュールだし無理そうなら別に無くてもいいんじゃないかな

47 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:01:53.73 ID:jDYsbSI7.net
NMKD、初期の頃はともかく今はもうつまづく要素無いと思うが

それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってしまう

48 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:04:02.97 ID:rCxGwPTq.net
>>45
dreambooth事態
ローカルで動かす為にはどれ使えばいいのか分からないな

49 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:05:50.33 ID:4HCwQqWR.net
>>38
解説読んで動かないなら抜きでいいよ。同じ設定でもばらつきが出る軽減策でしかないから。
再現するだけなら hypernetworks も xformers もいらんって前のスレで言われてるしね

50 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:16:15.71 ID:WuZ5mE6I.net
dreamboothのnum_class_imageって何しとるん?モデルの中からクラスのサンプルか何か取ってるのん

51 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:18:41.02 ID:jiS6TDQ/.net
xformersの最も簡単な導入方法はRTX30x0を買うことだ

52 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:25:04.61 ID:5d7Si+yR.net
>>42
さっきから色んな話がごっちゃになってるし、かなり理解出来てないぞ?
pythonだのなんだのはさっき入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強したほうがいい
そのnoteの記事もやや玄人向けだからド初心者にはすすめない

53 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:48:12.62 ID:ynEZ5O3d.net
>>52
https://i.gyazo.com/ec19e96ed2896518647623efa1ad9246.png
その劣化版で遊んでるけど悔しくて泣きそう

54 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:51:37.93 ID:ynEZ5O3d.net
>>34
見てやこれとの差
ふざけんな
壊されました楽しく遊べない

55 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:54:05.13 ID:EBDaR7Nm.net
>>54
そもそもパラメータめちゃくちゃだしプロンプトもうちょい書けよ

56 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:54:09.56 ID:Jaszf78g.net
>>53
可愛くて綺麗な絵がうまく出せないという意味なら、ツールじゃなくてプロンプトの問題だな
>>39のスレとか見てみ、めちゃくちゃ長いプロンプト書いてるだろ

57 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:54:54.47 ID:fzcab7+d.net
>>54
既にgui使えてるならモデルファイル差し替えればいいだけじゃないの?あとプロンプトは工夫しないとwaifuでもいい絵でんぞ

58 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:56:15.23 ID:5d7Si+yR.net
>>53
お前ホントなんも調べないし人の話聞かんなwww
まずモデルを調べて他のやつ導入せい
それモデルが普通のSDでしょ?
あとプロンプトの書き方も覚えろ
ていうか、もうちょっと勉強してこいwwww
さっきのギガジンの記事もっかい読んでこーーーい

59 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:58:02.76 ID:M5UKVyNQ.net
ここまで調べる気がない奴はNAIだけやってればいいじゃん

60 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:59:03.43 ID:nklInquz.net
これならNAI使った方が早いだろうな

61 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:02:44.52 ID:eaFbeTfF.net
なんかキレ方や日本語のおかしさ的に、大陸っぽい感じがするなw

62 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:03:43.36 ID:yYW88ItN.net
>>15
Leak pt1から一通りファイルをコピーして
→1111を(最新版にして)再起動
をしても通常のAutomatic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの??

63 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:04:38.49 ID:nklInquz.net
どうしてNAIの画面になると思った?

64 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:06:49.02 ID:gscUMfzz.net
むしろNAIより1111のhi の方が使いやすくね?

65 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:11:22.22 ID:eaFbeTfF.net
>>62
1111でNAIと同じことが再現できるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない

66 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:14:52.85 ID:gscUMfzz.net
良くあるのがclipモデルの設定を2にし忘れるやつだな。

67 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:17:40.59 ID:4E2s8WMB.net
こっちもエロスレも、わけもわからずとにかくNovelAIを使いたい初心者のサポート部屋になっとるな

68 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:18:47.10 ID:eaFbeTfF.net
いや、エロにきたらこっちに投げるわw

69 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:22:25.60 ID:4E2s8WMB.net
ぜひそうしてください
向こうもついつい答えちゃってるからね

70 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:24:27.90 ID:gscUMfzz.net
NAIは確かに比較的簡単に整った形は出るけど、そこそこ見栄えのするように持ってくの結構しんどいわ。
効くタグと効かないタグの落差が激しすぎる。

71 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:26:00.06 ID:SIqdTjiI.net
>>48
これみてみぃ多分役立つよ
https://www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_in_under_8_gb_vram_and/

72 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:33:00.08 ID:jDYsbSI7.net
>>53
NMKDはモデル選択に対応しているから、waifuもtrinartも使えるぞ。
ネガティブプロンプトやTIにも対応してるし。img2imgもできればインペイントもある

あと、どうやらpromptを勉強した方が良いから、とりあえず

https://lexica.art/ とか眺めて、真似しまくるんだ

73 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:55:36.23 ID:SIqdTjiI.net
webuiのプルリクエストを見るとDreamboothについて話してるところがあった
もしかしたら追加あるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/2002

74 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:57:12.95 ID:1bDnmn14.net
StableDiffusionと同じ手法でドット絵だけ学習させたらどの程度の品質になるんだろうか
ごまかしが効かないぶんイラストと同じように上手くいかないかな
そもそも学習データが少ないか...

75 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:08:38.31 ID:hyUB8XNU.net
automatic1111で生成した画像が30%ぐらいの確率で真っ黒なんだけどどうしてだ?
NSFWが働いてる訳では無いと思うんだが

76 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:19:09.57 ID:rCxGwPTq.net
>>71
ありがと 読んでみるよ

77 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:20:33.21 ID:yYW88ItN.net
>>62
自己レスだけどなんかおかしいと思ったら、
1111って普通settingっていう項目があるのな

俺の何でねえんだ…
https://i.imgur.com/v3ZiFUL.png

78 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:23:18.62 ID:fzcab7+d.net
>>77
と言うかそれ1111じゃ無くない?画面違うぞ

79 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:31:57.44 ID:4DnQXICh.net
>>77
おそろしく古いの使ってないか?
とりあえず最新版入れるとこからやり直せ

80 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:34:45.00 ID:rCxGwPTq.net
今のAUTOMTIC1111はこれだぞ
https://i.imgur.com/GvC6raO.png

81 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:43:33.79 ID:QfVBCRDE.net
AUTOMATIC1111版をフォークしたやつじゃねえかなそれ?

82 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:46:12.65 ID:mjmpqPoH.net
>>77
stable-diffusion-weuiフォルダで↓の呪文を実行だ。gitから入れてるよね?
git pull origin master

83 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:56:08.51 ID:y6ZyfTo4.net
>>80
モデル切り替えタブいつついた?

84 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:01:09.51 ID:eheI2hbr.net
>>83
月曜未明のコミットにあるな

85 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:07:15.33 ID:f1GMUS3e.net
同じseedで同じプロンプトの「ikemen boy」と「kawaii girl」を入れ替えただけの画像を並べて生成するの結構楽しいな
色合いの配置とかはほぼ同じで、解釈が少しずつ変わってくるのがわかる
https://i.imgur.com/g7sFVVV.jpg
https://i.imgur.com/jUrzj20.jpg
https://i.imgur.com/QFVjZaD.jpg
https://i.imgur.com/66sZ2SF.jpg
https://i.imgur.com/bucRrCo.jpg

86 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:17:51.02 ID:WqXOCa52.net
>>83
モデル切り替えると自動で読みに行ってくれるから
楽になったね

87 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:20:52.02 ID:GcJsTdiu.net
>>85
面白いな、兄弟姉妹作りたい放題じゃん!ほんと無限に遊べるな……

88 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
昨日colabの1111で画像生産出来るようになったと思ったら
今日また一回生産した後固まるようになってしまった…日替わりバグ多すぎんよ

89 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>77
hlkyにしか見えない

90 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:05:48.50 ID:Dj93+uNN.net
NAIでのプロンプト強調の{}ってautomatic1111のほうではどうやればいいですか?
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて

91 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:11:08.80 ID:R5mTwYJe.net
>>90
()でくくる

92 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:12:57.73 ID:++hbjAhe.net
>>89
確かにhlkyだね
初期の頃しか使わなかったから完全に忘れてた

93 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:14:40.57 ID:tY8OtFws.net
強くしたいときは()弱くしたいときは[]
テキスト選択して↑↓キーで強弱変更が便利だからそれ使ったらいい

94 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:22:04.86 ID:++hbjAhe.net
>>75
グラボが結構ローエンドか
生成サイズが大きすぎるか

95 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:00:48.38 ID:GghQiVQz.net
みんなAnimeイラスト系やってるかな?
写実系古い映画みたいなの出せるckptモデルってどれ使えば良いんだろ

96 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:36:40.91 ID:/XqKydHl.net
SD1.4ってとこだろうなぁ。4chから比較借りてきた。
https://i.imgur.com/zucQVB6.jpg

97 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:50:32.48 ID:NtZIb7O5.net
なんかxformersオプションつけて起動すると画像生成時にエラー出るようになったけどおま環かな

98 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:56:23.49 ID:4tFLkTuy.net
1111でおかしくなるのはだいたい
ui-config.jsonとconfig.jsonが古いまま
上書きされないからね

99 :名無しさん@お腹いっぱい。:2022/10/11(火) 03:02:42.24 ID:B22SZBMX.net
1111は画像生成始める前にファイルチェックしに行った方が良い。毎日のように数時間前に更新されたって表示されてて新しくなってるから

100 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ShivamShriraoのdreamboothってhugginghubにないモデルは学習できない?
ckptをdiffuser形式に変更したフォルダをpathにしてもhugginghubを見に行ってエラーが起っちゃう

101 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
もうそろwebuiにDreamboothが追加されそうだね、早く使ってみたいの

102 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:11:26.52 ID:JVAbuSU2.net
webuiになくても適当に調べてやればいいのに

103 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:15:20.54 ID:mdKTXLOI.net
VRAM足りない民は学習時だけColabo使え

104 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:30:46.91 ID:ZeUg+SCW.net
結局値上げしてもなおcolabが一番安いの?

105 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:31:25.56 ID:/K0g0820.net
おお、linuxでxformersのインストールがエラーになるなー、なんだろうなーと思ったら、ビルドツール入れてなかったわw

106 :名無しさん@お腹いっぱい。:2022/10/11(火) 05:39:04.51 ID:B22SZBMX.net
1111更新したら画風がめちゃくちゃ変わって昨日までのが再現できなくなった…

107 :名無しさん@お腹いっぱい。:2022/10/11(火) 05:39:29.34 ID:sR4uTrUi.net
ここで聞くことじゃないのかもしれないですが
git pullしてもwebuiが更新されません
git入れる時点でなにかミスしてるんでしょうか

https://i.imgur.com/djE8kMJ.png

108 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:18:28.20 ID:iXYo6Vy0.net
そこに出力されてる文を実行してもう一度pullしてできない?

109 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:19:45.99 ID:GUqR9G2b.net
NovelAI Improvements on Stable Diffusion
https://blog.novelai.net/novelai-improvements-on-stable-diffusion-e10d38db82ac
急にオープンにするやん

110 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:21:58.72 ID:+lEh5vRR.net
もう追うので精一杯でライフ0なんだが

111 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:26:10.33 ID:iXYo6Vy0.net
>>109


112 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:33:25.70 ID:V9LPCIjp.net
もう意味が分からないよ

113 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:36:06.75 ID:Zi63tt5A.net
NovelAIもそのうちオープンソースになる…ってコト!?

114 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:41:52.90 ID:m9QnEdXo.net
>>109
CLIPの最後の方のレイヤーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとした工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった

115 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:50:01.52 ID:GUqR9G2b.net
諸々あるが一番大きいのは「実装されてるハイパーネットワークはウチのkurumuzが頑張ったやつだよ」という主張だな
まぁええか

116 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:59:51.31 ID:sR4uTrUi.net
>>108
出来ました
初心者丸出しな質問すいませんでした

117 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:04:10.47 ID:CZ9nqGeN.net
52だか50gだかあるデータは使えるんか?

118 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:04:18.13 ID:P6z7GnyZ.net
>>109
ワロタw

119 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:11:25.23 ID:eheI2hbr.net
つまりハイパーネットワークは主にトレーニングの改善の為にあって
推論しかさせないユーザーにはあんまり関係ないって事なのかな?

120 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:12:41.26 ID:m9QnEdXo.net
WD1.4はNAIの手法を確実にパクってくるんだろうな

121 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:20:32.24 ID:qgCnfGsM.net
>>109
> During the early days of Stable Diffusion development before the launch,
> we were given access to the models for research purposes.

なんで発表前のStable Diffusionにアクセスできるの
NovelAIとStability AIってガチで繋がってるのか?

122 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:54:35.94 ID:m9QnEdXo.net
NAIはNvidiaとも協力関係にあるし何のことはない
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでしょ
その神輿としてSDが使われだけで

123 :名無しさん@お腹いっぱい。:2022/10/11(火) 08:02:49.84 ID:GUqR9G2b.net
>>121
少し前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけやね
MLではわりと一般的

124 :名無しさん@お腹いっぱい。:2022/10/11(火) 08:46:38.15 ID:TIoWKPgl.net
>>122
さすがにその話はこっちでやってくれ

【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/

125 :名無しさん@お腹いっぱい。:2022/10/11(火) 08:59:44.98 ID:nhKOmsix.net
お、和製クリーンデータ版の画像生成AIも結構形になってきてるな。
どうなるかは分からんが、選択肢が増えるのはいいことだ。

126 :名無しさん@お腹いっぱい。:2022/10/11(火) 09:07:40.45 ID:ZeUg+SCW.net
表面上は有難がるけど、結局バカ正直な初心者しか使わん奴

127 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>15
そいつのLeak Pt2は何に使うんだ
容量がPt1の4倍くらいあるけれど

128 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
開発向けやろ。リーク1でも実際に使うの一部だけで、あとはgit丸コピとかepいくらみたいな途中経過ファイルばっかだったし。

129 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
furryが入ってないやん…

130 :名無しさん@お腹いっぱい。:2022/10/11(火) 09:35:18.76 ID:R5mTwYJe.net
NovelAIの売りだった同一タグで同キャラ生成っていうのもVAEの恩恵なん?

131 :名無しさん@お腹いっぱい。:2022/10/11(火) 09:59:28.66 ID:Q5NSJg+e.net
>>94
グラボは3090だから生成サイズが大きすぎるのかな
ありがとう

132 :名無しさん@お腹いっぱい。:2022/10/11(火) 10:04:52.36 ID:IHfd6I9L.net
Euler aでもNAIエミュレート成功したのね

133 :名無しさん@お腹いっぱい。:2022/10/11(火) 10:38:55.42 ID:m9QnEdXo.net
AIが描けない難しいお題出すと無理に描かずにスパッと消してくるの人間みたいだな
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消して裸にしたり
ダンボールの該当タグが乏しい背景を指定するとただの壁を描いてきたり
手も後ろに隠しまくるしな、学習元画像では上手い絵師ほど手を強調してるのに

134 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:14:56.39 ID:pCQDwfS5.net
どっちのスレでも一人でひたすらブツブツやってるこのキチガイは誰が連れてきたんだよ

135 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:36:49.92 ID:UkKl3ah7.net
>>74
いらすとやの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意できれば可能だと思う

136 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:43:40.55 ID:A1RFlDJ+.net
MacBook のM1MAX(32gb)を持っているのですが、それで生成とか学習するって3060に比べてどれくらい違いがありますか?

137 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:45:54.48 ID:JmTqeuuH.net
案ずるより産むが易し

138 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:51:45.92 ID:29Udd4W/.net
これ見る限り6~7倍くらい遅い?
その後最適化されても少し早くなってるかもしれんけど
https://twitter.com/atyenori/status/1571440021219192832
(deleted an unsolicited ad)

139 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>74
素人がcolabでTIさせただけでもこのレベルだから
多分余裕で商用レベルに行ける
https://i.imgur.com/RqrhRR7.png

140 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
Torrentが99.9%で止まったけどこのまま使っておけ?

141 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
まだ終わってないからマテ

142 :名無しさん@お腹いっぱい。:2022/10/11(火) 12:35:04.31 ID:c2af8446.net
>>139
これで商業に使えるかどうか判断するのは難しい...
古いソフトからドット絵をぶっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう

143 :名無しさん@お腹いっぱい。:2022/10/11(火) 12:38:09.87 ID:gWiio3Zh.net
>>141
待てなかった
novelaiぽい絵は出たのでヨシ!

144 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:14:12.43 ID:c2af8446.net
DeepDanbooruが使えるようになったね
webui-user.batのCOMMANDLINE_ARGSに --deepdanbooruを追加して起動するだけ

145 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:16:56.02 ID:WqXOCa52.net
>>144
今朝更新した時は ボタン増えてなかったなぁ

146 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:18:06.01 ID:eiVrWGXv.net
ギフハブのEmuのページ更新されてcuratedが部分的にローカル再現成功ってなってるな

147 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:20:35.51 ID:nhKOmsix.net
>>145
コマンドスイッチ追加してからじゃ無いと出てこないよ

148 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:20:39.91 ID:tOWGF529.net
日進月歩っぷりが違う世界を早送りで見てる感じになってる

149 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:21:01.31 ID:GcJsTdiu.net
昨日の夜更新したらちゃんとInterrogate DeepBooruボタン増えてたよ
ただDeepBooruモデルがVRAMを少し占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらしい
Settingsのアンロードの設定が効いてないのか、それとも報告した人がその設定外してたのか、まあバグでも近いうちに修正されると思うけど

150 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:24:49.44 ID:nhKOmsix.net
1.3のタグの書き方が今までと全然違うのでダンボール語録はかなり助かる。プロンプト画面見ると重みまでわかるので、切り捨てにも便利

151 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:26:21.85 ID:c2af8446.net
Deepdanbooru↔img2imgで似たような絵を量産できるんだな
これは捗る

152 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:32:30.62 ID:eiVrWGXv.net
そのうちAIで生み出したオリジナルキャラの絵量産してそのキャラでトレーニングして簡単に再現可能とかならんかなぁ

153 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:34:58.42 ID:nhKOmsix.net
NAIは同じようなキャラを出すのが得意なので、それで何枚か出してdreamboothでトレーニングさせてWaifuで出すとかすれば結構良い感じに出来そうな気もする。

154 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:54:44.77 ID:JMiJJVxH.net
マイニング対策のLHRって画像生成には影響ないんだよな?

155 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:55:41.85 ID:WqXOCa52.net
>>147
あぁ
START_webui.batの方に追加したらいけたわ

156 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:04:13.70 ID:2pAHsrFx.net
>>154
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ブラックボックスなので断言はできないが……

157 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:06:49.73 ID:++hbjAhe.net
>>155
あー、スタンドアローンのやつかw
ひっかかるやつ多そう

158 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:09:15.23 ID:rM2ZLnI2.net
>>155
貴重な情報ありがとう

159 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:22:15.03 ID:nhKOmsix.net
NAIはhypernetを活用したV2を作ってるのか。
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みしてる間にオタ版のSDフォークがすごいバトルになってきたな。
とりあえず、Haru頑張れ。

160 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:27:22.78 ID:B22SZBMX.net
AI周りの動きって全部金儲けのためにやってる事やで

161 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:29:48.84 ID:mWgLOeQI.net
昨日から触り始めた初心者です(AUTOMATIC1111版UIでローカル動作)
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとしたらどこのスペックに注目するといいでしょうか
例えばCUDAコア数が同じ3050に入れ替えたとして、tensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな

162 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:36:06.13 ID:CZ9nqGeN.net
ここはNMKD民は少ないのだろうか
楽だなぁ思って導入してみたが

163 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:39:33.95 ID:iXYo6Vy0.net
たまげたなぁ〜 ノベカスくんよぉ

164 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:47:35.75 ID:c3YuwZCn.net
SDやデフォルメにmasterpiece入れないほうが良いな

165 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:47:51.11 ID:++hbjAhe.net
>>161
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のところは
劇的な差を感じたいなら3090かねぇ

166 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:50:49.20 ID:F5ILH/Iq.net
>>162
いるよ
俺も楽だから導入したけどちょっと遊んで放置したままだ
真面目なやつは学習データの改良とかやってるんだろうけどな

167 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:52:23.57 ID:nhKOmsix.net
メモリも重要だけど、実行速度もやっぱ大切だからなあ。
1111のおかげで、トレーニングしないで学習させるだけなら言うほどメモリも必要なくなってきてはいるし。

ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな……

168 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:54:22.98 ID:RtwaYqst.net
>>161
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ

更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増やせて同時に何枚も生成出来るし、TIやDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関しては、VRAM12GB以上を見据えるとどうせRTXになるしそこまで気にしなくても

>>165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな

169 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:56:11.19 ID:tOWGF529.net
3060がおすすめされる世の中になるとか3ヶ月前には思いもしなかった

170 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:57:07.33 ID:nhKOmsix.net
3070Tiでむせび泣いてる。
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早いし。

171 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:02:44.60 ID:c2af8446.net
数年スパンだと画像生成のアルゴリズム自体が大きく変化するかもしれないからこれが正解ってのは言いづらいんじゃないかな

172 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:08:55.53 ID:LaP0GiJC.net
早いとこAMDもROCmを発展させてくれないもんかね
MacどころかWindowsですら使えないんだが

173 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:09:57.68 ID:2pAHsrFx.net
もしFP8が活きてくるのなら既存のグラボではRTX40xx系列に太刀打ち出来ないからな
急ぎで買い替えるのならRTX3060に留めておくのが間違いない

174 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:09:57.92 ID:WqXOCa52.net
3070tiからは
DDR6Xだから 生半可なクーラーじゃ死ぬぞ

175 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:14:41.68 ID:mWgLOeQI.net
>>165,168
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試しで触ってみて久々にグラボ更新しようかなと考えだしたので助かりました

176 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:18:29.84 ID:CZ9nqGeN.net
腹が立つ
ゴミPCなのかCUDAが対応していない…のか?
Intel HD Graphics 5000
これなんだが
CUDAぶち込もうとしてDOS窓で確認してみたが反応ないし

課金とかしたくねえ

177 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:24:56.34 ID:CZ9nqGeN.net
自己解決したサポートしてねえ
もう決めた
二度とラップトップ買わないことにするわ

178 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:25:52.59 ID:c3YuwZCn.net
そもそも理解してなくて草

179 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:27:04.28 ID:nhKOmsix.net
CUDAはnvidiaさんの専売特許だから……
radeonさん頑張れ。

180 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:30:42.03 ID:CZ9nqGeN.net
というより、CUDAのツールキットはインストールできることはできるんだよな
(インストールした体になっているが機能しているとは言っていない)

fuck!!!!!!!

181 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:31:51.49 ID:JmTqeuuH.net
NMKDでなにが不満なのだろうか
最近ネガティブプロンプトも実行できるようになったぞ

182 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:39:12.93 ID:SNYTfBwu.net
流石に絶許狙いだろ
情弱がわざわざこんなこと言わない

183 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:41:34.80 ID:HMl0Y+Qw.net
Intel HD Graphicsってw

184 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:53:08.64 ID:Zi63tt5A.net
久しぶりにcolab使ってみたら一瞬で規制されたわ
以前より厳しくなったか?

185 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:57:43.41 ID:CZ9nqGeN.net
エロしかやらん、やりたくない
colab:規制される
novelAI:課金したくない
novelAIの中国版?:怪しい
ローカル:CUDAインストールできない

終わる
オンラインでできるので遊ぶしかないのか

186 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:58:55.72 ID:AloA+G1f.net
勝手に期待して勘違いで失望されるIntel HD Graphicsがかわいそう

187 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:58:58.37 ID:gMGAc8Wj.net
WD1.3は直接的な性表現つよくなった?

188 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:05:16.84 ID:CZ9nqGeN.net
もうおこった象
落とせるもの落として準備しておく
呪文の素振りしまくることにきめた

189 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:15:49.44 ID:x2SYJ+vG.net
>>185
colabでノートブックにbase64として埋め込まれる画像は検閲されないと思う

190 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:16:51.90 ID:nhKOmsix.net
ANDが全然上手く動いてる気がしない……なんか追加のオプションとかあるんかいな

191 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:16:59.45 ID:CZ9nqGeN.net
諦めきれん
ZLUDAてのを使って・・
だめか

192 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:17:16.83 ID:lWaEbqhF.net
というか、CPUで動くの使えばいいのでは……?

193 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:17:51.77 ID:CZ9nqGeN.net
>>189
そもそもgoogleアカウント持っていない
電話認証突破できんしな

194 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:19:17.93 ID:P6z7GnyZ.net
金もねえgoogleアカウントもねえ
なんだねチミは

195 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:20:33.57 ID:RqAFkfWi.net
さっさとGeForceのPCかえよ

196 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:22:17.23 ID:SNYTfBwu.net
明らかにネタなんだから無視しろよ
邪魔

197 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:23:50.39 ID:JmTqeuuH.net
NovelAIって無課金でもある程度動かせるのでは?

198 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:26:39.83 ID:nhKOmsix.net
無理。課金しないと、一才画像は使えない。

199 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:29:19.26 ID:c2af8446.net
ワッチョイいるんじゃないですか?

200 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:34:04.53 ID:CZ9nqGeN.net
>>194
生活保護と発達障害だが
今月の障害年金でPC買えそうではある

201 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:34:52.89 ID:gMGAc8Wj.net
850ぐらいなったらまたワッチョイ話題出て
それぐらい辺りで次スレ立て前に決めればいいんじゃない?

202 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:35:27.97 ID:CZ9nqGeN.net
中華のがあるはずだが利用しているツイートがあまりない、ほぼない

203 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:39:45.48 ID:ZeUg+SCW.net
そういえば中華制waifuも一瞬流行ったな
ckpt配らないから一瞬で消えたけど

204 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:40:03.16 ID:xVFCPwqB.net
>>197
文章なら書ける

205 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:46:10.89 ID:CZ9nqGeN.net
困ったなあ
intelGPUが何悪いことしたってんだ
CUDA入れるだけいれて、
しかもアンインストールするときは個別にコントロールパネルから消していくとかどんだけやねんなぁ

無料でエロを。
無料でエロをしたい

206 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:47:38.56 ID:ANbGNzr9.net
CUDAコアはNVIDIAのGPUにしか積まれてないから物理的に無理
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え

207 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:52:48.04 ID:SNYTfBwu.net
なんで無視できないの?
まぁ俺も荒らしを無視できない奴を無視できてないんだけど

208 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:54:11.93 ID:CZ9nqGeN.net
>>206
年金まであと3日
我慢できないンゴねえ

>>207
どうした?
というかお前がまず無視できていないだろう
ぐう無能

209 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:54:44.97 ID:Xc5wtwxO.net
このアプリ使う上で3060tiってコスパ何点ですか

210 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:57:47.97 ID:ANbGNzr9.net
>>208
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え

211 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:00:12.91 ID:nhKOmsix.net
4080が出るから、それの乗ったPCを買うんだ。4090でも良いが、これ載ったのBTOで出るかな?

212 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:00:23.36 ID:CZ9nqGeN.net
せや、ワイ生活保護ナマポやから非課税世帯給付金5万また来るんや
というかモニターは既にあるからええわ
むしろマウスやキーボードもいらん
pcやけどbtoでいくかパーツ集めて組むかやなぁ

213 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:05:06.74 ID:ANbGNzr9.net
>>212
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成したいのでNVIDIAのグラボ積んでるやつください」っつって予算ギリギリのやつを選んでもらえ

214 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:10:53.47 ID:Y/+qAYDf.net
>>209
40点

4080もコスパ悪いだろ
4090なら一気にできること増える

215 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:17:19.65 ID:VktYYArG.net
>>209
30x0の中でワットパフォーマンスは一番良いし、発熱もデュアルファンモデル選ぶだけでクリアできる程度だから、長時間ブン回す用途なら最適まである。

216 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:18:50.14 ID:eheI2hbr.net
出来る事増えてもやらんかったら意味無いし何をもってコスパするかだな
AIで画像適当に吐くだけなら60で十分だと思うが

217 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:25:56.91 ID:mq6SWHcu.net
>>211
4080買うくらいなら3090買うか、もう少し金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだいぶ違う
ゲーム用途ならいいんだろうけど、画像AIにはだいぶコスパ悪い

218 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:35:41.67 ID:bQ/h7hWY.net
10日くらい前にwaifu使ってdreamboothしたらめちゃくちゃ出来よかったんだけど、ここ何日か1.3でやっても全然良い結果にならない

ワンチャン、モデルの違いかなと思って検証したいんだけど1.2ってどっかに落ちてるかな?

219 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:39:17.17 ID:gMGAc8Wj.net
huggingfaceにおいてあるぞい

220 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:39:40.17 ID:bn6ltzAi.net
1111更新したらwd-v1-2-full-emaが読めなくなってるけど何でだ…

221 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:42:48.97 ID:bQ/h7hWY.net
>>219
あれ?hakureiのはもう1.3に更新されてるよね?
それともjcplusってやつか

222 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:47:03.43 ID:ZeUg+SCW.net
4090買えば色々出来るようになるけど、
3Dモデリングもゲームもやらないからエロ画像以外の用途がない

そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイトや出版社が速攻食いつくと思ったのに

223 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:48:32.79 ID:gMGAc8Wj.net
https://huggingface.co/hakurei/waifu-diffusion
これを
https://note.com/npaka/n/ne3f3316b8dad
で変換するか
https://huggingface.co/crumb/pruned-waifu-diffusion
これ(これは変換方法の問題でちょっとオリジナルと違うらしい)

224 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:49:07.98 ID:ZeUg+SCW.net
>>211
今のところはVRAMが最優先事項だから3090にしろ
電気代は知らん

225 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:50:41.61 ID:iXYo6Vy0.net
>>218
DreamBoothって学習に使ったmodelじゃないと動かないんじゃなかたっけ?

226 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:51:56.37 ID:gMGAc8Wj.net
DBは元モデル内包のckptファイルになる
TIは学習方法である程度汎用性ある(ない場合もある)

227 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:55:46.53 ID:BBUpK2cF.net
グラボに関する個人的な見解はこんな感じ
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090

228 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:56:44.78 ID:eheI2hbr.net
VRAM大量に使うのって学習する時だけじゃないの?やらん人には要らんでしょ

229 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:57:50.76 ID:UFVvvgHt.net
fine tuningぐらいならcolabかその辺でよかろう

230 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:58:13.26 ID:bQ/h7hWY.net
>>223
これって1.3のモデルじゃないのん
ファイルにもWD1.3て書いてるし

231 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:00:06.61 ID:AloA+G1f.net
エロ絵が作りたいだけの男に4080だ4090だと薦める鬼畜スレ

232 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:03:36.60 ID:gMGAc8Wj.net
>>230
1番上はコミット履歴に1.2も含まれてる(古いヤツを頑張って落として)
3つめは1.2のcpkt変換して余分なやつ削ったやつ

233 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:04:15.27 ID:cYZxoNFI.net
3060のコスパが素晴らし過ぎるから当面は十分だわ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れして投げ売りに近い状態になったタイミングの3090だけは狙い目

234 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:06:02.42 ID:bQ/h7hWY.net
>>232
親切にありがとう
探してみるわ

235 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:07:05.18 ID:OaRMwoWU.net
>>222
AIに学習させるプロンプターを募集してる企業ならあるけどな

236 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:09:21.80 ID:VWEX5mCS.net
あれ、stable-diffusion-webuiを更新したら、昨日まで動作してた
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻したらまた動くようになったけど

237 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:10:49.71 ID:4tFLkTuy.net
>>236
>>98とか?

238 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:21:20.70 ID:mUV+ns7j.net
前スレにあった翻訳ボタンをTampermonkeyスクリプト化してみました
https://github.com/hetima/SD-JE-translate

239 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:22:18.14 ID:CZ9nqGeN.net
ワイ3Dモデリングするしそろそろ買い替えかなと思っていたからAIのお蔭で買う気になった
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ

240 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:27:35.39 ID:WJDFfila.net
novelai公式でオープンソースばら撒きらしいな
エグいことやるでほんま

241 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:30:13.29 ID:mHSrToGr.net
正味AI自体を商売にするのもう無理そう

242 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:30:16.03 ID:++hbjAhe.net
>>228
VRAMは結果的に生成の速度に大きく関係してる

243 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:33:25.62 ID:BBUpK2cF.net
>>239
3Dモデルやるなら、BlenderのテクスチャをAIで生成できるプラグインとかあるから調べてみるといいぞ

244 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:36:04.46 ID:HMl0Y+Qw.net
25ドル涙目

245 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:39:29.50 ID:w27UG8fH.net
>>237
うちはクリーンインスコしないとそれではダメだった

246 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:47:21.76 ID:xfwneuFr.net
>>240
マジでどこで言ってる?

247 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:48:39.72 ID:mHSrToGr.net
>>246
https://six-loganberry-ba7.notion.site/22-10-10-Emad-aae60a74858a4f52ab453aab7f4e3a1e

248 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:51:07.38 ID:Y/+qAYDf.net
誰がそんな話信じるんだよ
25ドル払った奴らにどう説明すんねん

249 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:52:41.16 ID:mHSrToGr.net
オープンソース公開(半年後)みたいなのはありそう

250 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:53:06.45 ID:WJDFfila.net
emadの発言でテキストから動画も年内に発表できるって凄いよな
オープンソース化は来年かもしれないけど本気でクリエイティブ職はAIと向き合わないとヤバイ

251 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:53:07.87 ID:6YYv3EfZ.net
VER2はクローズドってことだろう。VER1は宣伝を兼ねてオープンソースで。
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね?

252 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:53:57.02 ID:6YYv3EfZ.net
そろそろ、AIがフォトショとかイラレとかみたいなものっていうマインドチェンジしてかないとキツそうだな。

253 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:54:16.04 ID:xfwneuFr.net
一旦流出するともうどうしようもないから、ばら撒くことにしたのかな

>>247
ありがとう。あいつらライセンス違反やってたのか。

254 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:55:41.07 ID:HsAWRd20.net
25ドルで先進技術を先行体験できたと思ってくださいwくらいの説明でいいだろ
契約文書に存在しない客のお気持ちに忖度する日本とは違うんだ

255 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:56:14.64 ID:29Udd4W/.net
これバージョン上がったら同じせっかくガチャ回して見つけた神seedも無意味になるんだよな?

256 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:57:17.34 ID:WJDFfila.net
ローカルで動かすのは想像より面倒だしそれなりのスペックいるしブラウザから手軽に出来る体験に金払う価値はあると思うぞ

257 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:59:11.54 ID:6YYv3EfZ.net
>>255
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckptまで、ちょっとしたことでガラッと変わる。

258 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:08:34.55 ID:+IYEg037.net
実質レンタルサーバーも込みなわけだし25ドル程度でグチグチ言ってる奴しょーもなすぎる
流出してくれたおかげで俺たちはめっちゃ得してるんだし

259 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:09:50.36 ID:Cn6wuu2U.net
deep段ボールって
Interrogate CLIPってボタン?

260 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:12:36.88 ID:29Udd4W/.net
いやまあそこら辺はNAIでもユーザーが調整出来る範囲だけど裏でモデルのバージョン自体更新されたらどうしようもないよなぁと
そこら辺全部管理したいなら今後はローカル版で回したほうが良さそうだな

261 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:14:33.69 ID:VWEX5mCS.net
>>245
うちもui-config.jsonとconfig.jsonを消しただけじゃいかんかった
最新Ver使えないのもあれだし、クリーンインスコまたするかなぁ

262 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:22:16.80 ID:c2af8446.net
https://discord.com/channels/1015751613840883732/1019290161420435568/1029241599223402566
こんにちは、ついに皆さんにご紹介します。
皆さんご存知ないかもしれませんが、私はgoogleのimagen(https://imagen.research.google/video/)に似たアーキテクチャでビデオ生成の学習を行おうとしています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、しばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るしかない。構築方法は以下の通りです。
アニメのエピソード -> アニメのLFD顔検出器 -> 検出された顔を切り出したビデオ -> 64x64ピクセルで合計20フレームにリサイズ
そして、お察しの通り、データセットのデータの中には、動かず、何もしない静止画の顔が大量にあります。これらをすべて削除したいのです。
そこで、皆さんにお願いがあります。
データセットのキュレーションを手伝ってくれませんか?どれくらいの時間を費やせますか?データが良いか悪いか、2つのキーを押すだけで良いのです。
リレーチャットで回答

なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成できる数少ないものの1つです。
なぜもっと解像度を高くしないのか?
ハードウェアの限界
もしこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもしれません。私が聞いたところでは、Stabilityはtext2videoモデルの計画を持っているので、それが出てきたときにそれを微調整するためのデータセットが用意されているとよいでしょう。


アニメ版imagenを手伝う人募集してる
質はわからんがアニメ版の動画生成も近いな

263 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:26:02.30 ID:t2JQ2Rdx.net
>>236
うちではvenv消して作り直させたら動いた。
細かいバージョンが狂ってるのかも。

264 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:28:38.54 ID:Y/+qAYDf.net
しれっと追加されてたsamplerのパラメタ設定でもかなり結果が変わる
AI絵なんて一期一会の気持ちでやらないと気が狂いそう

265 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:40:47.42 ID:m9QnEdXo.net
何で神seedだと多少違うプロンプトでもいい絵になるのか不思議だ

266 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:23:33.24 ID:gMGAc8Wj.net
deepダンボールはメモリどれぐらいいるんだろ

267 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:25:52.28 ID:6YYv3EfZ.net
なんていうか、seedって実はある程度情報の詰まったpromptのハッシュのようなものではないかって気がしてる
たまにwater paintから別の塗りに変えて回し直した時に同じseedのままだと何故かwater paintっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はpromptのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想してる

268 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:27:56.45 ID:OKWzXzG8.net
画像生成数を4枚にしようとしたらこんな表示が出てきて困った。
「アプリケーション エラー: クライアント側の例外が発生しました (詳細については、ブラウザー コンソールを参照してください) 。」

あとサブスクを更新しようとしたら
「エラー メッセージ:NotFoundError: Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.」
って出てくる。
chromeのGPU支援をオフにしたりして一度収まったかと思ったけど再発してる。
だれか解決方法わかる?

269 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:38:31.83 ID:eheI2hbr.net
>>267
またオカルトか。ソースりゃわかるでしょ。
torch.randn()で生成するただの乱数だよ。プロンプト関係ない

270 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:43:22.14 ID:m9QnEdXo.net
偶然情報を持っているかのような癖のあるシードは俺も遭遇した
奇跡の一枚が出たときにプロンプト少し変えて出力すると何故か元のプロンプトの影響が少しだけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致したときに奇跡の一枚が出やすいのでは?と踏んでる

271 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:50:09.83 ID:x2SYJ+vG.net
GIMPでそのシードのノイズ作ってみてください
そしたら何かが見えてくるはずです

272 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:01:09.93 ID:oKx/eDyV.net
前から妄想でAIの仕組みを勝手に解説してくる句点使い君が住み着いてるからな
何の証明もせずにただ妄想をたれ流すだけ
キャッシュされてて前の生成結果を引き継ぐとか言ってたのもこいつ

273 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:10:32.94 ID:nKKPAe0W.net
ステップ数って闇雲に最大で良いのかな。そのほうがいい絵ができると思って最大にしてるんだけど、

274 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:11:13.87 ID:nKKPAe0W.net
>>273
ステップ数多いとデメリットあったりする?

275 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:18:03.07 ID:1p0zySTV.net
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017

ローカルでカッコで強調する時にカッコの前にバックスラッシュを置くと良いらしい

276 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:19:56.95 ID:mHSrToGr.net
>>274
時間がかかる

277 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:20:28.18 ID:Y4JtovpP.net
画像に何らかフィルタリングしたものをノイズとして使えば新しい方式のimg2imgができるのでは?と夢想したことはある

278 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:21:50.31 ID:GJPpDEKo.net
>>274
デメリットは時間と電気代ぐらいか。メリットもたいして無い。
50~60できれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う

279 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:26:11.69 ID:6YYv3EfZ.net
サンプラーでも結構違う気がする。DDIMだと20〜30で結構綺麗に出る。50以上は出力の解釈が変わらない範囲ではもう誤差な気がする。

280 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:32:28.92 ID:+OwR5sq1.net
NAIって新規登録再開してる?

281 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:46:52.14 ID:j3ZHYBkl.net
>>277
以前そう思って試したんだけどただフィルタ処理されたものを返しただけだった

282 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:47:08.22 ID:NtZIb7O5.net
xformersオプションつけるとエラー出るやつ
pipでxformersアンインストールしてから再起動したら再インストールされて直ったわ

283 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:49:32.41 ID:nKKPAe0W.net
>>276
>>278

>>279
ありがと。あげすぎてもあんま意味ないのね。 50~60あたりでいい感じのところを調節して探してみる

284 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:54:06.88 ID:j3ZHYBkl.net
img2imgで低strengthだとノイズ載ってしまうけどstep上げると少しだけ下げられる気がする
そういうときに普段より上げるのは効果あるかもしれんよ

285 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:07:01.75 ID:SNYTfBwu.net
>>275
NAIモデルは()認識してない気がするけど

286 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:25:55.37 ID:oKx/eDyV.net
>>285
NovelAIのUIだと強調は{}で()はそのままテキストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)としてエスケープしてやって()をテキストエンコーダーに渡してやらないと再現できないという話

287 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:39:38.20 ID:SNYTfBwu.net
いやWD1.3の仕様みたく認識されない気がするって話なんだけどなぁ

288 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:40:18.59 ID:euFxIGy0.net
1111のweb uiを導入したところなんだけど
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成した場合に一枚毎に違うフォルダに指定して「save」とかは出来ない感じ?

289 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:44:04.26 ID:SNYTfBwu.net
よく言われてるけどGradioが重すぎて辛いわ
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれやったらもう

290 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:46:31.55 ID:GcJsTdiu.net
まとめて出すとめちゃくちゃ重いよな
数十枚出したら最後に1枚だけ出し直して軽くしてるわ。不便

291 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:24:29.49 ID:tnkHPKBn.net
>>288
↓ここ
Output directory for images from extras tab

292 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:30:54.08 ID:dOKrPM1J.net
>>291
なるほど、エクストラへ一枚ずつ送ればいいのか
ありがとう

293 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:33:12.32 ID:oslN2U1X.net
正直な話、絵はもういいからさっさと動画生成に行って欲しい
まあ現実みたいな写真出せるなら欲しいけど画像生成は正反対の方向に行ってしまってるしな

294 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:35:52.15 ID:0zPfU5+P.net
フォトリアルはSD1.5が頑張るっしょ
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてるし
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど

295 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:43:28.84 ID:mVA/sRdU.net
音楽AIはどうしたんだ
割と楽しみにしてるんだが

296 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:47:12.58 ID:AIArC2qd.net
SD1.5も楽しみだし音楽AIも動画AIも待ってるし、世の中楽しみだらけやで

297 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:53:40.81 ID:1En7iy57.net
音楽AIはベースモデルは権利煩いだろうし詰め込まなくていいから個々人で簡単にファインチューンできるようにして欲しいな
日本の歌もの特化とかやれたら面白い

298 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:58:00.66 ID:ddxhJKC8.net
音楽の話はスレチだから俺はしないけど
どこで話せばいい?

299 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:00:36.52 ID:mVA/sRdU.net
確かにスレチだったかすまん
やるならAI総合だろうけどまともに話にならなそう

300 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:09:10.24 ID:YjzIQUOi.net
1111版のNAIでnsfw入れても乳首や局部が表示されないんだけど
どこで設定するんや

もしかして1111版だとnswf表現できない?

301 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:09:36.88 ID:2ladUrgg.net
AUTOMATICの9日に拾った版までは良かったのに10日に拾った版以降で出力が変わっちまった
なんだったら出力させる度に全く同じ条件で出力がブレることもある
xformersは使ってないしどういうこっちゃ

302 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:11:26.82 ID:oslN2U1X.net
>>294
SD1.4は実写強いと言ってもしょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲しいものなんだが1.5でそんな改善するかな、、

303 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:11:29.17 ID:0zPfU5+P.net
エロスレ民に聞くのが早いと思うけど、とりあえずNSFWってpromptに突っ込んでみたら? これで垂れてるとこまで解禁される。

304 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:13:11.98 ID:kozSGHal.net
特定のステップまで無効にするやつ効いてない?ローカルNAI

305 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:15:23.50 ID:0zPfU5+P.net
>>302
さすがにそれは難しいんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんやけど
ライカだのソニーだのシグマだのpromptに突っ込んで18mmでf4とかやっても全然効かんし
ひどい時はレンズの絵が出るし

306 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:16:05.43 ID:AIArC2qd.net
>>301
その辺でトークン75制限を超えたときの挙動が変わったはず。毎回変わるってのはちょっとわからんけど

307 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:21:01.04 ID:YjzIQUOi.net
>>303
入れてるんやがまんこ出んなー
だしたいなーまんこ

>>304
なにそれ詳しく

308 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:29:00.71 ID:2ladUrgg.net
>>306
そこ疑って無効化しようとしてるんだけどオプションも何も無さそうなんだよね
出力のブレってのはシード固定した状態で1枚出した後にそのままもう一度出力ボタン押すと崩れたりとかはしないんだけど小物のディテールとかが変わったりして
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとしてK samplerの設定いじったからかもしれない

まあ9日の版で出せばいいんだけど

309 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:55:37.33 ID:oslN2U1X.net
TilTokでJKたちが踊ってるレベルの動画が作れたらSNSの世界一気に崩れそうな気がするな
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが

310 :名無しさん@お腹いっぱい。:2022/10/12(水) 02:08:48.50 ID:E8GzIrEy.net
トークン解除でおかしくなったという声やトークン150超えるとめちゃくちゃな絵になるとか情報あったなー
内部処理どう変わったんだろ

311 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
NMKDでWD1.3を回してるんだけどたまに指定した生成枚数を勝手に超えて出力されるんだがこれって俺だけか?
しかもそれで生成される絵に限ってpromptとは明らかに外れてる絵なんだが

312 :名無しさん@お腹いっぱい。:2022/10/12(水) 03:07:11.81 ID:7WgE6Aas.net
お前のAI意思を持ちはじめたんだな
うらやましい

313 :名無しさん@お腹いっぱい。:2022/10/12(水) 03:08:47.33 ID:KMpw9fSM.net
意思持ち始めたAIを野に放ってくれ
そいつに界隈蹂躙させよう

314 :名無しさん@お腹いっぱい。:2022/10/12(水) 03:12:37.64 ID:tnkHPKBn.net
--xformers も --deepdanbooru もうまく動かないや。
linuxにぶち込むの、なかなかしんどいなぁ

315 :名無しさん@お腹いっぱい。:2022/10/12(水) 04:29:31.84 ID:5fT70X24.net
>>311
知らず知らずにどこかで改行してるだけだと思う
確か改行してるとそれ以降は別の生成物の命令として扱うはず

316 :名無しさん@お腹いっぱい。:2022/10/12(水) 04:55:26.02 ID:DZy23lp4.net
>>286
めんどいな方言

317 :名無しさん@お腹いっぱい。:2022/10/12(水) 04:57:15.31 ID:h5Duf69K.net
>>4
更新されてた
https://rentry.org/sdg_FAQ

> If you are running an Pascal, Turing and Ampere (1000, 2000, 3000 series) card
> Add --xformers to COMMANDLINE_ARGS in webui-user.bat and that's all you have to do.

318 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
stable diffusionのwebuiでimg2imgすると全体がボケボケになったり顔が潰れてしまうんですけど、これの回避方法ないですか?
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボヤけてしまう

319 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>300
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される

320 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>318
CFG Scaleは12くらい、どのくらいバリエーションを出したいかは
Variation strengthの数値で決めるといいぞ。

321 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>318
AIは基本、小さい顔は苦手
別に大きく作って縮小したのフォトショとかで貼り付けましょうとか言ってる人がいるくらい

322 :名無しさん@お腹いっぱい。:2022/10/12(水) 07:31:21.34 ID:H5Zxeydq.net
webuiにhypernetworkのトレーニング機能来てるね

323 :名無しさん@お腹いっぱい。:2022/10/12(水) 07:57:19.14 ID:Fc+KOdTU.net
背景綺麗な絵がほしいから顔の破綻は多少は許す
でも足は2本にしてください…

324 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
顔の向きとかでXYZ軸の角度指定欲しいな

325 :名無しさん@お腹いっぱい。:2022/10/12(水) 08:41:48.87 ID:Jtt7R8ot.net
画像から顔の角度検出するAIは既にあるから学習データをそれに通して
右向きとか上向きとか大まかな角度情報をラベル付けして追加学習すれば多少は何とかなりそう?
やる人居るかは知らんが

326 :名無しさん@お腹いっぱい。:2022/10/12(水) 08:43:46.48 ID:nWe7TwLZ.net
(Y軸方向に無限に伸びた首画像)

327 :名無しさん@お腹いっぱい。:2022/10/12(水) 08:51:21.57 ID:DEdMJn6N.net
1111版はパラメータの数値を直接入力できるようになったんだね
マウスで動かしてカーソルキーで微調整する必要はなくなった

328 :名無しさん@お腹いっぱい。:2022/10/12(水) 09:46:53.14 ID:NDQ40tzG.net
>>309
3Dからとかは前からあるしねぇ
https://twitter.com/yokohara_h/status/1578636519144685569?s=61&t=iaYI_6Bjq6zFL0zE-KwsgQ
リンクメモってなかったけどTikTokから変換するテストは4chに動画で上がってたよ
背景動かない奴はそれなりに見れるレベルになってた
(deleted an unsolicited ad)

329 :名無しさん@お腹いっぱい。:2022/10/12(水) 10:25:08.01 ID:7X8wtcYd.net
日本語であればシャフ度という便利な言葉があるが

330 :名無しさん@お腹いっぱい。:2022/10/12(水) 10:29:56.59 ID:C55NbFwb.net
TwitterでAI関連の発言するの躊躇うようになってしまって苦しい
風当たり強すぎる

331 :名無しさん@お腹いっぱい。:2022/10/12(水) 10:51:09.46 ID:SYo62ZNQ.net
じきに皆慣れて反感も忘れ去られる

ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容してしまう何度も見てきた流れ

332 :名無しさん@お腹いっぱい。:2022/10/12(水) 11:17:23.41 ID:ybfOmJmX.net
16GBと24GBでやっぱ違うのか
今colabで16GB使っててそんなに不満ないけど、24GBにしたらもっと早くなったり出力枚数増やせるのかな、いいな

333 :名無しさん@お腹いっぱい。:2022/10/12(水) 11:31:12.60 ID:fbQ+aX/K.net
70Ti8GBの俺低みの見物
CPUとメインメモリは盛ってるから週末にでもDreamboothのそっち使う奴試してみようと思う

334 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:02:14.78 ID:LxxZooPL.net
保存情報にi2iで使用した元画像ファイル名を記入してもらえると助かる1111さん…
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成できない…

335 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:20:29.82 ID:aBAn8uGQ.net
VRAMで24GBで 動かせるらしい
https://github.com/gammagec/Dreambooth-SD-optimized

を試してるところだけど

一回目の
last.ckptを吐き出し終わったかどうか分からないよく分からない状態で
out of memoryでエラー終了する

336 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:32:40.01 ID:dOKrPM1J.net
web uiで複数の画像書いてる途中でCMDが途中で止まっちゃった場合は再起動するしかない?
interrupt押しても何も反応しない

337 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:33:51.71 ID:NY35Cg55.net
いよいよQuadro 48GBが必要になってきたのか

338 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:37:56.61 ID:yndPCBwT.net
4090tiの48GB待ちかね

339 :名無しさん@お腹いっぱい。:2022/10/12(水) 13:10:52.21 ID:oslN2U1X.net
fanzaのCG集、ついに1位から15位まで全部AIが独占w
終わりってレベルじゃねえしこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ

340 :名無しさん@お腹いっぱい。:2022/10/12(水) 13:11:10.48 ID:oslN2U1X.net
誤爆

341 :名無しさん@お腹いっぱい。:2022/10/12(水) 13:40:48.98 ID:pFAZCdQL.net
4090Ti、せめて36GBにはなって欲しいしできれば48GBにしてほしい
もし据え置きなら5090まで見送りかな

342 :名無しさん@お腹いっぱい。:2022/10/12(水) 14:01:23.33 ID:2H018u9e.net
数日前の75トークン制限解除辺りでそれ以前の生成と同シード同設定にしても同じ画像が生成出来なくなったらしいね
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる

343 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
3090-24GBをnvlinkで繋げればいいじゃん

344 :名無しさん@お腹いっぱい。:2022/10/12(水) 14:50:02.74 ID:/0Qg67th.net
pixivは14年で1億枚の絵なのにnovelaiは10日足らずで3000万枚はやべぇな
今年中にpixivの枚数超えるかもしれないのか

345 :名無しさん@お腹いっぱい。:2022/10/12(水) 14:52:11.47 ID:9og32tKs.net
AIでお題を与えて延々と絵を吐かせる→AIで良い絵だけを選別して学習させる→以下ループ

これでどれぐらい安定していくのかちょっと見てみたい

346 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:19:20.03 ID:ybfOmJmX.net
dreambooth、ここ数日ずっと悩んでたのになんかだんだんなんかよくわからんまま上手くいくようになってきた
良いことなのに良くないな…原因が分からねぇまま解決していく…

347 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:20:31.71 ID:pyeOGgSk.net
dreamboothの次はhypernetworkが来てる
速すぎて恐ろしい

348 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:25:36.07 ID:5fT70X24.net
手で描く時代の終焉だな
民主化万歳

349 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:29:14.18 ID:0+M7IquF.net
バージョンアップが追いつかないだろこれ
下手にver番号振ってるやつは永遠に修正作業に追われそう

350 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:43:53.72 ID:OiV7LtOS.net
>>345
それまさに強化学習の有名な手法のやつだな

351 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:44:45.99 ID:NY35Cg55.net
NovelAIの社員はともかく1111の人とかWDの人は本業大丈夫なんだろうかw

352 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:46:55.29 ID:AIArC2qd.net
>>350
加えて「これはダメ」のネガティブ学習もさせてみたいね

353 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:48:18.56 ID:wY80ZS1c.net
>>331
とはいえ原子力発電や太陽光発電や電気自動車や遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる

354 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:49:56.21 ID:OiV7LtOS.net
>>344
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ないし、
AI以降は一気に供給量増えるだろうな

Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライブ:
全245タイトル

355 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:52:16.18 ID:9og32tKs.net
>>353
原子力発電は歴史に残っちゃうような大規模災害が複数回起きてるから、まあ反対意見が消えないのは仕方ないとして
それ以外は、なんだかんだで気がつけば普通に定着してないかい?
太陽光発電も、太陽光発電が悪いというよりもアホなパネル設置騒動に問題があるわけで

356 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:52:31.44 ID:OiV7LtOS.net
>>353
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらしいから、実際に大事故とか起きたらしゃーない

AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業した奴らは恨み続けるだろうけど、まぁ恨みも風化するしな
俺だってなろう系死ぬほど嫌いだったけど五年もしたら慣れてまぁそういうもんかと思うようになったし

357 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:55:24.99 ID:9og32tKs.net
それにしても、トレーニング系の設定がやたらと増えてる1111だけどハイパーネットワークのトレーニングって具体的に何がどうなるんだ?
1111の説明見ても、なんかいまいち要領をえんし

358 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:13:39.58 ID:Jtt7R8ot.net
>>351
1111の人ってロシア人らしいし動員で開発中止とかはあるかもな

359 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:20:32.87 ID:Ooqyi5eK.net
>>357
できることはTIやDBと同じで、画風やモノ(キャラ)を覚えさせられる、らしい。
しかし少ない学習ステップでいける、らしい。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2284

360 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:24:47.83 ID:ZlAOHCh1.net
>>342
75トークンに収まるよう下から削ればええやん
トークン数は見えるんだから

あるいはmaster #2129まで巻き戻したものを別個入れればいい

361 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:25:17.91 ID:9og32tKs.net
>>359
トン
dreamboothの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーキーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってきちゃうのか。

362 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:00:03.71 ID:z2VVctkE.net
>>343
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々として3090二つ買ったんだけどな

363 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:02:40.59 ID:ifrLRek9.net
>>344
サーバーパンクしそうだな

364 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:08:43.63 ID:9fjO5n7K.net
novelaiは生成物一切保存しないって明言してるからサーバーは問題ないんじゃなかろうか
容量の問題というより児童ポルノとか犯罪系への対策だろうけども

365 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:22:54.19 ID:fbQ+aX/K.net
>>362
改造ドライバとか出てこないかな
昔はGeforceのQuadro化とかあったよね

366 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:28:00.23 ID:7WgE6Aas.net
実際のところ4090TiでVRAM盛ってくれる可能性どれくらいあるんだろう
4090の発表時は画像生成AI需要けっこう意識してる感じだったけど

367 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:18:49.86 ID:OSbDnTsm.net
そんなわけでですね、
CUDAがインストールできないGPUであり、
いまStable Diffusion UIを試しているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにしても、
どうなるものやらと。

368 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:30:59.03 ID:oslN2U1X.net
NAIの作画レベルに感覚焼かれてしまって漫画読むときに
絵の下手さばかりが目についてしょうがなくなった
まだまだ性能向上すると考えると恐ろしいわ

369 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:32:40.07 ID:OiV7LtOS.net
むしろAI絵をあまりにも見すぎて絵柄が違うとなんかホッとするわ
まぁ俺が続き物作るために同じパターンで生成しまくってたからというのもあるが

370 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:41:05.69 ID:0zPfU5+P.net
one先生の絵をNAIとかWDに食わせてみたいと思う俺ガイル

371 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:41:48.17 ID:DEdMJn6N.net
>>367
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにしたほうがよいのでは…?

372 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:47:26.12 ID:OSbDnTsm.net
>>371
せや
ワイの十八番 ミクキャットが
processed 1 images in 1853.433 seconds や

それにしてもwdもバージョンありすぎてようわからんな。

373 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:57:47.84 ID:6PKdw4UK.net
>>372
自分も無料Colabが力尽きた後はCPUでガン回ししてるけど、ある程度step数減らすのおすすめよ
お気に入りの画像見つけたら高Stepでじっくり生成し直せばいい
512*640でstep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い

374 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:08:45.59 ID:NO0PpfX3.net
何年も前のゴミグラボ(8GB)だけど1枚1分で生成できてるよ(Euler a step20 512×512)
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな

375 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:23:04.71 ID:AIArC2qd.net
ステップ数高めにしてる人多いけどアニメ絵ならEuler a 15〜20stepでもちゃんと出るからね
CPUの人は下げてみるのはありだと思う

376 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:33:27.11 ID:oslN2U1X.net
NAIはエロ方面は本当に強いな
コッソリ鑑賞用にしか生成してないけど絵描きが追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivやdlsiteに上がってるのはあくまで素人によるサンプルレベルだわ

377 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:45:27.32 ID:U11jpQVz.net
NAIの公式オープンソースはよしてくれー

378 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:53:33.69 ID:jO+SeLLh.net
俺のGTX1080ti(11GB)で>>15の条件のアスカを作ったら処理時間これぐらいだった

バッチサイズ1 - 11秒 (2.6it/s)
バッチサイズ8 - 55秒 (1.98s/it)

普段はGPUのパワーリミットを55%にして性能2割ダウンで動かしてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか?

379 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:54:17.64 ID:QlQMsFsc.net
NMKDで公式にNAIが扱えるようにならねーかなtorrentで流れてる流出版じゃなくて正式リリースしてほしい

380 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:56:56.32 ID:Fc+KOdTU.net
>>374
373だけど、使ってるノートパソコン調べてみたらThunderbolt3端子なかったわ
グラボ詳しくないからよくわかってないけど、これ多分ダメそうってことだよね?
大人しくCPUガン回ししとこ

381 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:05:35.67 ID:fbQ+aX/K.net
ノートのCPU長時間ブン回すのは破壊前提でもない限りお勧めしない

382 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:06:51.76 ID:FjjgbpjM.net
RTX2060+xformersですら512x512(20step)は3秒
これ以上のグラボの人は一枚生成に1~2秒?

383 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:35:25.98 ID:Fc+KOdTU.net
>>381
外付けファン回しながら1日2~3時間ブン回す感じでも自殺行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらしいし

384 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:55:10.68 ID:1vFMU4BV.net
IntelがRTX 3060 Ti相当の性能を持つグラボ「Arc A770」を10月12日から329ドルで発売へ
http://gigazine.net/news/20220928-intel-arc-a770/

ZLUDA使えるなら選択肢に入る?

385 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:58:53.15 ID:fQ316zUC.net
CUDA・・・

386 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:01:59.40 ID:aBAn8uGQ.net
VRAMが沢山乗ってるね

387 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:04:25.57 ID:0zPfU5+P.net
ラデと同じでcuda無いから…ってパターンな予感

388 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:08:49.39 ID:1vFMU4BV.net
いやだからCUDA使えるようになるZLUDAってのがあるからそれが本当に動くなら3060の値段で3060ti16GB相当になるかなあと

389 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:14:48.96 ID:AIArC2qd.net
はえー知らんかった。パフォーマンスも結構悪くない的な記事を見たけど
ZLUDAで動かす事ができたらHD Graphicsの人達にも福音になるかもしれないね

390 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:25:35.90 ID:aOAzC1Re.net
Trainのやり方やパラメーター解説してるところあったら教えて

391 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:31:15.83 ID:0zPfU5+P.net
Zludaって開発まだやってるのかな
なんかこのみた感じだと止まってるっぽいけど…

https://github.com/vosen/ZLUDA

392 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:44:07.81 ID:1En7iy57.net
titanRTXならnvlinkでVRAM48G行けるやん!と思ったけどそもそもtitanがまだ高すぎて結局rtx8000辺りと変わらんな

393 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:49:29.02 ID:zx+gyfL9.net
もういっそのこと金あるならA40あたりでいいのでは...

394 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
text to 3Dはまだそこまで精度出ないみたいだけど
text to poseとかできないのかしら
生成したポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならキャラの一貫性崩さずにアングル調整とか差分作りができるよなーという妄想

395 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
意外とポーズとか物をきっちりと持つってのが出来ないんだよな
そう言う行動で学習してないからなんだろうけど
この辺もカバーしたら本当嬉しいんだけど

396 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
プロンプトの後ろの方にbloodって入れてみたら、一切流血せずにうまくダークファンタジー感だけ増し増しになった
これはあれかな?ブラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな?

397 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
from aboveで見下ろしになるとダンボタグに書いてあったのでやってみたら、キャラが増えると見下ろしというよりもネトゲのクォータビューみたいな感じになって挙句の果てにはアクションバーみたいなのが画面上部にくっついてきて、ダンボールにはネトゲのキャプチャまであるんかいとちょっと感心してしまったw

398 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
Promtやモデル毎に縦横でマトリクスの比較画像出してる人をよく見るけど
あれ何かの機能でできるんだよね?

399 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>398
AUTOMATIC1111のprompt matrixとかX/Y protとかを使う。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features

400 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
テキストから3Dモーションを生成するMotion Diffusionてやつならあるよ

401 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>398
model変えてマトリックス作るのはできない……かな?

402 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
出来るだろ何言ってんだ

403 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
WSL2ってメモリサイズ制限が「メモリの50%または8GBのうち少ない方の値」で設定されてるけど、どうせ腐る程メモリあるし好きなだけ使っていいぞ~としたら、メモリ50GBほど喰われて草
加減を知らないのか貴様は

404 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>403
加減を知らないのはLinuxだな。メモリに空きがあればあるだけキャッシュに使うぞw

405 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>402
あ、ほんとだ。checkpoint nameとか入ってるわ。

406 :名無しさん@お腹いっぱい。:2022/10/13(木) 01:28:23.57 ID:KGvGoTe1.net
colab3日経っても規制が続く
厳しくなってるなあ

407 :名無しさん@お腹いっぱい。:2022/10/13(木) 01:29:24.04 ID:Nm5De/sw.net
>>399-402
ありがとう!試してみます

408 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
automatic 1111のアップデートってどうすればできますか?

409 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
git pull

410 :名無しさん@お腹いっぱい。:2022/10/13(木) 02:57:01.66 ID:pkInAopp.net
追加学習周りが盛んだけど、手法も手段も増えて全然わからなくなってきたからわかる神>>1のまとめ追記してほしい

textual inversionとdreamboothの違いすらよくわかってないのにhypernetworkまで出てきて更にわからない

411 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:06:57.67 ID:SgQcu03O.net
>>409
git bash hereで
git pull https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
打ち込んでもエラー吐くんだが俺だけかな

412 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:09:26.87 ID:zmcQhSoI.net
後ろのURLいらなくて単にgit pullよ

413 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:14:41.84 ID:bhkjUU2G.net
また間違えてブックマークバーのサイトクリックして移動されて設定や入力消えちゃった…
「遷移していいの?」ってワンクッション確認挟む仕様にしてほしい1111様…

414 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:54:44.00 ID:SgQcu03O.net
>>412
できたわありがとー

415 :名無しさん@お腹いっぱい。:2022/10/13(木) 04:24:12.71 ID:PnQCQTvw.net
>>413
ブラウザ拡張でやれ

416 :名無しさん@お腹いっぱい。:2022/10/13(木) 04:55:39.94 ID:B6jYdeNw.net
線画にNovel AIのクオリティで色塗りだけしてくれる機能ってあるだろうか?
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲しい

417 :名無しさん@お腹いっぱい。:2022/10/13(木) 05:15:53.93 ID:iUqZHk8n.net
AI活用で生産性アップも良いが俺が真に楽しみなのはAI同士の無限学習による進化だな
将棋やチェスで見られた風景だが芸術でもそれを見せてほしい
ゲッターの行き着く先が見たい早乙女や隼人みたいな発想だけど

418 :名無しさん@お腹いっぱい。:2022/10/13(木) 06:52:09.13 ID:x1mr0mmI.net
colabでautomatic1111のtrainからcreate embeddingに対象の名前と情報入力してもエラーが出てファイル自体作れないんだけどどっかで詳しいやり方とか書かれてないですかね…

419 :名無しさん@お腹いっぱい。:2022/10/13(木) 06:54:21.78 ID:La+Qxu0Q.net
つpython入門

420 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:01:07.53 ID:r0EYpDo2.net
AI絵で学習させても手がどんどん溶けるだけじゃないかな

421 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:08:01.55 ID:M4inZTpt.net
novel AIのi2iとWeb UIでモデル動かしてやるi2iのパラメータの対応関係ってどうなってますか?
前者はstrengthとnoiseがあるのに後者はdenoising strengthしかパラメータなんすよね

422 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:23:22.29 ID:zwM3s4wI.net
イラストは将棋と違って明確なルールや勝敗が決まってないから自己学習させたら行き着く先はシュメール人だろうな
https://i.imgur.com/PU9ye4s.jpg

423 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:27:25.88 ID:6gZRmsvv.net
人間にフィードバックさせればいい
すでに投下されてるAIイラストは人の手で厳選されたもの

424 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:28:39.67 ID:iUqZHk8n.net
俺はシュメールもマヤも縄文も好きだから良いよ
とにかく見た事ない物が見たい
早く模倣を抜け出して欲しい

425 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:34:24.68 ID:PnQCQTvw.net
Hypernetworkのtrain10GBくらいvramくってんな
それだけ効果期待していいのか?

426 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:47:45.82 ID:z0k0c3WV.net
>>391
最後のコミットでコメントにこう書かれてる

Due to private reasons I am currently unable to continue developing this project. If you
want to take it over, fork it and contact me

そして勿論引き継ぐ人なんか居ない

427 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:56:12.29 ID:z0k0c3WV.net
>>394
URL貼れねえけど
mdm-a-new-text-to-motion-generative-model
てのが発表されてる

428 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:57:24.30 ID:VVCDygvq.net
Intel自らがCUDAとの互換取れるように作り込めばいいんだけど

429 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:02:58.02 ID:z0k0c3WV.net
>>413
bookmarkletでonBeforeunloadを上書きしてalert出すやつ作ればいいだろ

430 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:05:03.65 ID:z0k0c3WV.net
>>428
なぜAMDがCUDAを採用しないか考えたこと無いの

431 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:09:34.15 ID:VVCDygvq.net
>>430
あー、特許とか絡んでるのか

432 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:55:48.09 ID:F/f1VpBz.net
使用率見てると生成速度はCUDAの性能が全てっぽい?

433 :名無しさん@お腹いっぱい。:2022/10/13(木) 09:34:35.65 ID:kY4znFzn.net
hlky 版から AUTOMATIC1111 版に乗り換えたのだけど、localhost 以外(他の PC)からつながる?
動かしている PC からはWeb GUI 表示できるんだけど、F/W 切った状態で他の PC やスマホから WebGUI にアクセスさせようとすると
connection refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かしている PC の上の他のサービスにはつながる。

434 :名無しさん@お腹いっぱい。:2022/10/13(木) 09:45:00.64 ID:FNeVUzvw.net
--listen

435 :名無しさん@お腹いっぱい。:2022/10/13(木) 09:55:03.65 ID:qTuaLJzO.net
サブPCのCPUうんこだけど3060あたり載っけてそこそこ動くんかな

436 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:03:22.45 ID:AQIrnPB6.net
せっかくやからコ↑コ←にもマルチポストしとくで。

だれかStableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckpt使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckpt分割されとるんやったか
ともかくだれかおらんかのぅ

437 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:21:20.60 ID:La+Qxu0Q.net
犯罪者が出たぞ、囲め!

438 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:22:58.04 ID:92UCQItD.net
>>435
3060が乗るマザボって時点で最低限のスペックは満たしてそうだし大丈夫なんじゃないかな

439 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:41:56.94 ID:kY4znFzn.net
>>434
助かり申した、感謝。
---
・webui-user.bat
set COMMANDLINE_ARGS=--listen
---

440 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:21:23.98 ID:nG71Z+6z.net
>>436
NAIに関しては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にしか対応してないんじゃない?
試しにTrinartのckptで置き換えてみたら「ckptのサイズが不正なのでDLしなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ

441 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:30:28.51 ID:qTuaLJzO.net
>>438
録画PC最近あんま稼働してないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな…

442 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:39:17.34 ID:6op4yHiB.net
artroomってPC再起動すると動かなくなっちゃうのなんでやねん。毎回インストールすんのかよ

443 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:43:46.22 ID:vJaVK+nz.net
diffuserのモデルに入ってるunetとかtextencoderとかvaeとかってなんなん?
unetが本体で他はサブ?

444 :名無しさん@お腹いっぱい。:2022/10/13(木) 14:51:54.75 ID:yOxgSzrZ.net
>>443
プロンプト→textencoder→(unet→サンプラー)ループ→vae→画像
みたいな流れだったと思う。unetには横からシードから作られたノイズが最初に入る

445 :名無しさん@お腹いっぱい。:2022/10/13(木) 15:36:03.58 ID:mvr2EnqE.net
グラボの限界近くで無理させると電力の効率悪くなるんだろうけど
消費電力と計算速度のバランスいいところの目安みたいなのって何かあったりしますかね
ちなみにgtx1080無印(8G)で2.2~it/sec power limit50%で消費電力100w減って1.7~it/secくらいだった
適当に刻んで回してプロットして探るしかないかな

446 :名無しさん@お腹いっぱい。:2022/10/13(木) 15:39:10.22 ID:bXTgaR1D.net
>>422
んなもんそれこそ批評側AIのパラメータ作り込めばいいだけじゃん

447 :名無しさん@お腹いっぱい。:2022/10/14(金) 16:33:20.52 ID:OMLW7wgc.net
>>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です

448 :名無しさん@お腹いっぱい。:2022/10/14(金) 16:52:03.02 ID:40bMpPm9.net
ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ

449 :名無しさん@お腹いっぱい。:2022/10/14(金) 16:54:51.68 ID:ARTDPbZp.net
>>447
なるほど〜
4090欲しくなりました

450 :名無しさん@お腹いっぱい。:2022/10/14(金) 17:40:10.57 ID:ARTDPbZp.net
StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?

451 :名無しさん@お腹いっぱい。:2022/10/14(金) 17:45:35.52 ID:QeGD8Cwp.net
連続生成って? バッチカウントとは別の?

452 :名無しさん@お腹いっぱい。:2022/10/14(金) 17:49:29.32 ID:nKgTqKnx.net
1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?

453 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:12:33.01 ID:6Dz0i5Q9.net
Generateボタン右クリしてGenerat Forever

454 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:14:01.63 ID:AvuLwezm.net
>>450
https://gigazine.net/news/20220909-automatic1111-stable-diffusion-webui-prompt-matrix/

455 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:15:21.42 ID:XnPXne0y.net
Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ

456 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:26:49.65 ID:YLsjtjlH.net
Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?

457 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:29:21.53 ID:FMOFHk9F.net
>>456
わからん
同じ枚数に対して50でも200でも違いがわからん

458 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:37:37.83 ID:OMLW7wgc.net
正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い

もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが

459 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:42:40.37 ID:aUor17yO.net
Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄

460 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:43:27.15 ID:aUor17yO.net
誤爆、誤爆でもないけど

461 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:48:27.44 ID:bNwczKpA.net
そのうちAI絵師同士が殴り合うことになるのでは

462 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:50:31.38 ID:ARTDPbZp.net
>>453
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww

バッチカウントってどこで変えれるの?

463 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:52:16.22 ID:ARTDPbZp.net
ああ見つけたわw
バッチサイズの横にあった

464 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:52:20.38 ID:QeGD8Cwp.net
CFGスケールの上のバー

465 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:55:35.26 ID:AmgEVVUS.net
NAIモデルで二次元キャラを三次元に変換するの楽しい

466 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:56:33.69 ID:XnPXne0y.net
遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……

467 :名無しさん@お腹いっぱい。:2022/10/14(金) 19:01:42.64 ID:I4aoRgos.net
>>466
windowsのアップデートしたんならそれじゃね
windowsの復元で戻してみたらどうかね

468 :名無しさん@お腹いっぱい。:2022/10/14(金) 19:05:51.91 ID:XnPXne0y.net
>>467
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ

469 :名無しさん@お腹いっぱい。:2022/10/14(金) 19:30:34.74 ID:K1vetAlc.net
チェックポイントが一度に3つ混ぜれるようになってて草
相変わらず進化早いねw

470 :名無しさん@お腹いっぱい。:2022/10/14(金) 20:05:12.49 ID:FMOFHk9F.net
一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな

471 :名無しさん@お腹いっぱい。:2022/10/14(金) 20:56:55.52 ID:Jz1slLtt.net
モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる

472 :名無しさん@お腹いっぱい。:2022/10/14(金) 21:00:26.00 ID:XjikJorg.net
>>471
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし

473 :名無しさん@お腹いっぱい。:2022/10/14(金) 21:27:50.14 ID:lpWZ4Hlp.net
公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?

474 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:34:27.60 ID:dLPWtPAo.net
>>473
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
ttps://note.com/uunin/n/n725ae4601264

475 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:45:00.85 ID:lpWZ4Hlp.net
>>474
おう!ありがとよ!(導入するとは言ってない)

476 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:54:14.21 ID:ntrMQ3UX.net
2070sからグラボ新調しようとしてたけどクラウドという手があったか
スレ見てよかった

477 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:58:33.12 ID:K5lHcCjq.net
NMKDはとりあえず試したいだけの人にはかなり便利だけど本腰入れてやりたいなら1111一択だな

478 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:03:07.13 ID:C/gau9np.net
すみませんプロンプトで「uc」てどういう効果あるかご存知の方教えて頂けないでしょうか?

479 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:15:04.53 ID:AcwfJ4Wh.net
fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ

でもトレにめちゃ時間かかるし課金するか悩むなぁ

480 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:27:27.86 ID:IZHJbIbx.net
blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?

481 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:28:15.28 ID:Ia8ZvkTj.net
最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと

482 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:28:21.31 ID:ARTDPbZp.net
waifuじゃnovelAIみたいなエロ画像出すのは無理?

483 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:30:02.18 ID:I4aoRgos.net
>>482
普通にいける
>>480
ネガティブに 白黒っていれてみた?

484 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:38:30.80 ID:AcwfJ4Wh.net
ごめんDBstablediffusion のが爆速だった

485 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:38:30.92 ID:ARTDPbZp.net
>>482
マジかぁ
精進するわ

pcにgpuたくさん積んでるんだけどstablediffusionは複数gpuで並列処理できないのかなこれ

486 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:53:13.74 ID:+g+H2Nl6.net
オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね

487 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:00:15.59 ID:NIfsDDC5.net
ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ

488 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:28:30.86 ID:cVyIiDx3.net
>>481
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと

489 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:28:52.89 ID:MA6pT5cu.net
1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った

490 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:32:54.52 ID:MA6pT5cu.net
いや時間は変わってないっぽい?
クオリティに影響してるのかな
教えて詳しい人

491 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:54:36.35 ID:kphj/9u/.net
>>485
リクエストはいくつか出てるようだけどまだ実装はされてない模様
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1621
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues?q=is%3Aissue+multi+gpu+is%3Aclosed

GPU指定とport番号を変えてwebuiを複数起動すれば、複数GPUをそれぞれ使うことはできるかも?

492 :名無しさん@お腹いっぱい。:2022/10/15(土) 01:14:10.59 ID:AikKaOMk.net
>>490
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size

サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども

493 :名無しさん@お腹いっぱい。:2022/10/15(土) 01:31:58.84 ID:MA6pT5cu.net
>>492
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね

具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた

WSL2のDockerに入れたから細かいところが違うのかなぁ

494 :名無しさん@お腹いっぱい。:2022/10/15(土) 01:45:05.20 ID:AikKaOMk.net
>>493
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる

詳しい人の降臨待ちっすね

495 :名無しさん@お腹いっぱい。:2022/10/15(土) 02:03:46.69 ID:TmM0Ta1u.net
少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10

496 :名無しさん@お腹いっぱい。:2022/10/15(土) 02:16:57.29 ID:S/D1EGiC.net
deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?

497 :名無しさん@お腹いっぱい。:2022/10/15(土) 03:45:25.60 ID:L+3ToJT9.net
>>496
俺はvenv消して実行し直したら治った

498 :名無しさん@お腹いっぱい。:2022/10/15(土) 03:51:53.16 ID:uMZtKJRm.net
>>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。

499 :名無しさん@お腹いっぱい。:2022/10/15(土) 04:02:26.09 ID:NIfsDDC5.net
>>498
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも

500 :名無しさん@お腹いっぱい。:2022/10/15(土) 04:19:01.82 ID:5rScqju3.net
履歴機能ついたけど想像通りの重さ
なぜマージしたんだろう

501 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:22:07.54 ID:uMZtKJRm.net
なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G

AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")

RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。

結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか

502 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:25:54.15 ID:7nZ34vzV.net
コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな

なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな

503 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:29:09.45 ID:uMZtKJRm.net
>>501
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
のエラーで続けるわ。
もう9時やん

504 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:31:05.90 ID:SRcrgA/b.net
一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね

505 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:35:18.22 ID:bfq41/Ms.net
1111、また設定変わったー
Highres. fix時にscaleintentがFirstpass widthとFirstpass heightに別れとる……

506 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:36:43.82 ID:kphj/9u/.net
COMMANDLINE_ARGS(コマンドライン引数)まとめ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Run-with-Custom-Parameters

ソースを読んだ方が完璧に把握できるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/shared.py

507 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:39:58.53 ID:uMZtKJRm.net
>>504
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。

508 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:46:26.92 ID:uMZtKJRm.net
よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>504の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。

509 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:53:49.69 ID:osFtr3lr.net
面白いなこれ
回転するフィギュアを動画で撮って全コマAIでimg2img
https://twitter.com/toyxyz3/status/1581039517112602624?s=46&t=qtABZ33710o14Nfouqn8Ew
(deleted an unsolicited ad)

510 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:59:19.21 ID:cETgTEzp.net
顔が全部カメラ目線
やはりカメラ目線は重要ということか

511 :名無しさん@お腹いっぱい。:2022/10/15(土) 10:01:30.70 ID:e+jJnNMA.net
アニメーションの自動生成はそんなに遠くないんだろうなって感じる

512 :名無しさん@お腹いっぱい。:2022/10/15(土) 10:18:12.19 ID:8pgYproy.net
restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった

よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない

513 :名無しさん@お腹いっぱい。:2022/10/15(土) 10:51:43.76 ID:AikKaOMk.net
>>512
アニメ絵生成してない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
https://youtu.be/YF3MtNuX_F0

514 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:02:32.50 ID:8pgYproy.net
>>513
ほーん

配置が修正されるのかと思ったら
解像度が上って美肌される感じか

515 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:03:54.95 ID:uMZtKJRm.net
1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。

GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。

516 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:06:59.56 ID:bfq41/Ms.net
ちゃんとレイヤーステップ2になっとるけ?

517 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:13:20.62 ID:AikKaOMk.net
>>514
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね

518 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:26:25.32 ID:mbp63UAw.net
>>515
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから

519 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:38:12.22 ID:uMZtKJRm.net
>>516
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。

settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337

*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590

Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair

Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name

520 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:40:04.74 ID:bfq41/Ms.net
vae通ってないんじゃ?

521 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:44:19.45 ID:uMZtKJRm.net
>>518
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。

…ネカフェのPCで…だめか。

522 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:48:09.45 ID:Kwyzi7uJ.net
ネカフェのPCなら
3060位積んでるんじゃね

523 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:48:59.10 ID:7nZ34vzV.net
ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ

524 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:51:04.13 ID:Ntrq5HZ9.net
みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?

525 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:54:45.21 ID:bfq41/Ms.net
その条件なら8枚で23秒かな。3070ti

526 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:56:06.76 ID:bfq41/Ms.net
ああ、ごめんステップ見間違えてた。150stepなら19秒だわ

527 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:02:01.69 ID:KScbvafB.net
>>521
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ

528 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:12:08.50 ID:JcgiPC8b.net
今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや

529 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:14:41.26 ID:uMZtKJRm.net
>>518
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。

>>520
なんやそれ

>>523
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ

530 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:16:36.84 ID:mbp63UAw.net
>>529
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って

531 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:23:26.27 ID:CvyUGpTa.net
勉強すんのは嫌だけどエロの為なら頑張れる

532 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:25:42.23 ID:uMZtKJRm.net
使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや……

533 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:31:52.38 ID:vxI1kUjx.net
ネカフェに金払うくらいならcolabに課金して家でやった方がコスパいいのでは

534 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:33:17.14 ID:7nZ34vzV.net
>>529
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが

535 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:37:32.96 ID:et6JpmZW.net
>>525
8枚70秒くらいかかるわ
ちなrtx4090

536 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:40:51.93 ID:Ntrq5HZ9.net
>>526
くっそ早いww
もうこんなグラボでチンタラやってるの悲しくなってきた
グラボ買うぞ🥺

537 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:42:07.96 ID:1wuGG+vw.net
ついに4090持ちが現れたかw
4090の方が遅いの?スクショとかupできる?>>535

538 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:43:38.94 ID:Ntrq5HZ9.net
俺も4090買うぞ☺

539 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:07:16.65 ID:cVyIiDx3.net
なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!

と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか

540 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:11:27.42 ID:0Krj1uq/.net
>>532
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする

541 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:22:52.99 ID:S28Zpjdt.net
gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ

素直にGPUかえ

542 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:30:41.91 ID:F0xLrC4V.net
>>537
https://i.imgur.com/i5ddt1U.jpg
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな

543 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:53:58.52 ID:0kSXAuWY.net
NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる?

544 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:55:31.51 ID:nm/5L0YC.net
そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる

>>542
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ…

545 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:58:04.03 ID:nm/5L0YC.net
>>543
自分がちょうど >>456 で同じ質問してて、 >>458 が詳しく解説してくれたから参考になると思うよ

546 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:00:42.92 ID:LYx8iol5.net
>>545
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな

547 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:01:53.34 ID:1wuGG+vw.net
>>542
うっひょー
報告あるんだ

548 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:02:11.31 ID:21RKitFN.net
8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい

549 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:11:00.25 ID:TmM0Ta1u.net
情報が少し古いのがあるけどこんなにGIGAZINEが役に立ったのは初めてかもしれない

550 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:14:35.36 ID:7nZ34vzV.net
>>549
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった

551 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:18:07.33 ID:+S3McIYd.net
手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です

552 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:24:01.67 ID:bfq41/Ms.net
線画に軽く色をつけて投げて、ちゃんとpromptも書き込む

553 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:25:47.77 ID:nm/5L0YC.net
>>546
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う

ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い

554 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:29:14.87 ID:eUckkZej.net
3060だと26秒(5.56it/s)

555 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:30:48.39 ID:mbp63UAw.net
>>551
SDはそういう目的のAIじゃないので向いてない。こっち↓のAIの方が良さそう
https://github.com/lllyasviel/style2paints

556 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:33:39.75 ID:8pgYproy.net
そういえばRTX3000が発売さたときもBLENDERとかで遅くて、後に最適化で早くなってたなぁ

557 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:35:57.23 ID:uMZtKJRm.net
>>540
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.

こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。

558 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:36:07.59 ID:Kwyzi7uJ.net
step150も上げなくてよくね?
50とそんなに変わるのか

559 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:38:34.04 ID:hntWdn8M.net
50以上は上げても違いがよくわからん

560 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:42:33.68 ID:nm/5L0YC.net
せやね
なんならアニメ調の絵は30くらいでも十分かも

561 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:42:38.70 ID:bfq41/Ms.net
正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる

562 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:44:43.86 ID:B6H/o30J.net
あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある

563 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:45:48.91 ID:VUuwRUix.net
@アニメキャラ画像<==>prompt=キャラ名+girlの出力
A本来のgirl出力(正則化画像)<==>prompt=girlの出力

@の距離だけを近づけていくと、過学習起こしたときにAの距離が次第にずれていく。
Aも同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。

564 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:50:53.54 ID:F0xLrC4V.net
>>544
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流

565 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:56:10.75 ID:Kwyzi7uJ.net
アニメキャラを覚えさせる場合

reg template smallest
"phot of a {}"→"{}"
に変更して

覚えさせたいキャラの特徴で吐き出させた方がいいのかね

566 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:58:25.36 ID:+S3McIYd.net
>>555
ありがとうございます!試してみます!

567 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:08:16.84 ID:nm/5L0YC.net
>>564
環境も同じっぽいしやっぱり最適化不足なんだね
4090の本気が見られるのはまだ先かー

568 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:15:56.94 ID:F0xLrC4V.net
Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと

569 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:18:11.65 ID:bfq41/Ms.net
とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし

570 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:21:19.16 ID:+EjjPfMN.net
>>548
がんばって
自分も詰んでる組だから
もし出来たらまた報告に来て欲しい

571 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:21:53.00 ID:0Krj1uq/.net
>>557
ちゃんと読み込めてるな
他の設定も合ってるみたいだし、CPUとGPUの差が濃厚っぽいな

572 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:22:45.82 ID:+EjjPfMN.net
>>549
まだ読んでないけどgigazineがkindleに無料の解説本だしてた

573 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:41:34.87 ID:EkMd8kqH.net
https://github.com/7eu7d7/APT-stable-diffusion-auto-prompt

この技術なんか凄そうだけど
中国語でよくわからん
pixivをクローリングしてプロンプトを最適化したらしいけど

574 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:43:30.71 ID:zLlnUrZc.net
ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね

575 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:46:24.94 ID:jDEnkG22.net
確かにHires.fix変わってScale Latentなくなってるな。これなしだと見栄えが違うから復活希望の意見ばかりだし、待ってれば戻ってきそう。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2613

576 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:48:59.51 ID:5rScqju3.net
scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか

577 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:49:49.61 ID:eUckkZej.net
一方勝間和代は外付けGPUボックスを買った

ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419

別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた

Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/15/094147

578 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:49:57.86 ID:KzL+RF0K.net
>>553
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう

579 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:54:09.49 ID:5ecYbv+F.net
勝間和代のブログ見てる人おんのか…

580 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:56:34.55 ID:093ZpIqN.net
>>577
1111のgradioの機能でデプロイすれば出先でも使えるよな
グラボ持ち歩くよりこっちのほうがいいだろ

581 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:56:38.51 ID:21RKitFN.net
>>570
それっぽい報告は複数あるけど解決策出てないんだよな

https://github.com/microsoft/DeepSpeed/discussions/2408
https://github.com/microsoft/DeepSpeed/issues/2099
https://github.com/microsoft/DeepSpeed/issues/2191

582 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:10:39.34 ID:MA6pT5cu.net
うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる

記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ

注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい

583 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:10:49.69 ID:6vS59t0d.net
勝間和代NMKD使ってるのか
画像まであげるとは攻めてるなー

584 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:24:43.36 ID:+EjjPfMN.net
>>572
ごめんKindleUnlimitedで0に見えてただけだった

585 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:40:09.91 ID:4y2ZH5X6.net
ワイのグラボGTX760で2GBしかないんやけどWebUI(AUTO1111版)いけるか?

586 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:43:50.49 ID:bHEhhghC.net
いけますよ、CPUを使いましょう
1枚5分くらいで生成してくれることでしょう

587 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:47:08.80 ID:mbp63UAw.net
5分かかるCPUなら760でもGPU使った方がマシなんじゃないか

588 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:48:24.84 ID:MA6pT5cu.net
1111の最低要件ってVRAM4GBじゃなかったっけ

589 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:50:06.61 ID:21RKitFN.net
AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる?

590 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:52:41.71 ID:MR4PxJk9.net
NAIモデルでdreambooth走らせたいんだがgoogle cloabじゃ無理?

591 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:53:06.29 ID:pbYNsuKO.net
今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ

592 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:55:20.12 ID:mbp63UAw.net
>>588
4chanに750Tiで動かしてる人おったから多分2Gでも動く

593 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:55:44.11 ID:uMZtKJRm.net
>>571
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。

594 :名無しさん@お腹いっぱい。:2022/10/15(土) 17:03:40.09 ID:uMZtKJRm.net
せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定

595 :名無しさん@お腹いっぱい。:2022/10/15(土) 17:11:14.26 ID:mbp63UAw.net
どっかの説明にも2Gでいける書いてあった気がするので探したがコレだわ
https://rentry.org/voldy

If you have 4GB VRAM and want to make 512x512 (or maybe larger) images,
use --medvram.
If you have 2GB VRAM,
use --lowvram

596 :名無しさん@お腹いっぱい。:2022/10/15(土) 17:48:01.71 ID:21RKitFN.net
>>590
俺も探してるけど見つかってないな

597 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:00:08.61 ID:NWnRPioF.net
ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。

598 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:10:32.38 ID:VOiTplJv.net
colab1111の出力枚数上限の増やし方がわからない・・・

599 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:12:34.22 ID:iTuUmUVr.net
コンフィグいじれよ

600 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:17:01.11 ID:VOiTplJv.net
>>599
ローカルでいうui-configのcount/maximumがどこに
あるか分からないです・・・
素人質問すみません・・・

601 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:48:06.87 ID:S36LRKR5.net
フォルダ直下

602 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:59:12.98 ID:O196yiuJ.net
hypernetworkどれくらい学習すればこんくらい効果あるみたいな情報ないか?

603 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:59:35.33 ID:/FBs4jwG.net
>>600
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)

ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"

!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py

604 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:04:17.53 ID:nkG6PHq4.net
>>602
エロスレに試してる人いる

605 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:06:10.12 ID:5rScqju3.net
NAIモデルで月野うさぎ/セーラームーンが出ない

606 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:06:47.86 ID:S/D1EGiC.net
>>496 >>497
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか

607 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:14:00.95 ID:VOiTplJv.net
ありがとございました!
無事設定できました!

608 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:37:20.07 ID:uMZtKJRm.net
メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ

are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...)

609 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:41:59.21 ID:uMZtKJRm.net
はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ

適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分

610 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:42:21.90 ID:bfq41/Ms.net
これを踏まえると、将来cuda以外で実行したら全部結果変わるっていう感じになりそうだな

611 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:43:03.24 ID:JcgiPC8b.net
dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか

それか、step数踏めば銃やミリタリー系の色消えるもの?

612 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:44:24.00 ID:MA6pT5cu.net
JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある?

613 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:46:39.79 ID:7nZ34vzV.net
>>609
スペック記載してる店は少ないからバクチやけど、せめてハイスペゲーミングPCの席選ぶんやで

614 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:53:13.33 ID:MA6pT5cu.net
>>611
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか

615 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:06:43.56 ID:JcgiPC8b.net
適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?

結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする

616 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:33:09.95 ID:Ras3M4ay.net
トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか

617 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:42:52.20 ID:Ntrq5HZ9.net
novelAIに勝てねえ
やっぱ有料サービスは強いな

618 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:55:51.81 ID:hntWdn8M.net
リークモデル使ってもやっぱ違う?

619 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:56:45.47 ID:4y2ZH5X6.net
流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね

620 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:01:46.70 ID:Ras3M4ay.net
グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように

621 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:12:38.01 ID:Ntrq5HZ9.net
>>619
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど

622 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:21:10.64 ID:bfq41/Ms.net
novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い

623 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:24:13.81 ID:TmM0Ta1u.net
シンギュラリティ?!!

624 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:34:17.94 ID:Kwyzi7uJ.net
NovelAI最近糞重くて サービスちょこちょこ止まってるけど

625 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:37:38.67 ID:bHEhhghC.net
radeonはrocmでcuda使えるって話もあるな
ただしmacテメーはダメだ

626 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:07:58.45 ID:nkG6PHq4.net
dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら

627 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:13:27.58 ID:5Sol/bUf.net
colabでdreamboothしばらく使ったらもう何日も使わせてもらえない

628 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:15:44.95 ID:hntWdn8M.net
あんまり負担掛けるんじゃねーよ的な?

629 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:34:32.92 ID:khLmL76h.net
dreamboothとTIとhypernetworkの使い分けがよく分からない

630 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:54:34.79 ID:4y2ZH5X6.net
>>621
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし

631 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:33:10.89 ID:yN0Lb7VT.net
>>615
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし!

632 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:37:47.09 ID:mbp63UAw.net
>>629
使い分けるまでも無くHNが完全上位互換じゃないの?

633 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:50:10.20 ID:eUckkZej.net
Train Hypernetworkをさっき初めて開始した
100000stepsまで15時間

634 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:56:32.22 ID:yj0C8KAM.net
NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい

635 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:01:30.37 ID:Zee6dncT.net
1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる?

636 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:04:47.44 ID:i8k1JocR.net
dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた

637 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:09:23.41 ID:igoLWNix.net
>>629
>>629
TI(画風の学習)→プロンプトに味付け
 教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
 ×学習時のモデルで使わないとダメ
 (そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)

dreambooth(特定の意味を加える→キャラとか覚えさせる)
 教えた画像群の意味を覚えさせてモデルに加える
 →sksとか教えた意味が呪文で使える

hypernetwork(画風の学習→生成後半に味付け)
 モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
 生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
 Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)


TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う

TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)

HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた

638 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:17:26.64 ID:bXlx3GEL.net
>>635
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される

639 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:20:08.98 ID:6ffuqtQX.net
スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる

一長一短だなぁ

640 :720:2022/10/16(日) 00:20:37.91 ID:igoLWNix.net
あと、TIよりHNの方が学習時間が短い。

そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風〜とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない)

641 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:23:22.66 ID:kvXH9jJF.net
はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう

642 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:27:05.45 ID:86BHjn16.net
HNを複数作っておけば好きに画風を切り替えられるってことでいい?

643 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:27:20.34 ID:igoLWNix.net
>>639
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする


644 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:32:22.50 ID:6x1IPbSd.net
どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような

645 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:33:24.01 ID:J6rT9g9/.net
こうしてみるとHNはckptというよりもdiffuserの拡張的なイメージなんだな

646 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:34:46.97 ID:igoLWNix.net
>>642
画風を複数作っておくのはHNでもTIでも切り替え可能。

HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ

647 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:41:08.62 ID:6ffuqtQX.net
HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ

648 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:48:55.75 ID:wopiNjdt.net
Hypernetwork strength...

649 :名無しさん@お腹いっぱい。:2022/10/16(日) 01:13:20.91 ID:ghjWKzhb.net
>>630
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで

650 :名無しさん@お腹いっぱい。:2022/10/16(日) 01:55:54.91 ID:QmrqDzef.net
>>630
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。

651 :名無しさん@お腹いっぱい。:2022/10/16(日) 01:56:01.24 ID:5rzd4/h5.net
waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます

652 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:05:32.11 ID:5rzd4/h5.net
>>630
>>650
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺

653 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:11:10.76 ID:QmrqDzef.net
6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。

654 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:14:00.78 ID:hZM0T8yy.net
>>630
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる

655 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:27:26.22 ID:dh9YtBzs.net
1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと??

656 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:30:23.90 ID:QmrqDzef.net
5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB

657 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:37:15.76 ID:Gdqp7gRE.net
初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか

658 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:44:04.05 ID:FPOZlxXn.net
>>657
TIでもHNでも一応できるよ

659 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:54:41.70 ID:ZnhcANsj.net
まあすでにRadeon持ってるならともかく、今からAI画像生成目的で買うならGeforce一択だと思う

660 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:11:46.80 ID:B9hWP+Us.net
nobelAI本家と、ローカルとの構文の違いって、
本家では{}や[]があるらしいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'('を'{'
335行目の')'を'}'
に書き換えて
この書き換えを

661 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:13:59.26 ID:B9hWP+Us.net
そのために↑のように
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズしているという
ことなのだろうか

662 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:51:11.60 ID:vfrGrCfV.net
Radeonはvram多いのが安いから環境構築さえ安定して出来るようになれば学習系で使ってみたいとは思う。実際は苦労しそう

663 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:51:51.01 ID:NHyXE8Qr.net
少し前にも書かれてたけどStable Diffusion1111導入してnsfw生成しても乳首が描かれない現象にぶち当たってしまった
SettingsのFilter NSFW contentは外してるけど上手くいかない…助けて

664 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:59:21.04 ID:ObnEzCwO.net
エロスレで聞いたほうが早いんじゃね?

【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1665317109/

665 :名無しさん@お腹いっぱい。:2022/10/16(日) 08:11:24.98 ID:NHyXE8Qr.net
>>664
ありがとう
ちょっと行ってくる

666 :名無しさん@お腹いっぱい。:2022/10/16(日) 08:37:08.15 ID:Zee6dncT.net
>>638
ありがとう。試してみる

667 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:05:28.76 ID:B9hWP+Us.net
>>661>>660
ふむふむメモとして自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答してしまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたたき上げで本家一切触らず無料でイクを通してきた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か???

668 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:19:58.47 ID:HUWTCMFo.net
>>667
1111でも{}解釈してくれない?

669 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:28:22.97 ID:2aq9lCQB.net
1111で{}は意味ないぞ

670 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:42:02.54 ID:YEX1sJRa.net
https://i.imgur.com/KwZZRBA.png

「Colabでgitを使うには」「SourceTree導入できないか」
と色々試してて、今start SourceTreeSetup-3.4.9.exeしようとしてエラー吐いてるんだけど、
もしかしてColabってPython上で実行可能なファイルしか実行できないとかある?

カレントディレクトリはrootだったのでその配下に置いたからパス問題ではないはずだが

671 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:46:51.38 ID:YEX1sJRa.net
あーなんかgithubの導入はいけそうな記事あるな

672 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:55:11.85 ID:2aq9lCQB.net
>>670
colabはlinuxだぞ。windowsのバイナリが動く訳ない
gitは何もせんでもコマンド使える

673 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:13:50.17 ID:YEX1sJRa.net
>>672
ありがとう、やっぱそういう根本的なとこだったか

そんでLinuxサポートしてないのな、代替GUI探してみるわサンクス
https://qiita.com/solmin719/items/f174aab0fc73ddbc9cdf

674 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:15:30.64 ID:J6rT9g9/.net
colabって基本、セッション閉じたら環境もデリになるからあんまり凝ったことしてもすぐに飛んじゃうぞ

675 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:25:58.09 ID:+U5N+6KE.net
仕様をよく知らないけどcolabでコマンドを使う時は先頭に!を入れないと動かない
!wgetみたいに

676 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:26:45.89 ID:YEX1sJRa.net
そこはわかってる、大丈夫
逆にコマンド全部自動化できるから毎朝環境構築してもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化した手順作りたいんだよね、今後もSDベースが出るなら役立つだろうし

677 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:27:31.29 ID:YEX1sJRa.net
>>675
記事のコピペでGitHubまで通ったけどなんで!あんのかわかんなかったがなるほど、サンキュー

678 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:31:22.16 ID:igoLWNix.net
>>651
img2imgの「Script」>「Poor man's outpainting」で
Outpaintingするんだ

「Up」だけ選んで64・128とか拡張したいピクセル数入れて
Generateすれば、切れてた頭の上が追加で描画される

679 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:48:35.66 ID:J6rT9g9/.net
colabはjupyter notebookベースだから、jupyter notebookの仕様見ると大体わかる。セルもjupyter notebookの機能

680 :名無しさん@お腹いっぱい。:2022/10/16(日) 14:24:32.60 ID:kkaKYXbZ.net
hypernetworkを試してみているんですが、500ステップごとの画像出力がこんなにバラバラなのはうまくいっていない…ってコト!?
https://i.imgur.com/YTrrFiM.png

681 :名無しさん@お腹いっぱい。:2022/10/16(日) 14:25:27.84 ID:Zee6dncT.net
>>680
シードがランダムになってるからじゃね?

682 :名無しさん@お腹いっぱい。:2022/10/16(日) 14:42:42.43 ID:kkaKYXbZ.net
>>681
あーなるほど、トレーニング中のステップごとの画像出力でもtxt2imgの設定が使われるから、txt2imgタブのSeedを固定した数字にしておくべきなのか
試してみます

683 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:03:47.10 ID:B9hWP+Us.net
やっとハローアスカが前進した
イムガーのエラーリストにあるものと完全一致同になったのが大きい
つまり構築に問題はなし。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとして、チェックするときはオイラーで。
紛らわしいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力しそうになるのかなと
というよりオイラーaで出力しようとして、オイラーで出力されたものと比較してあれ違くね?にもなった

cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大きい
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。

ところで、1111でsettingsのリセットってどうやるんですかね。

684 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:11:09.04 ID:J6rT9g9/.net
settingのJSON削除したら再起動時にデフォのsettingのJSONが生成されるぞなもしばってん

685 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:38:27.23 ID:B9hWP+Us.net
全て終了させてdos窓も閉じてもまだ31337残ってるのだが
おかしいのうapplysettings押したからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりやなこのスレ、すまんな
たしかにconfig.jsonに呪いの数字31337あるものな
そうか、これSettingsとtxt2imgの項目別個ってことか
1つにまとめろや怒

686 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:51:12.34 ID:sVKT7A6r.net
4090で速度上がったって人もいるね
遅いのはxformersなのかな?

687 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:01:48.29 ID:B9hWP+Us.net
よし、ナマポおじさんつぎはドッカーかOpenVINOでも試してみるか
昨日?から初めてのギフハブ、はじめて?ではないか、パイソンときて
よく見かけるアイコンのドッカー。OpenVINOはしらね。
試すのもありよな

688 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:08:17.71 ID:Wyi55eZ9.net
おめぇの日記帳じゃねえんだよ

689 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:11:34.08 ID:4txKkgUl.net
構ってもらえるから居場所見つけたと思ったら調子に乗っちゃって叩かれるパターン
何度見てきたことか

690 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:24:51.33 ID:ghjWKzhb.net
>>523が褒めたせいなんだろうけど、606以外特に褒めてないのにここまで日記帳にできるのな
昨日は大人の対応で無視してたけど、俺も流石にウザくなってきた

691 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:25:09.35 ID:1Get5kDd.net
ColabでAutomatic1111をはじめたんだけど、不安定じゃない?
どうやらgradio.appが重すぎるんだよね。

radio.appのかわりに ngrokが使えるから、同じように不安定な人は試してみると良いかも。
起動引数で、--share の代わりに --ngrok トークン とすると、ngrokが使える。
これでだいぶ安定した。

692 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:32:31.29 ID:B9hWP+Us.net
クッ、くやしいのう
でもなぁワイはウザイと言われるとやる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼやで
若い子にはそこがわからんやろなあ
図々しくいくんや

693 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:34:01.06 ID:1Get5kDd.net
>>691
radioの問題だけど、参考までにgithubの情報も載せとく
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/344

694 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:38:50.59 ID:1Get5kDd.net
Colabの無料枠って使い切ったら、待ってたら回復する?それとも課金しかない?
課金の 100コンピューティングユニットってどのくらい使えんの??

695 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:55:46.65 ID:ZnhcANsj.net
教師画像約250枚、正則化画像約2500枚でJoePenna版のDreamboothを30000ステップ勉強させてみた
何を学習させたかは伏せるけど上手く行き過ぎて戦慄してる
やっぱりVRAM24GB使うだけあってクオリティすごいね

696 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:05:04.93 ID:86BHjn16.net
モザイク必要になる奴?

697 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:17:04.92 ID:I8bATd7d.net
>>694
待ってたら回復するよ
100コンピューティングユニットだと無料枠と同じGPU(Tesla T4)で50時間くらい使える

698 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:21:45.04 ID:t7hiT172.net
>>695
正則化画像のクオリティは拘った?自動生成やデータセットは酷いの多くて毎度うっすら気になる

699 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:31:09.51 ID:i8k1JocR.net
Waifu-Diffusers1.4来たらdreamboothに革命来る?

700 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:32:03.23 ID:6hH9al3A.net
>>695
3090欲しくなるやんけ…

701 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:34:09.14 ID:xGrXXdLo.net
>>695
250枚ともなるとステップ数も凄いな
時間どんくらいかかるんそれ

702 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:44:01.08 ID:ZnhcANsj.net
>>698
正則化画像はwd1.3で1girlとだけ指定、ネガティブプロンプトは無し、ステップ数は40
むしろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う

>>701
3090Tiで約12時間かかった

703 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:46:10.38 ID:T83lw36i.net
成果物の提出をお願いいたします

704 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:50:14.43 ID:86BHjn16.net
絵柄の学習は完全にクリーンだから
出していいでしょ
見せてくれませんか

705 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:03:32.09 ID:ZnhcANsj.net
>>703
>>704
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな

ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる

706 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:04:34.37 ID:BIra5d23.net
ついに俺のGTX1080のフルパワーを発揮するときが来たと思ったけど
メモリが足りなくて泣いた

707 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:06:03.17 ID:kWLs9UQI.net
hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか?

708 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:08:03.30 ID:xGrXXdLo.net
>>702
12時間ワロタ、すげえな
そんくらいあると学習元とほぼ同じポーズとかあっても気づかなそうだ

709 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:25:15.07 ID:ejt6P45d.net
1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり

710 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:25:33.47 ID:ejt6P45d.net
>>709
スレッド
https://www.reddit.com/r/StableDiffusion/comments/y56qb9/security_warning_do_not_use_share_in

711 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:25:57.43 ID:+U5N+6KE.net
diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど

712 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:33:02.39 ID:ejt6P45d.net
誤記:shareオプションだ

713 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:38:34.37 ID:+U5N+6KE.net
任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう

714 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:43:45.45 ID:VAYJsdng.net
AIくん手や足が苦手なのはhypernetworkやDream boothで追加学習させれば解決出来る?

715 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:45:26.99 ID:HJvyOLCz.net
ローカルマンは起動時のlunch=trueになってなければ大丈夫

716 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:09:03.38 ID:k2SMXVws.net
勝手に変態スケベ画像作られちゃう!?

717 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:14:21.38 ID:c/X3WEwH.net
ウェブカメラ起動されて顔写真撮られまくって自分のエロ画像生成された挙げ句拡散されるぞ

718 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:23:11.79 ID:B9hWP+Us.net
中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。

719 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:32:43.44 ID:B9hWP+Us.net
さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー

720 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:34:23.17 ID:7rdeF0oE.net
novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる?

721 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:34:47.16 ID:I8bATd7d.net
AUTOMATIC1111Colab版だとshareってのが必要なのか

722 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:57:12.56 ID:J6rT9g9/.net
ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう

723 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:06:33.73 ID:B9hWP+Us.net
新しい問題に直面したからまた居座ることにするわ
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルやbatファイル書き換えたのが原因かもだけれど、
本来?よくある手順サイトや他のスレでもwebui-user.batから起動しているところを、
俺はwebui.batで起動しているんよ。
逆に、webuiーuser.batから起動しようとすると何かキーを押してくださいで落とされる。

原因なんだろなぁ、webui-user.batへの記入漏れか?
いやでもwebui.batで起動できているし…
本来webui―user.batへ記入するべきものがlunch.pyなんかに記入しててそれでuser.batから起動せんのかなぁ
結果的にwebui.bat起動だとうまくいくと。

順序的にはみなwebui-user.batから起動しているということはきいたし、
webuiーuser.bat→webui.bat→lunch.pyなんかな?

うーん

724 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:15:38.49 ID:B9hWP+Us.net
多分pyに書いたのをそのままで
webui-userに書いていないのが原因な気がしてきた
というかそもそもlunch.pyに記述せず、
webui-userに記述したらいいってことけ?ことけ?だよな?
…そういやどこにおれ記述したかな

725 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:16:35.23 ID:7Ekig07N.net
とりあえずgitクローンからやり直しせばなおる

726 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:21:10.29 ID:B9hWP+Us.net
変更加えたのluntchpyとbatファイルしかねーしな
それだけ保存して、1からやり直ししてしまえば
diffでどこ変更したかもわかるしな
というか、userに――ダンボールいれたらなにかおいしいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ

727 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:24:42.43 ID:7DUNBWh6.net
俺も手やら強化したい部類があるが
embeddingだとイマイチだしTIだと絵そのものが変わっちゃうから困るんだよなぁ…

この辺の正しい使い方あると嬉しいんだけどな

dreamboothってのがいるんかなあ

728 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:26:45.64 ID:Zee6dncT.net
手を治すみたいなのはSD1.x根本の問題みたいだし、後付学習でどうにかなるものじゃないかも
NAIでもそうそうきれいに出ているわけじゃないし

729 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:30:28.08 ID:7DUNBWh6.net
出にくいもの出したいってときどうすればいいの?強調したら出てくるけど位置がおかしいとかそういうのになるから教えてあげたいんだけど

アクセサリーとかエロネタ系だったり

730 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:30:49.44 ID:7Xgmo+75.net
colabでshareやると危ない的なこと他スレで見てビビってるけど大丈夫なのかな
有識者さん教えてくださいm(_ _)m

35 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セキュリティ警告Automatic1111 webuiで--shareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索している人がいる。

Exploitはこちらで共有されています: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2571

(中略)

以前、この件について投稿を行い、追加情報を集めました。もしあなたが --listen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもしれません。しかし、最も危険なのは --share を使った場合です。人々はこのインスタンスを検索していますし、悪用方法も公開されています。

731 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:34:24.68 ID:XnlSfyrV.net
質問するようなレベルならやめるべき

732 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:37:37.00 ID:1j9gK3ok.net
前からパスかけずに--share使うなって言われてんのに使ってる奴居るのか

733 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:40:09.26 ID:7+6NBw4t.net
>>726
たぶんlaunch.pyを書き換えたのは良くなくて、
webui-user.batだけ書き替えて実行すれば動くはず。
set COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいやつを全部書く。
だけど、もしそれで動かんなら力になれんわ。

734 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:43:02.80 ID:J6rT9g9/.net
ローカルで普通はshareなんか使わんだろう。そんなオプション知ってる方が少数派だと思うが。

735 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:43:38.36 ID:k6J7VrR6.net
>>>709
Ngrok経由なら大丈夫ということでしょうか?

736 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:45:36.39 ID:+ZwawC2e.net
>>729
それはinpaintしかないんじゃないかな

737 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:19:07.67 ID:7DUNBWh6.net
>>736
なるほどねー
正しい位置に出たらそのままでいいし増え過ぎたら削って感じ?

新しくは書き込めなかったよね…?

738 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:21:17.88 ID:J6rT9g9/.net
書き込めるよ。
元絵の任意の場所に出したいアイテムの大まかな形状と色を塗る。
塗った部分をマスクしてアイテムのpromptを指定してマスクしてインペイントをかける
ガチャる
これで概ね、何とかなる

739 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:52:25.29 ID:7DUNBWh6.net
>>738
なるありがとう。

740 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:53:20.63 ID:XIiZzwz/.net
>>694
自分も無料Colabだけど、丸一日経った頃には大体復活してる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンしてるわ

でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもしれない

741 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:58:38.91 ID:s5IGHlcL.net
機械学習って今まではmacやlinuxが主流だったけど、SDはなぜかwindowsが主流だよね。その辺も裾野の広がりに関係してると思うわ

742 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:11:58.25 ID:1Get5kDd.net
>>735
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと

743 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:14:58.39 ID:+U5N+6KE.net
グラボが全て
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう

このままだとMacはスタバでドヤるためだけのパソコンになるだろうな

744 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:16:25.47 ID:1Get5kDd.net
>>697
>>740

さんきゅー。とりあえずしばらく待ったら復活した。
無料だとトレーニングはなかなか難しいかもねー

745 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:44:22.73 ID:wopiNjdt.net
xformers有効でたまに真っ黒の出るんだけどおま環?

746 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:53:47.82 ID:rT5G0VDH.net
>>745
俺も入れてから出るようになった。StepやScale上げてあげると回避できることはあるけど
発生条件はよくわからんんね

747 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:58:33.82 ID:2YaNlGqE.net
>>741
機械学習は今も昔もpython一択じゃねえの?
SDは単にWindowsでも楽に実行環境を作れるってだけの話じゃろ

748 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:59:12.45 ID:Yg7Hg+zN.net
shareってローカル1111起動する時
To create a public link, set `share=True` in `launch()`.
て出てるのまずい?

749 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:03:18.16 ID:gWeiQ26A.net
>>748
(ローカルではない)publicなリンクを作るためには'share=True'にしろよ、って言ってるだけだ。

750 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:09:09.14 ID:U7+CHkNh.net
colabの方のgigazineの手順(というか作成済colabファイル)には--shareが明確にある
ローカルの方はなんか手順書書いた人によって入ってたりするらしい

751 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:16:30.99 ID:WG4Oke8l.net
xformersビルドしないと動かないのに勝手にインストールするコード入れられてるからバージョン上げられない

752 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:19:15.31 ID:gWeiQ26A.net
launch.py見た感じ、今も--xformersオプション付けなければインストールされないのでは?

753 :名無しさん@お腹いっぱい。:2022/10/17(月) 01:34:50.34 ID:alDmjM1O.net
xformersのビルドパラメーター変えたら動くようになった
そもそも入ってなかったのかも

754 :名無しさん@お腹いっぱい。:2022/10/17(月) 02:09:11.72 ID:/Z66lPo9.net
というか1000番台以降なら--xformersで完全に自動で入るはずだし
それ以前のは悪影響の方がでかい

755 :名無しさん@お腹いっぱい。:2022/10/17(月) 07:16:13.77 ID:iZ/UdLjt.net
絵柄を統一するにはどうしたらいいんだ?

756 :名無しさん@お腹いっぱい。:2022/10/17(月) 07:49:48.10 ID:2m3hygkV.net
>>754
3000以降でなくて?

757 :名無しさん@お腹いっぱい。:2022/10/17(月) 07:54:00.36 ID:nQGEYwDS.net
Hypernetworkに画像70枚の正則化込み180枚投入して6万ステップ回したけど収束の気配なし
画像が多すぎると無理なのか

758 :名無しさん@お腹いっぱい。:2022/10/17(月) 08:07:27.14 ID:d2XyZlWc.net
>>730
生活保護ナマポ+障害年金2級精神ワイの見解やと
危険もなにもリークをダウンロードしていることでそれは承知の上だし
novelAIがもとにしているのが許可なし転載サイトの絵だったりでそれを承知の上だし
そういうことやろ
いまさらという

759 :名無しさん@お腹いっぱい。:2022/10/17(月) 08:48:45.02 ID:OdjOHVZz.net
絵より実写の呪文集まとめてる場所の情報欲しいんですけどそういうのって知らないですか?
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で

760 :名無しさん@お腹いっぱい。:2022/10/17(月) 08:52:52.10 ID:fu4E24m1.net
>>757
一旦、20枚ぐらいに厳選して、学習率も5e-5ぐらいの粗いところから始め、
ログで損失率の推移やPNG見て過学習0生成がで壊れるステップ数を確認した上で、
どれだけの枚数食わせるか、学習率を下げるかを検討したほうが良いと思う

761 :名無しさん@お腹いっぱい。:2022/10/17(月) 09:07:03.32 ID:d2XyZlWc.net
すべて見直して、webui-user.batに値をぶち込んだらいい感じに起動してくれた。
まぁ、起動してよしじゃだめだからな。煮詰めないと。
どれにしてもどうしておれはwebui.batで起動していたのか記憶にございません。
色々な情報から、launch.pyのここ書き換えてとか、webui-user.bat書き換えてとか情報みててそれぞれやって、
最後押したのがwebui.batでたまたま起動してくれたのが混乱の原因だな。
ちょっと前までは、git bush hereして即webui-user.bat書き換えて(つまりckptとか入れるの忘れて)起動してあれ?となっていたからな。
もうあらかじめリネームしてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認している。
準備良しだな。なお、
--skip-torch-cuda-test --precision full --no-half --medvram をぶち込んでいる。
というより、--medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないしな。
インテルグラフィックス5000がCUDA対応していないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションしか注視していなかった。
というよりだな俺ってこれまでずっと飛鳥しか出力してないんじゃねってことなんだよな。

762 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:32:25.54 ID:mndmJmmd.net
自分の好きな絵師の画風を学習させると本当にシコリティ高いな
正規化した画像と間違えて元画像使って15000ステップ回してしまったけど、
十分実用に足るものが出来てしまった

763 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:36:14.41 ID:nQGEYwDS.net
>>760
6万ステップで破綻したから戻って学習率1/10にしてやり直してる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか

764 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:36:57.29 ID:mndmJmmd.net
そして書くスレ間違えた…
いやまあ大きく外れてはいないけど

765 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:40:03.05 ID:ULNZXAxL.net
帽子とか被らないようにしたい場合はどんな呪文を入れればいいのか教えてください

766 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:55:02.80 ID:2JeR298Q.net
negative promptに帽子いれたら?

767 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:56:22.48 ID:/4GmzdgE.net
Dreamboothで学習した結果、sksを入れずに例えばNendoroidoとだけ指定してもなんか学習元を反映させてそれっぽくしてくる
てか逆にsks入れるとNendoroido要素無視してくる
これは過学習なのかな?

768 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:57:10.16 ID:FjkRtqVh.net
xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね

769 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:01:58.50 ID:rgXlaQs+.net
SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど

770 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:29:12.21 ID:fu4E24m1.net
>>769
謎なんだけど、NMKDで剪定しちゃえば同じ生成してくれる2GBのモデルは作れる

771 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:37:04.40 ID:d+usOTfa.net
追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる?

772 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:56:25.35 ID:rgXlaQs+.net
>>770
prune済みfp16でも小さくなるって事?
どうやればいいの?NMKD使った事なくてよく分からん

773 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:58:33.91 ID:nQGEYwDS.net
hypernetworkのトレーング方法ようやく要領が掴めてきた
Tiよりは大分いいな

774 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:58:57.02 ID:x0GhWPSO.net
学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?

https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する

ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね?

775 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:07:51.66 ID:PEU3gbWs.net
>>769
pruneスクリプトが9/28以降おかしいからじゃね
作者は新しいの使ってるみたいだけどそれだとprune前後で出力内容が変わる
https://github.com/harubaru/waifu-diffusion/commits/main/scripts/prune.py

776 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:33:04.82 ID:fu4E24m1.net
>>772
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない

使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.

で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど

777 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:45:13.44 ID:rgXlaQs+.net
>>775.859
ありがとう、どちらも試してみるわ

778 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:53:25.46 ID:nQGEYwDS.net
Hypernetworkでdreamboothみたいに少ない枚数で学習したい
流石に5-6枚では無理か?

779 :名無しさん@お腹いっぱい。:2022/10/17(月) 13:04:46.79 ID:s3d8QjiO.net
ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで

bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"

を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518

あとは、run_webui_mac.shを実行するだけ

ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh

104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす

780 :名無しさん@お腹いっぱい。:2022/10/17(月) 13:46:44.99 ID:TZxRUe++.net
auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった

モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな

781 :名無しさん@お腹いっぱい。:2022/10/17(月) 14:30:32.55 ID:zoSlJeQX.net
NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど

782 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:09:32.24 ID:Y2AMcOHu.net
TrinArt旧キャラクターモデルがオープンソース化

https://twitter.com/naclbbr/status/1581876642200244224?s=46&t=Y8rt7gPiC2mM-zVcHKTPiA
(deleted an unsolicited ad)

783 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:20:18.77 ID:2kKXaQLK.net
当たり前のようにVAEをかます手法になってきたなw

784 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:31:48.42 ID:nQGEYwDS.net
hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる

785 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:33:18.61 ID:hP+5piYT.net
>>774
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど

786 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:05:42.43 ID:n2Bxn8NT.net
>>782
405MBしかないautoencoder_kl-f8-trinart_characters.ckptはどう使うものなのかな

787 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:08:23.94 ID:2kKXaQLK.net
>>786
vaeだろう? waifuと同じ感じの
ファイル名も同系列だし

788 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:09:56.53 ID:4sACRINh.net
HypernetworksはGithubにあったこれで大体うまくいってる

5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000

789 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:12:19.14 ID:2kKXaQLK.net
とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw

790 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:13:30.61 ID:nQGEYwDS.net
そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ

791 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:15:02.59 ID:ljDkNpKQ.net
Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな

792 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:16:33.01 ID:n2Bxn8NT.net
>>787
models\Stable-diffusion に入れればいいんですか?

793 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:17:06.46 ID:4sACRINh.net
ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが

794 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:37:00.08 ID:l1DjdfDd.net
>>761
medvramのあるなしでメモリ使用量と速度がどう変わるかやね

795 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:55:45.37 ID:lhahwq9Z.net
SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな

例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな

796 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:02:14.80 ID:+Pf/s7hV.net
https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1
trinの更新来てるじゃあん

waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない

797 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:06:20.98 ID:wYyHAuYq.net
3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる

798 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:08:04.28 ID:d+usOTfa.net
1.3はちょっとガッカリでしたね

799 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:17:36.70 ID:mndmJmmd.net
アウロリ製造目的でもないならdreamboothはcolabでよくね

800 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:19:54.66 ID:wYyHAuYq.net
冷静な指摘THX

801 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:30:32.51 ID:jzVVkhF8.net
>>774
Hypernetwork解説してるのこれかなー。ちゃんと見てないけど
https://www.youtube.com/watch?v=1mEggRgRgfg

802 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:35:35.74 ID:PG7EuW3q.net
ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか

803 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:39:26.96 ID:jzVVkhF8.net
>>787
すまん、vaeについていけてない。どう使えばいいの?

804 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:41:36.24 ID:LrKWnqH7.net
NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが

805 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:41:51.73 ID:2kKXaQLK.net
>>803
6

806 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:44:37.35 ID:d+usOTfa.net
>>804
今やってみたけど今まで通り出るよ

807 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:52:13.04 ID:4sACRINh.net
>>804
Fullにしてないオチ

808 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:04:38.20 ID:L7rdcMqT.net
とりさんまはどれをどこに入れればええんやん?

809 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:05:25.98 ID:L7rdcMqT.net
自決した

810 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:16:54.70 ID:ZVbLymcT.net
colab環境でdreambooth回すならwaifu1.3を使うしかないのか

811 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:18:40.75 ID:n2Bxn8NT.net
>>805
autoencoder_kl-f8-trinart_characters.ckpt

trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな

NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう

812 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:28:46.14 ID:mtmeY11F.net
とりんの新しいやつ使ってみたが、やっぱり手はダメか。
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな

813 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:30:53.13 ID:2kKXaQLK.net
とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない

814 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:35:07.99 ID:CKWAYoH4.net
NAIも裏で入ってる優秀なネガティブプロンプトが無いとわりと品質落ちるぞ

815 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:44:46.35 ID:yqllOzjB.net
hlkyって死んだの?

816 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:49:49.96 ID:AN5V5xfD.net
>>795
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな

817 :名無しさん@お腹いっぱい。:2022/10/17(月) 19:19:29.32 ID:mndmJmmd.net
HNは何か急激に再現度上がるタイミングがあるな

818 :名無しさん@お腹いっぱい。:2022/10/17(月) 19:26:37.90 ID:jzVVkhF8.net
>>811
ありがとう!

colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt

819 :名無しさん@お腹いっぱい。:2022/10/17(月) 19:46:35.16 ID:jzVVkhF8.net
>>818
ごめん、このwgetのコマンドは間違い。

vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。

こんな感じになったら、VAEがロードされてるはず。

Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.

820 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
私もHypernetworkが上手くいかないので教えてください。

キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?

・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい

1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
 >100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
 ・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
    (「a woman, 1girl, solo, white background」でもだめ) 

821 :名無しさん@お腹いっぱい。:2022/10/17(月) 20:31:29.55 ID:fu4E24m1.net
>>820
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく

自分ならとりあえずこんな感じで試すかも

822 :名無しさん@お腹いっぱい。:2022/10/17(月) 20:34:55.89 ID:adqtuMlL.net
なかなか 難しいね

823 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:02:41.17 ID:NFtScPgO.net
とりんさまも結構やる子だぞ
https://i.imgur.com/QSbVPOy.jpg
https://i.imgur.com/sS7R7xx.jpg

824 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:35:22.64 ID:891my6Vf.net
イケメン生成するためにずっとtrinart2使ってるけど、美少女もわりといけると思うんだ
https://i.imgur.com/FitNt0H.jpg
https://i.imgur.com/ZGU7YBm.jpg
https://i.imgur.com/rbVFCsv.jpg
新しいのはまだ遊んでないけど、どう違うやつなんだろ

825 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:39:57.04 ID:UGl0wV53.net
新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?

826 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:51:45.40 ID:adqtuMlL.net
xformers 入れてる当初はそうでもなかったが
最近は意地でも VRAM6GB位しか使わなくなった

827 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:05:28.46 ID:891my6Vf.net
>>825
わかりやすい
得意分野は既存版とちょっと違うんだろうか
上手く使い分けられるといいな

828 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:47:42.47 ID:+Pf/s7hV.net
色々試してるけど、結局waifu1.2に戻ってくる
https://i.imgur.com/cCJf2DY.png

829 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:55:39.15 ID:UGl0wV53.net
偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ

830 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:57:11.48 ID:+Pf/s7hV.net
手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ

831 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:02:36.49 ID:j0I0cSk3.net
>>829
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな

832 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:06:18.31 ID:oKNCSux3.net
ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ

833 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:18:08.04 ID:8/hguxf8.net
Stable Diffusion Prompt Generatorが使えなくなりました

834 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:18:46.14 ID:8/hguxf8.net
Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?

835 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:31:00.38 ID:93v8L+yq.net
上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない

836 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:43:10.46 ID:l1T5Qa1Z.net
diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで

config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん

837 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:50:34.35 ID:93v8L+yq.net
>>836
ありがとう。試してみます

838 :名無しさん@お腹いっぱい。:2022/10/18(火) 04:14:38.49 ID:soj7FsTJ.net
wd1.4の新しいvae来たけど試した?

839 :名無しさん@お腹いっぱい。:2022/10/18(火) 07:11:36.57 ID:P2mP3FzW.net
進化の流れについていけねええええええええ

840 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:41:00.94 ID:q9QBdgsx.net
https://docs.qq.com/doc/DWHl3am5Zb05QbGVs
なんでこれ貼ってないの

841 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:45:17.71 ID:cyHLbL5S.net
しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか

842 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:46:54.53 ID:TtXnf/fW.net
ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ

843 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:47:13.18 ID:Lo3y4TAi.net
>>695 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった

844 :名無しさん@お腹いっぱい。:2022/10/18(火) 09:41:15.76 ID:RDN7cvBB.net
HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、

845 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:36:16.00 ID:bKPdKQSD.net
そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る

846 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:36:56.24 ID:wbrPm6Fj.net
>>843
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる

847 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:51:55.46 ID:3BBOW5w1.net
i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい

848 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:54:05.13 ID:x3uyPhfX.net
おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り

Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.

英語と日本語できる人よろしくたのむ

849 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:58:00.25 ID:RDN7cvBB.net
hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ

850 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:58:13.00 ID:YQaGLl7w.net
博多弁なら任せろ

851 :名無しさん@お腹いっぱい。:2022/10/18(火) 11:35:57.20 ID:93v8L+yq.net
>>836
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか

(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png

novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt

852 :名無しさん@お腹いっぱい。:2022/10/18(火) 13:28:22.93 ID:l1T5Qa1Z.net
引数に以下必要かも
--original_config_file=model/config.yaml

853 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず

854 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?

855 :名無しさん@お腹いっぱい。:2022/10/18(火) 14:00:14.32 ID:xjE4NofN.net
無事アスカこんにちは出来たからやれる事広がった
xformersは途中buildするとこエラーでて断念

856 :名無しさん@お腹いっぱい。:2022/10/18(火) 14:06:39.39 ID:93v8L+yq.net
>>852
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます

出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".

857 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:14:54.45 ID:N32QSKnx.net
>>856
https://colab.research.google.com/drive/1Fu_v_VfTVDan61uiS5zI8OEqeRjQgVC2#scrollTo=wnTMyW41cC1E
参考にしてください

858 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:40:53.95 ID:5DgBXIZt.net
>>846
8割ぐらいかな
でも全身絵を生成すると顔崩れるね

全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う

全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail

859 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:49:26.92 ID:N32QSKnx.net
>>856
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted

860 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:58:16.38 ID:RDN7cvBB.net
hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな

861 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:07:25.39 ID:N32QSKnx.net
./でした
失礼

862 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:25:37.33 ID:93v8L+yq.net
>>859
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました

--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]

- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)

return text_model

863 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:42:09.31 ID:x9mpdnVy.net
結局SD1.5はいつ出るんだ?

864 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:59:13.94 ID:8m7b93Ex.net
たぶん、SD2.0を自社サービスに組み込んだあとに宣伝として放流するんじゃない

865 :名無しさん@お腹いっぱい。:2022/10/18(火) 17:21:57.69 ID:GXy84LFC.net
>>858
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます

866 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:12:48.64 ID:cvFdiqt/.net
NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ

867 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:22:32.68 ID:PD7GU1ya.net
これ写真食わせたらどうなんの?

868 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:42:38.40 ID:b76mos+T.net
deepfakeが作れるよ

869 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:44:39.55 ID:83KLqlGX.net
>>866
i2iとかinpaintで頑張れ

870 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:19:37.76 ID:SdnJUVNK.net
>>866
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり

871 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:34:57.45 ID:5fUCLEJM.net
>>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。

872 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:39:28.53 ID:U+Re+1lV.net
>>871
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい

873 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:40:23.24 ID:zu/vdcfa.net
前スレの>>714
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど

874 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:43:40.02 ID:oKNCSux3.net
Legのtypoミス

875 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:46:34.26 ID:Nv8AfTz2.net
>>873
タイポ

876 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:01:25.84 ID:k4JvEfw0.net
>>872
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。

877 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:05:58.64 ID:VcGxzPHt.net
>>873
>>15 のfinal-pruned.vae.ptが抜けてんじゃね。変更したら再起動ね(ブラウザじゃないよ)
hypernetworks と --xformers は抜きで

878 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:06:36.01 ID:zu/vdcfa.net
これで正常になった?
https://i.imgur.com/DY85Nmj.png
でも別で上がってるのと比べるとちょっとだけ違うのがわかる
https://i.imgur.com/Bfl5qJB.png

879 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:07:10.61 ID:ey3587xA.net
sfwでエロが出ないって当たり前だろ
わざとやってる?

880 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:21:49.83 ID:U+Re+1lV.net
>>876
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い

881 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:26:52.39 ID:AaFa6Jve.net
>>878
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね

882 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:27:06.68 ID:NEYHrj9C.net
Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg

883 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:33:21.34 ID:TgSrji0x.net
でりだアート…のべりすといつのまに?

884 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:36:53.35 ID:D1LFLupJ.net
>>877
>>880
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。

885 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:42:09.52 ID:zu/vdcfa.net
>>877 >>881
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>877
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの??

886 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:46:16.50 ID:/we3lp9G.net
>>882
しゅごい

887 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:57:27.95 ID:7jXZOYp0.net
>>884
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます!

888 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:01:56.47 ID:NEYHrj9C.net
既存の絵も何もかも言葉で作り変えられる時代が直ぐそこに

889 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:13:25.88 ID:00I+6kfi.net
NAI騒動で飛びついた初心者です。
ちょっとマイナーなキャラとかだと全然似ないから、特定のキャラクターだけを追加学習させたいんですが可能なんですかね?
お勧めのやり方とかあった教えてください

890 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:26:01.99 ID:00I+6kfi.net
よく調べずに質問してしまいました...
Hypernetworkという凄い機能が付いてるんですね...

891 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:31:55.68 ID:q9QBdgsx.net
年末には1人でアニメ作れるな
https://twitter.com/Buntworthy/status/1582307817884889088
(deleted an unsolicited ad)

892 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:37:35.65 ID:g1scDU/l.net
>>890
dreamboothのほうがええんちゃう
指示通りやっていけば終わるgoogleのcolabってサービスあるし

893 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:43:01.73 ID:P2mP3FzW.net
hypernetworkようやくコツつかんだw
やばいな、これw
神絵師と同じ画風作りまくれるwwwww

894 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:48:48.02 ID:YQaGLl7w.net
俺はhypernetwork全然上手くいかんわ

895 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:50:06.74 ID:8eBdxQoJ.net
ハイパーネットワーク、出力中の画像は良いのに止めていざ本番やるとバケモンが出てくるんじゃが
コツ教えてくれよーーーーー

896 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:09:27.28 ID:/we3lp9G.net
HN俺も上手くいかん
変に全身入れるより顔アップ多めの方がいいのかな?

897 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:13:52.08 ID:0F2kphzm.net
学習元データも含めてアップしてる人見ると
一枚の絵を上下に分けてやってんだよね、まあ正方形だからしゃあないんだけど

898 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:35:16.41 ID:TtXnf/fW.net
自分も上手くいかないので脱落組だ
顔だけとか背景切り抜きまでやったが

899 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:38:55.98 ID:gq0Co63H.net
hypernetworkはデフォだと効きすぎるんで、コード側で掛かる倍率変えてやればいい感じになる
modules\hypernetworks\hypernetwork.pyのdef forward(self, x)を下みたいに書き換えればいい
return x + (self.linear2(self.linear1(x))) * 0.6

色々倍率は試したけど0.6倍が個人的には丁度良かった

900 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:56:17.57 ID:8gvw4EwR.net
>>899
SettingsのHypernetwork strengthを0.6にするのじゃ駄目?

901 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:08:58.49 ID:++6+YAXw.net
画像生成AI「Stable Diffusion」開発会社、1億100万米ドルの資金調達 音声や動画モデルなど開発加速
https://www.itmedia.co.jp/news/articles/2210/18/news128.html
Stability AIのエマド・モスタークCEOは「AIが人類最大の課題を解決することを約束する。
しかしこれを実現できるのは、その技術がオープンで誰もがアクセスできる場合に限られる」
と主張。今後も生成系AIのオープンソース化を目指す姿勢を見せている。

かっこいい...

902 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:11:36.54 ID:0pJigVJ+.net
SDについて調べてもわからなかったので質問させてください

最終的には学習結果を用いてキャラクターAとBの2人がいる構図の画像を生成したいのですが
DBでAを学習したとして、同じモデルデータでBを学習させたい場合は
学習結果のファイルに追記という形になるのでしょうか?
それとも追記は出来ずに別の学習結果ができるのでしょうか?
別の学習結果のファイルを作るとしたら、同時に2つ以上の学習結果をロードすることは可能でしょうか?

903 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:17:17.68 ID:aNl7PeR+.net
>>901
お金の問題で普通の企業じゃ作れないSD公開は本当にありがたかったけど、今後も続くかは様子見しないとわからんよね
2.0をオープンにしたら手放しでカッコいいと褒められる
資金調達できたとはいえ、マネタイズの方針定まってないからクローズになるんじゃないかと心配

904 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:18:54.67 ID:+a8WOHE3.net
>>900
しばらく更新してなかったから気づかんかったけど既に設定でいじれるようになってたわ
その設定でOK

905 :名無しさん@お腹いっぱい。:2022/10/19(水) 01:34:07.52 ID:qwe7eRJ8.net
dockerを使っているのですが、新uiのbatch sizeを変えたいです。RTX3090Tiなら24ぐらいまでならいけるのに8に制限される…。2つ前のスレで以下の解決策が提示されてたけど…

[引用]
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker
docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings

○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。

1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
  例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
[ここまで]

これをやろうとすると、そもそも下記の文が無くなっています。
[docker-compose.yaml]
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings

- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json を上記2行があったはずの場所に挿入し、 /services/AUTOMATIC1111にui-config.jsonを置いてもエラーが発生してしまいます。docker辺り詳しくないので、詳しい人教えていただけると助かります。

906 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:07:20.38 .net
>>905
ざっと見た感じ、今は起動時に data/config/auto/ui-config.json に作成されるように見える。

907 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:35:43.49 ID:XotkVMWS.net
>>788
俺的hypernetworkの学習率の結論はこれだわ

908 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:36:47.49 ID:XotkVMWS.net
>>902
追記は出来るけどプロンプトの効きが弱くなるとは聞いた
あとkanewallmannのだと複数キャラ同時に学習出来る

909 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:54:09.68 ID:qwe7eRJ8.net
>>906
試してみます、ありがとうございます!

910 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:57:22.32 ID:JZ+Yd7tj.net
ドリブスのモデルデータダウンロード中に限界きてデータも消えた…

911 :名無しさん@お腹いっぱい。:2022/10/19(水) 03:01:33.61 ID:WflAELaT.net
モデルの保存先をグーグルドライブにしなきゃ

912 :名無しさん@お腹いっぱい。:2022/10/19(水) 03:08:03.30 ID:QBYhxeUI.net
今知ったけどこの無限生成できる裏技便利すぎだろ
このスレでも知ってる人いたんだね >>453
webページへの出力も一枚ごとだからGradioに大量表示されて負荷がかかる心配もない
https://i.imgur.com/R6kCtsS.jpg

913 :名無しさん@お腹いっぱい。:2022/10/19(水) 04:05:22.12 ID:0pJigVJ+.net
>>908
教えていただいてありがとうございます

914 :名無しさん@お腹いっぱい。:2022/10/19(水) 05:48:21.35 ID:PQV9Ke8W.net
Google Colab

OpenVINO


Docker


Anaconda
…etc

Diffusionの要求を満たさない環境でこれら組み合わせている人がいるけれど、実際どうなの?
Colabは使っている人多いらしいけど
それ以外でGPU環境が貧弱の場合どれがいいのかしら
例えばDockerだけど参考サイトをみると試している環境が普通に要求を満たしているPCで判別しにくいのよね

915 :名無しさん@お腹いっぱい。:2022/10/19(水) 08:44:26.07 ID:h/UtDtX1.net
Colabはクラウドコンピューティングだからローカル環境は完全に無視できるけど、残りは結局ローカルなんだから関係なくね?

916 :名無しさん@お腹いっぱい。:2022/10/19(水) 09:06:32.13 ID:LIPhQQnQ.net
colab以外は少なくとも低スペが解決策として使う手段にはならない

917 :名無しさん@お腹いっぱい。:2022/10/19(水) 09:23:04.06 ID:O5p02o0G.net
遊びならcolab
業務で使うならグラボ買え

918 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 918
249 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200