■ このスレッドは過去ログ倉庫に格納されています
【StableDiffusion】AI画像生成技術8【Midjourney】
- 1 :名無しさん@お腹いっぱい。:2022/10/10(月) 16:40:34.56 ID:EN25VE7L.net
- 入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ part6
https://mevius.5ch.net/test/read.cgi/illustrator/1665161807/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術7【Midjourney】
https://mevius.5ch.net/test/read.cgi/cg/1664695948/
- 2 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:03:55.87 ID:+XD7dv7a.net
- 各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう
- 3 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:54:40.11 ID:Gj1IXST8.net
- ワッチョイ派のお兄ちゃんお姉ちゃん達怖かった(´;ω;`)
- 4 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:56:16.00 ID:1bDnmn14.net
- https://rentry.org/sdg_FAQ#building-xformers
xformers導入方法のリンクが見つからなくて苦労したのでとりあえず張っておく
- 5 :名無しさん@お腹いっぱい。:2022/10/10(月) 17:58:42.81 ID:ZvhIqRE0.net
- curatedの再現できないなぁ
海外では再現法見つかってるんやろか
- 6 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:01:02.05 ID:gscUMfzz.net
- WaifuDiffusion 1.4 現在の進捗
https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae
から、kl-f8-anime.ckptをDLしてmodleフォルダに保存。
リネームして、wd-v1-3-float***.vae.ptに変えて、1111を再起動。
***は16とか32とかfull-optとか使ってるckptの名前に準じる。
で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のやり方っぽい。
- 7 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:05:07.03 ID:U+M/ykXy.net
- まともなの1枚も出なくなってしまった
- 8 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:07:28.11 ID:fzcab7+d.net
- xformersは古いGPUでやると逆に遅くなるな。最近のGPU専用か
- 9 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:08:28.72 ID:gscUMfzz.net
- うーん、まだ読みに行くだけって感じだな。
- 10 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:12:22.34 ID:1bDnmn14.net
- batファイル起動するとLoading VAE weights fromってメッセージが出るから読み込みはできてるけど
質的な違いは変わってないような気がするな
- 11 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:13:15.43 ID:EMyATYCl.net
- 調子乗って画像生成しまくってたけど電気代のことを考えてなかったから今震えてる
都合1000枚くらい生成したけどこれ何円くらい上乗せされるのかな
- 12 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:20:42.51 ID:fzcab7+d.net
- 1000枚程度なら百円行かないレベルじゃないの?
マイニングで一月フル回転してもグラボ一枚なら3000円位らしいし
- 13 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:23:26.75 ID:tixPEkND.net
- >>1乙
荒らし抑制効果があるのかは知らんけどNGしたいときにやりやすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずIDころころ変わっちゃったりするけど、ワッチョイあれば説明しなくても過去レスと同一人物であることを伝えられる
- 14 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:35:07.53 ID:vrG9EP2J.net
- NAIは判子絵しか出ない背景も殆ど描けない代わりにクオリティがクソ高い
WD1.2は暴れ馬な代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの?
- 15 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:36:28.67 ID:+Ij4h03E.net
- 例のまとめ(一部修正)
Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce
Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce
Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
Settingタブの [Stop At last layers of CLIP model] を 2 に
webui-user.batをメモ帳で開きオプションを追加
set COMMANDLINE_ARGS=
↓
set COMMANDLINE_ARGS=--xformers
比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg
比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2
- 16 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:45:03.32 ID:gscUMfzz.net
- Waifu Diffusion 1.3 Release Notes
https://gist.github.com/harubaru/f727cedacae336d1f7877c4bbe2196e1
promptの書き方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのpromptに書き方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。
1.4ではボチボチTrinartとのマージは意味なくなりそうだなあ。
- 17 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:45:14.46 ID:h4X7qE9c.net
- 素人考えだけど実行ファイルのサイズを10テラ位にすれば流出防止になんじゃね?
- 18 :名無しさん@お腹いっぱい。:2022/10/10(月) 18:58:04.09 ID:vrG9EP2J.net
- いくら何でもこんなに早く丸ごと流出して最初から説明書みたいのも付いてたってんだろ?
明らかに訴訟回避で自分たちで漏らしてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金殺到で社員全員一生遊んで暮らせる金稼ぎ終わっただろうし
- 19 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:01:38.28 ID:5cPe3xaV.net
- それなら今回の件と関係ないgptとかお漏らししないと思うけど
- 20 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:03:43.02 ID:ynEZ5O3d.net
- Stableさっき入れたけどエロに規制掛けてるってマジ?
改造でなんとかスルー出来るらしいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとして見つけてBANとかしてくるの?
つかオープンソースでBANなんて出来るの?
- 21 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:09:33.72 ID:+RuPmzAv.net
- >>11
契約にもよるけど電気代は1000Wh(1000Wを1時間付けっぱなし)で30円くらいだから
PCが333Wで回ると仮定したら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ
- 22 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:10:33.89 ID:lHTtdA8q.net
- >>20
とりあえずお前がよくわかってないってことはわかった
そして質問に答えようにも情報が目茶苦茶だ
何を見て何をどうやって導入したのかだけでも説明しろ
- 23 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:11:43.95 ID:Jaszf78g.net
- >>20
たぶん色々ごっちゃになってるな
エロ規制はほぼ正しい(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除ができるのも正しい
ネット繋げながらというより、Colabを使って生成して、Googleドライブに保存してる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライブに入れたらBANされた的な事例はあるらしい
SD自体とGoogle垢BANは無関係
という感じのはず
- 24 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:15:46.51 ID:lHTtdA8q.net
- >>18
さすがに説明書なんてなかったよ
結局基本がstablediffusionベースなので詳しい人が見ればすぐわかる代物だった、というだけ
- 25 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:28:24.64 ID:ynEZ5O3d.net
- >>22
>>23
https://nmkd.itch.io/t2i-gui
こっからSD-GUI-1.5.0をダウンロードして
エロ回避しようとみましたが
https://gigazine.net/news/20220903-stable-diffusion-safety-filter/
・ステップ2の
「txt2img.py」をエディタで開き、以下の行を探す(通常は309行目)
x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim)
が見当たらない…
- 26 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:35:28.08 ID:ynEZ5O3d.net
- https://i.gyazo.com/cc6c15cb8622f511b781727f5f926ecc.png
この中のにあるのどれもcheckedという文字すらHITしなかった…
- 27 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:36:50.79 ID:ynEZ5O3d.net
- txt2img.pyがスクリプトフォルダにないからダウンロードしてるverが違うんでしょうか
- 28 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:40:13.92 ID:qLVZxWBM.net
- >>25
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?
あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いやすくするために簡易アプリ化したものだと思って欲しい
本家のSDとは扱いがやや違うし、他の環境とも違いも多い
NMKDのようにローカルマシンに導入して動かすタイプのものは、インストール時以外は基本的にオンラインのやり取りがないのでBANという概念もないから安心していい
- 29 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:41:58.69 ID:+RuPmzAv.net
- >>11
ごめん最近の電力の単価は諸々含めると 35円/kWhくらいらしい
RTX3060で計算してみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算してみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20steps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力できる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50steps 512x768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる
つまり「画像1000枚当たりの電気代は、8〜32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな
- 30 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:42:52.11 ID:ynEZ5O3d.net
- >>28
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます
- 31 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:43:36.36 ID:4E2s8WMB.net
- >>25
gigazineの記事は一ヶ月以上前のだから古くなっているのかも
nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがあるし、ユーザーも機能も多いからそっちを使ってもいいかもね
- 32 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:49:04.54 ID:ynEZ5O3d.net
- >>28
んでこのファイルの中に>>6を入れれば日本の萌えキャラみたいなのが作りやすくなるよって事でいいですか?
その本家本元?は有料って事ですかね?
配布してるのはテスト版?
- 33 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:54:06.56 ID:+VC1PwwK.net
- >>29
ID変わってるけど親切に教えてくれてありがとう
大した額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ
- 34 :名無しさん@お腹いっぱい。:2022/10/10(月) 19:55:59.20 ID:WBulEFxq.net
- WD1.4に置いてあるvae導入してみた。
https://i.imgur.com/4FkWFuv.png
https://i.imgur.com/hkgXz1D.png
https://i.imgur.com/vpiCyhs.png
顔と手が改善された。色合いが薄くなって変わった。体型も改善された?
まだテスト段階だから良くなっていくと思われる
- 35 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:05:19.38 ID:r/AtNiCe.net
- >>30
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
>>23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわしくないものでもガンガン真っ黒にされる
- 36 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:05:28.82 ID:qLVZxWBM.net
- >>32
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気にしなくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売として使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる
ひとまず使う学習モデルに関してはここ読んで勉強してこい
https://gigazine.net/news/20221004-stable-diffusion-models-matome/
- 37 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:10:04.23 ID:gscUMfzz.net
- >>34
スマホ、かなり綺麗に持ってるね。
- 38 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:16:45.81 ID:pWFrk5Hs.net
- >>15
>>4に色々書いてあるけどxformerって書き足すだけじゃ導入できない?
>>4の手順を踏んでからbatファイルに書き足しでok?
- 39 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:20:14.87 ID:eaFbeTfF.net
- >>34
こっちはおっぱいダメよ
【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1665317109/
- 40 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:45:45.53 ID:fzcab7+d.net
- >>38
githubにあるモジュールのソースをコンパイルしてpythonの仮想環境にインストールしないとダメ。手順通りやるべし
- 41 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:49:34.11 ID:ynEZ5O3d.net
- >>40
難しいなぁ
zip解凍して場所指定してインストールとかじゃないんだ
youtubeとかに上がってないのかな
ニッチだから再生数稼げないのかな
コンパイルとか言われてもぷよぷよしか思い浮かばん
- 42 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:50:35.87 ID:ynEZ5O3d.net
- https://note.com/uunin/n/n725ae4601264
ここ見ながらやっていったら駄目?
一ヶ月前のだからこれも古いのかな
- 43 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:50:54.97 ID:5cPe3xaV.net
- xformers導入
手順通りやるだけだから何も難しいことはないけどね
- 44 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:52:11.96 ID:NG0XU+CV.net
- NMKDの運用できない奴すら惹き寄せるAIエロ絵の魔力恐るべし
- 45 :名無しさん@お腹いっぱい。:2022/10/10(月) 20:58:56.03 ID:/GYn74uZ.net
- Dreamboothの重ねがけで作りたい絵に近づけるらしい
特定の画風を学ばせた後で特定のキャラを学ばせるとか
やってみた人いる?
- 46 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:00:36.95 ID:fzcab7+d.net
- >>41
まぁxformersは高速化のモジュールだし無理そうなら別に無くてもいいんじゃないかな
- 47 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:01:53.73 ID:jDYsbSI7.net
- NMKD、初期の頃はともかく今はもうつまづく要素無いと思うが
それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってしまう
- 48 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:04:02.97 ID:rCxGwPTq.net
- >>45
dreambooth事態
ローカルで動かす為にはどれ使えばいいのか分からないな
- 49 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:05:50.33 ID:4HCwQqWR.net
- >>38
解説読んで動かないなら抜きでいいよ。同じ設定でもばらつきが出る軽減策でしかないから。
再現するだけなら hypernetworks も xformers もいらんって前のスレで言われてるしね
- 50 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:16:15.71 ID:WuZ5mE6I.net
- dreamboothのnum_class_imageって何しとるん?モデルの中からクラスのサンプルか何か取ってるのん
- 51 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:18:41.02 ID:jiS6TDQ/.net
- xformersの最も簡単な導入方法はRTX30x0を買うことだ
- 52 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:25:04.61 ID:5d7Si+yR.net
- >>42
さっきから色んな話がごっちゃになってるし、かなり理解出来てないぞ?
pythonだのなんだのはさっき入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強したほうがいい
そのnoteの記事もやや玄人向けだからド初心者にはすすめない
- 53 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:48:12.62 ID:ynEZ5O3d.net
- >>52
https://i.gyazo.com/ec19e96ed2896518647623efa1ad9246.png
その劣化版で遊んでるけど悔しくて泣きそう
- 54 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:51:37.93 ID:ynEZ5O3d.net
- >>34
見てやこれとの差
ふざけんな
壊されました楽しく遊べない
- 55 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:54:05.13 ID:EBDaR7Nm.net
- >>54
そもそもパラメータめちゃくちゃだしプロンプトもうちょい書けよ
- 56 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:54:09.56 ID:Jaszf78g.net
- >>53
可愛くて綺麗な絵がうまく出せないという意味なら、ツールじゃなくてプロンプトの問題だな
>>39のスレとか見てみ、めちゃくちゃ長いプロンプト書いてるだろ
- 57 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:54:54.47 ID:fzcab7+d.net
- >>54
既にgui使えてるならモデルファイル差し替えればいいだけじゃないの?あとプロンプトは工夫しないとwaifuでもいい絵でんぞ
- 58 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:56:15.23 ID:5d7Si+yR.net
- >>53
お前ホントなんも調べないし人の話聞かんなwww
まずモデルを調べて他のやつ導入せい
それモデルが普通のSDでしょ?
あとプロンプトの書き方も覚えろ
ていうか、もうちょっと勉強してこいwwww
さっきのギガジンの記事もっかい読んでこーーーい
- 59 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:58:02.76 ID:M5UKVyNQ.net
- ここまで調べる気がない奴はNAIだけやってればいいじゃん
- 60 :名無しさん@お腹いっぱい。:2022/10/10(月) 21:59:03.43 ID:nklInquz.net
- これならNAI使った方が早いだろうな
- 61 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:02:44.52 ID:eaFbeTfF.net
- なんかキレ方や日本語のおかしさ的に、大陸っぽい感じがするなw
- 62 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:03:43.36 ID:yYW88ItN.net
- >>15
Leak pt1から一通りファイルをコピーして
→1111を(最新版にして)再起動
をしても通常のAutomatic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの??
- 63 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:04:38.49 ID:nklInquz.net
- どうしてNAIの画面になると思った?
- 64 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:06:49.02 ID:gscUMfzz.net
- むしろNAIより1111のhi の方が使いやすくね?
- 65 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:11:22.22 ID:eaFbeTfF.net
- >>62
1111でNAIと同じことが再現できるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない
- 66 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:14:52.85 ID:gscUMfzz.net
- 良くあるのがclipモデルの設定を2にし忘れるやつだな。
- 67 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:17:40.59 ID:4E2s8WMB.net
- こっちもエロスレも、わけもわからずとにかくNovelAIを使いたい初心者のサポート部屋になっとるな
- 68 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:18:47.10 ID:eaFbeTfF.net
- いや、エロにきたらこっちに投げるわw
- 69 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:22:25.60 ID:4E2s8WMB.net
- ぜひそうしてください
向こうもついつい答えちゃってるからね
- 70 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:24:27.90 ID:gscUMfzz.net
- NAIは確かに比較的簡単に整った形は出るけど、そこそこ見栄えのするように持ってくの結構しんどいわ。
効くタグと効かないタグの落差が激しすぎる。
- 71 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:26:00.06 ID:SIqdTjiI.net
- >>48
これみてみぃ多分役立つよ
https://www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_in_under_8_gb_vram_and/
- 72 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:33:00.08 ID:jDYsbSI7.net
- >>53
NMKDはモデル選択に対応しているから、waifuもtrinartも使えるぞ。
ネガティブプロンプトやTIにも対応してるし。img2imgもできればインペイントもある
あと、どうやらpromptを勉強した方が良いから、とりあえず
https://lexica.art/ とか眺めて、真似しまくるんだ
- 73 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:55:36.23 ID:SIqdTjiI.net
- webuiのプルリクエストを見るとDreamboothについて話してるところがあった
もしかしたら追加あるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/2002
- 74 :名無しさん@お腹いっぱい。:2022/10/10(月) 22:57:12.95 ID:1bDnmn14.net
- StableDiffusionと同じ手法でドット絵だけ学習させたらどの程度の品質になるんだろうか
ごまかしが効かないぶんイラストと同じように上手くいかないかな
そもそも学習データが少ないか...
- 75 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:08:38.31 ID:hyUB8XNU.net
- automatic1111で生成した画像が30%ぐらいの確率で真っ黒なんだけどどうしてだ?
NSFWが働いてる訳では無いと思うんだが
- 76 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:19:09.57 ID:rCxGwPTq.net
- >>71
ありがと 読んでみるよ
- 77 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:20:33.21 ID:yYW88ItN.net
- >>62
自己レスだけどなんかおかしいと思ったら、
1111って普通settingっていう項目があるのな
俺の何でねえんだ…
https://i.imgur.com/v3ZiFUL.png
- 78 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:23:18.62 ID:fzcab7+d.net
- >>77
と言うかそれ1111じゃ無くない?画面違うぞ
- 79 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:31:57.44 ID:4DnQXICh.net
- >>77
おそろしく古いの使ってないか?
とりあえず最新版入れるとこからやり直せ
- 80 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:34:45.00 ID:rCxGwPTq.net
- 今のAUTOMTIC1111はこれだぞ
https://i.imgur.com/GvC6raO.png
- 81 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:43:33.79 ID:QfVBCRDE.net
- AUTOMATIC1111版をフォークしたやつじゃねえかなそれ?
- 82 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:46:12.65 ID:mjmpqPoH.net
- >>77
stable-diffusion-weuiフォルダで↓の呪文を実行だ。gitから入れてるよね?
git pull origin master
- 83 :名無しさん@お腹いっぱい。:2022/10/10(月) 23:56:08.51 ID:y6ZyfTo4.net
- >>80
モデル切り替えタブいつついた?
- 84 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:01:09.51 ID:eheI2hbr.net
- >>83
月曜未明のコミットにあるな
- 85 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:07:15.33 ID:f1GMUS3e.net
- 同じseedで同じプロンプトの「ikemen boy」と「kawaii girl」を入れ替えただけの画像を並べて生成するの結構楽しいな
色合いの配置とかはほぼ同じで、解釈が少しずつ変わってくるのがわかる
https://i.imgur.com/g7sFVVV.jpg
https://i.imgur.com/jUrzj20.jpg
https://i.imgur.com/QFVjZaD.jpg
https://i.imgur.com/66sZ2SF.jpg
https://i.imgur.com/bucRrCo.jpg
- 86 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:17:51.02 ID:WqXOCa52.net
- >>83
モデル切り替えると自動で読みに行ってくれるから
楽になったね
- 87 :名無しさん@お腹いっぱい。:2022/10/11(火) 00:20:52.02 ID:GcJsTdiu.net
- >>85
面白いな、兄弟姉妹作りたい放題じゃん!ほんと無限に遊べるな……
- 88 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 昨日colabの1111で画像生産出来るようになったと思ったら
今日また一回生産した後固まるようになってしまった…日替わりバグ多すぎんよ
- 89 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>77
hlkyにしか見えない
- 90 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:05:48.50 ID:Dj93+uNN.net
- NAIでのプロンプト強調の{}ってautomatic1111のほうではどうやればいいですか?
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて
- 91 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:11:08.80 ID:R5mTwYJe.net
- >>90
()でくくる
- 92 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:12:57.73 ID:++hbjAhe.net
- >>89
確かにhlkyだね
初期の頃しか使わなかったから完全に忘れてた
- 93 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:14:40.57 ID:tY8OtFws.net
- 強くしたいときは()弱くしたいときは[]
テキスト選択して↑↓キーで強弱変更が便利だからそれ使ったらいい
- 94 :名無しさん@お腹いっぱい。:2022/10/11(火) 01:22:04.86 ID:++hbjAhe.net
- >>75
グラボが結構ローエンドか
生成サイズが大きすぎるか
- 95 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:00:48.38 ID:GghQiVQz.net
- みんなAnimeイラスト系やってるかな?
写実系古い映画みたいなの出せるckptモデルってどれ使えば良いんだろ
- 96 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:36:40.91 ID:/XqKydHl.net
- SD1.4ってとこだろうなぁ。4chから比較借りてきた。
https://i.imgur.com/zucQVB6.jpg
- 97 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:50:32.48 ID:NtZIb7O5.net
- なんかxformersオプションつけて起動すると画像生成時にエラー出るようになったけどおま環かな
- 98 :名無しさん@お腹いっぱい。:2022/10/11(火) 02:56:23.49 ID:4tFLkTuy.net
- 1111でおかしくなるのはだいたい
ui-config.jsonとconfig.jsonが古いまま
上書きされないからね
- 99 :名無しさん@お腹いっぱい。:2022/10/11(火) 03:02:42.24 ID:B22SZBMX.net
- 1111は画像生成始める前にファイルチェックしに行った方が良い。毎日のように数時間前に更新されたって表示されてて新しくなってるから
- 100 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- ShivamShriraoのdreamboothってhugginghubにないモデルは学習できない?
ckptをdiffuser形式に変更したフォルダをpathにしてもhugginghubを見に行ってエラーが起っちゃう
- 101 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- もうそろwebuiにDreamboothが追加されそうだね、早く使ってみたいの
- 102 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:11:26.52 ID:JVAbuSU2.net
- webuiになくても適当に調べてやればいいのに
- 103 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:15:20.54 ID:mdKTXLOI.net
- VRAM足りない民は学習時だけColabo使え
- 104 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:30:46.91 ID:ZeUg+SCW.net
- 結局値上げしてもなおcolabが一番安いの?
- 105 :名無しさん@お腹いっぱい。:2022/10/11(火) 04:31:25.56 ID:/K0g0820.net
- おお、linuxでxformersのインストールがエラーになるなー、なんだろうなーと思ったら、ビルドツール入れてなかったわw
- 106 :名無しさん@お腹いっぱい。:2022/10/11(火) 05:39:04.51 ID:B22SZBMX.net
- 1111更新したら画風がめちゃくちゃ変わって昨日までのが再現できなくなった…
- 107 :名無しさん@お腹いっぱい。:2022/10/11(火) 05:39:29.34 ID:sR4uTrUi.net
- ここで聞くことじゃないのかもしれないですが
git pullしてもwebuiが更新されません
git入れる時点でなにかミスしてるんでしょうか
https://i.imgur.com/djE8kMJ.png
- 108 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:18:28.20 ID:iXYo6Vy0.net
- そこに出力されてる文を実行してもう一度pullしてできない?
- 109 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:19:45.99 ID:GUqR9G2b.net
- NovelAI Improvements on Stable Diffusion
https://blog.novelai.net/novelai-improvements-on-stable-diffusion-e10d38db82ac
急にオープンにするやん
- 110 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:21:58.72 ID:+lEh5vRR.net
- もう追うので精一杯でライフ0なんだが
- 111 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:26:10.33 ID:iXYo6Vy0.net
- >>109
草
- 112 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:33:25.70 ID:V9LPCIjp.net
- もう意味が分からないよ
- 113 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:36:06.75 ID:Zi63tt5A.net
- NovelAIもそのうちオープンソースになる…ってコト!?
- 114 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:41:52.90 ID:m9QnEdXo.net
- >>109
CLIPの最後の方のレイヤーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとした工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった
- 115 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:50:01.52 ID:GUqR9G2b.net
- 諸々あるが一番大きいのは「実装されてるハイパーネットワークはウチのkurumuzが頑張ったやつだよ」という主張だな
まぁええか
- 116 :名無しさん@お腹いっぱい。:2022/10/11(火) 06:59:51.31 ID:sR4uTrUi.net
- >>108
出来ました
初心者丸出しな質問すいませんでした
- 117 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:04:10.47 ID:CZ9nqGeN.net
- 52だか50gだかあるデータは使えるんか?
- 118 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:04:18.13 ID:P6z7GnyZ.net
- >>109
ワロタw
- 119 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:11:25.23 ID:eheI2hbr.net
- つまりハイパーネットワークは主にトレーニングの改善の為にあって
推論しかさせないユーザーにはあんまり関係ないって事なのかな?
- 120 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:12:41.26 ID:m9QnEdXo.net
- WD1.4はNAIの手法を確実にパクってくるんだろうな
- 121 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:20:32.24 ID:qgCnfGsM.net
- >>109
> During the early days of Stable Diffusion development before the launch,
> we were given access to the models for research purposes.
なんで発表前のStable Diffusionにアクセスできるの
NovelAIとStability AIってガチで繋がってるのか?
- 122 :名無しさん@お腹いっぱい。:2022/10/11(火) 07:54:35.94 ID:m9QnEdXo.net
- NAIはNvidiaとも協力関係にあるし何のことはない
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでしょ
その神輿としてSDが使われだけで
- 123 :名無しさん@お腹いっぱい。:2022/10/11(火) 08:02:49.84 ID:GUqR9G2b.net
- >>121
少し前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけやね
MLではわりと一般的
- 124 :名無しさん@お腹いっぱい。:2022/10/11(火) 08:46:38.15 ID:TIoWKPgl.net
- >>122
さすがにその話はこっちでやってくれ
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/
- 125 :名無しさん@お腹いっぱい。:2022/10/11(火) 08:59:44.98 ID:nhKOmsix.net
- お、和製クリーンデータ版の画像生成AIも結構形になってきてるな。
どうなるかは分からんが、選択肢が増えるのはいいことだ。
- 126 :名無しさん@お腹いっぱい。:2022/10/11(火) 09:07:40.45 ID:ZeUg+SCW.net
- 表面上は有難がるけど、結局バカ正直な初心者しか使わん奴
- 127 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>15
そいつのLeak Pt2は何に使うんだ
容量がPt1の4倍くらいあるけれど
- 128 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 開発向けやろ。リーク1でも実際に使うの一部だけで、あとはgit丸コピとかepいくらみたいな途中経過ファイルばっかだったし。
- 129 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- furryが入ってないやん…
- 130 :名無しさん@お腹いっぱい。:2022/10/11(火) 09:35:18.76 ID:R5mTwYJe.net
- NovelAIの売りだった同一タグで同キャラ生成っていうのもVAEの恩恵なん?
- 131 :名無しさん@お腹いっぱい。:2022/10/11(火) 09:59:28.66 ID:Q5NSJg+e.net
- >>94
グラボは3090だから生成サイズが大きすぎるのかな
ありがとう
- 132 :名無しさん@お腹いっぱい。:2022/10/11(火) 10:04:52.36 ID:IHfd6I9L.net
- Euler aでもNAIエミュレート成功したのね
- 133 :名無しさん@お腹いっぱい。:2022/10/11(火) 10:38:55.42 ID:m9QnEdXo.net
- AIが描けない難しいお題出すと無理に描かずにスパッと消してくるの人間みたいだな
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消して裸にしたり
ダンボールの該当タグが乏しい背景を指定するとただの壁を描いてきたり
手も後ろに隠しまくるしな、学習元画像では上手い絵師ほど手を強調してるのに
- 134 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:14:56.39 ID:pCQDwfS5.net
- どっちのスレでも一人でひたすらブツブツやってるこのキチガイは誰が連れてきたんだよ
- 135 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:36:49.92 ID:UkKl3ah7.net
- >>74
いらすとやの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意できれば可能だと思う
- 136 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:43:40.55 ID:A1RFlDJ+.net
- MacBook のM1MAX(32gb)を持っているのですが、それで生成とか学習するって3060に比べてどれくらい違いがありますか?
- 137 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:45:54.48 ID:JmTqeuuH.net
- 案ずるより産むが易し
- 138 :名無しさん@お腹いっぱい。:2022/10/11(火) 11:51:45.92 ID:29Udd4W/.net
- これ見る限り6~7倍くらい遅い?
その後最適化されても少し早くなってるかもしれんけど
https://twitter.com/atyenori/status/1571440021219192832
(deleted an unsolicited ad)
- 139 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>74
素人がcolabでTIさせただけでもこのレベルだから
多分余裕で商用レベルに行ける
https://i.imgur.com/RqrhRR7.png
- 140 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- Torrentが99.9%で止まったけどこのまま使っておけ?
- 141 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- まだ終わってないからマテ
- 142 :名無しさん@お腹いっぱい。:2022/10/11(火) 12:35:04.31 ID:c2af8446.net
- >>139
これで商業に使えるかどうか判断するのは難しい...
古いソフトからドット絵をぶっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう
- 143 :名無しさん@お腹いっぱい。:2022/10/11(火) 12:38:09.87 ID:gWiio3Zh.net
- >>141
待てなかった
novelaiぽい絵は出たのでヨシ!
- 144 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:14:12.43 ID:c2af8446.net
- DeepDanbooruが使えるようになったね
webui-user.batのCOMMANDLINE_ARGSに --deepdanbooruを追加して起動するだけ
- 145 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:16:56.02 ID:WqXOCa52.net
- >>144
今朝更新した時は ボタン増えてなかったなぁ
- 146 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:18:06.01 ID:eiVrWGXv.net
- ギフハブのEmuのページ更新されてcuratedが部分的にローカル再現成功ってなってるな
- 147 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:20:35.51 ID:nhKOmsix.net
- >>145
コマンドスイッチ追加してからじゃ無いと出てこないよ
- 148 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:20:39.91 ID:tOWGF529.net
- 日進月歩っぷりが違う世界を早送りで見てる感じになってる
- 149 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:21:01.31 ID:GcJsTdiu.net
- 昨日の夜更新したらちゃんとInterrogate DeepBooruボタン増えてたよ
ただDeepBooruモデルがVRAMを少し占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらしい
Settingsのアンロードの設定が効いてないのか、それとも報告した人がその設定外してたのか、まあバグでも近いうちに修正されると思うけど
- 150 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:24:49.44 ID:nhKOmsix.net
- 1.3のタグの書き方が今までと全然違うのでダンボール語録はかなり助かる。プロンプト画面見ると重みまでわかるので、切り捨てにも便利
- 151 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:26:21.85 ID:c2af8446.net
- Deepdanbooru↔img2imgで似たような絵を量産できるんだな
これは捗る
- 152 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:32:30.62 ID:eiVrWGXv.net
- そのうちAIで生み出したオリジナルキャラの絵量産してそのキャラでトレーニングして簡単に再現可能とかならんかなぁ
- 153 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:34:58.42 ID:nhKOmsix.net
- NAIは同じようなキャラを出すのが得意なので、それで何枚か出してdreamboothでトレーニングさせてWaifuで出すとかすれば結構良い感じに出来そうな気もする。
- 154 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:54:44.77 ID:JMiJJVxH.net
- マイニング対策のLHRって画像生成には影響ないんだよな?
- 155 :名無しさん@お腹いっぱい。:2022/10/11(火) 13:55:41.85 ID:WqXOCa52.net
- >>147
あぁ
START_webui.batの方に追加したらいけたわ
- 156 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:04:13.70 ID:2pAHsrFx.net
- >>154
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ブラックボックスなので断言はできないが……
- 157 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:06:49.73 ID:++hbjAhe.net
- >>155
あー、スタンドアローンのやつかw
ひっかかるやつ多そう
- 158 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:09:15.23 ID:rM2ZLnI2.net
- >>155
貴重な情報ありがとう
- 159 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:22:15.03 ID:nhKOmsix.net
- NAIはhypernetを活用したV2を作ってるのか。
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みしてる間にオタ版のSDフォークがすごいバトルになってきたな。
とりあえず、Haru頑張れ。
- 160 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:27:22.78 ID:B22SZBMX.net
- AI周りの動きって全部金儲けのためにやってる事やで
- 161 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:29:48.84 ID:mWgLOeQI.net
- 昨日から触り始めた初心者です(AUTOMATIC1111版UIでローカル動作)
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとしたらどこのスペックに注目するといいでしょうか
例えばCUDAコア数が同じ3050に入れ替えたとして、tensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな
- 162 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:36:06.13 ID:CZ9nqGeN.net
- ここはNMKD民は少ないのだろうか
楽だなぁ思って導入してみたが
- 163 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:39:33.95 ID:iXYo6Vy0.net
- たまげたなぁ〜 ノベカスくんよぉ
- 164 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:47:35.75 ID:c3YuwZCn.net
- SDやデフォルメにmasterpiece入れないほうが良いな
- 165 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:47:51.11 ID:++hbjAhe.net
- >>161
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のところは
劇的な差を感じたいなら3090かねぇ
- 166 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:50:49.20 ID:F5ILH/Iq.net
- >>162
いるよ
俺も楽だから導入したけどちょっと遊んで放置したままだ
真面目なやつは学習データの改良とかやってるんだろうけどな
- 167 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:52:23.57 ID:nhKOmsix.net
- メモリも重要だけど、実行速度もやっぱ大切だからなあ。
1111のおかげで、トレーニングしないで学習させるだけなら言うほどメモリも必要なくなってきてはいるし。
ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな……
- 168 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:54:22.98 ID:RtwaYqst.net
- >>161
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ
更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増やせて同時に何枚も生成出来るし、TIやDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関しては、VRAM12GB以上を見据えるとどうせRTXになるしそこまで気にしなくても
>>165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな
- 169 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:56:11.19 ID:tOWGF529.net
- 3060がおすすめされる世の中になるとか3ヶ月前には思いもしなかった
- 170 :名無しさん@お腹いっぱい。:2022/10/11(火) 14:57:07.33 ID:nhKOmsix.net
- 3070Tiでむせび泣いてる。
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早いし。
- 171 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:02:44.60 ID:c2af8446.net
- 数年スパンだと画像生成のアルゴリズム自体が大きく変化するかもしれないからこれが正解ってのは言いづらいんじゃないかな
- 172 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:08:55.53 ID:LaP0GiJC.net
- 早いとこAMDもROCmを発展させてくれないもんかね
MacどころかWindowsですら使えないんだが
- 173 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:09:57.68 ID:2pAHsrFx.net
- もしFP8が活きてくるのなら既存のグラボではRTX40xx系列に太刀打ち出来ないからな
急ぎで買い替えるのならRTX3060に留めておくのが間違いない
- 174 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:09:57.92 ID:WqXOCa52.net
- 3070tiからは
DDR6Xだから 生半可なクーラーじゃ死ぬぞ
- 175 :名無しさん@お腹いっぱい。:2022/10/11(火) 15:14:41.68 ID:mWgLOeQI.net
- >>165,168
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試しで触ってみて久々にグラボ更新しようかなと考えだしたので助かりました
- 176 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:18:29.84 ID:CZ9nqGeN.net
- 腹が立つ
ゴミPCなのかCUDAが対応していない…のか?
Intel HD Graphics 5000
これなんだが
CUDAぶち込もうとしてDOS窓で確認してみたが反応ないし
課金とかしたくねえ
- 177 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:24:56.34 ID:CZ9nqGeN.net
- 自己解決したサポートしてねえ
もう決めた
二度とラップトップ買わないことにするわ
- 178 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:25:52.59 ID:c3YuwZCn.net
- そもそも理解してなくて草
- 179 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:27:04.28 ID:nhKOmsix.net
- CUDAはnvidiaさんの専売特許だから……
radeonさん頑張れ。
- 180 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:30:42.03 ID:CZ9nqGeN.net
- というより、CUDAのツールキットはインストールできることはできるんだよな
(インストールした体になっているが機能しているとは言っていない)
fuck!!!!!!!
- 181 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:31:51.49 ID:JmTqeuuH.net
- NMKDでなにが不満なのだろうか
最近ネガティブプロンプトも実行できるようになったぞ
- 182 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:39:12.93 ID:SNYTfBwu.net
- 流石に絶許狙いだろ
情弱がわざわざこんなこと言わない
- 183 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:41:34.80 ID:HMl0Y+Qw.net
- Intel HD Graphicsってw
- 184 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:53:08.64 ID:Zi63tt5A.net
- 久しぶりにcolab使ってみたら一瞬で規制されたわ
以前より厳しくなったか?
- 185 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:57:43.41 ID:CZ9nqGeN.net
- エロしかやらん、やりたくない
colab:規制される
novelAI:課金したくない
novelAIの中国版?:怪しい
ローカル:CUDAインストールできない
終わる
オンラインでできるので遊ぶしかないのか
- 186 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:58:55.72 ID:AloA+G1f.net
- 勝手に期待して勘違いで失望されるIntel HD Graphicsがかわいそう
- 187 :名無しさん@お腹いっぱい。:2022/10/11(火) 16:58:58.37 ID:gMGAc8Wj.net
- WD1.3は直接的な性表現つよくなった?
- 188 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:05:16.84 ID:CZ9nqGeN.net
- もうおこった象
落とせるもの落として準備しておく
呪文の素振りしまくることにきめた
- 189 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:15:49.44 ID:x2SYJ+vG.net
- >>185
colabでノートブックにbase64として埋め込まれる画像は検閲されないと思う
- 190 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:16:51.90 ID:nhKOmsix.net
- ANDが全然上手く動いてる気がしない……なんか追加のオプションとかあるんかいな
- 191 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:16:59.45 ID:CZ9nqGeN.net
- 諦めきれん
ZLUDAてのを使って・・
だめか
- 192 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:17:16.83 ID:lWaEbqhF.net
- というか、CPUで動くの使えばいいのでは……?
- 193 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:17:51.77 ID:CZ9nqGeN.net
- >>189
そもそもgoogleアカウント持っていない
電話認証突破できんしな
- 194 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:19:17.93 ID:P6z7GnyZ.net
- 金もねえgoogleアカウントもねえ
なんだねチミは
- 195 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:20:33.57 ID:RqAFkfWi.net
- さっさとGeForceのPCかえよ
- 196 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:22:17.23 ID:SNYTfBwu.net
- 明らかにネタなんだから無視しろよ
邪魔
- 197 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:23:50.39 ID:JmTqeuuH.net
- NovelAIって無課金でもある程度動かせるのでは?
- 198 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:26:39.83 ID:nhKOmsix.net
- 無理。課金しないと、一才画像は使えない。
- 199 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:29:19.26 ID:c2af8446.net
- ワッチョイいるんじゃないですか?
- 200 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:34:04.53 ID:CZ9nqGeN.net
- >>194
生活保護と発達障害だが
今月の障害年金でPC買えそうではある
- 201 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:34:52.89 ID:gMGAc8Wj.net
- 850ぐらいなったらまたワッチョイ話題出て
それぐらい辺りで次スレ立て前に決めればいいんじゃない?
- 202 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:35:27.97 ID:CZ9nqGeN.net
- 中華のがあるはずだが利用しているツイートがあまりない、ほぼない
- 203 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:39:45.48 ID:ZeUg+SCW.net
- そういえば中華制waifuも一瞬流行ったな
ckpt配らないから一瞬で消えたけど
- 204 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:40:03.16 ID:xVFCPwqB.net
- >>197
文章なら書ける
- 205 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:46:10.89 ID:CZ9nqGeN.net
- 困ったなあ
intelGPUが何悪いことしたってんだ
CUDA入れるだけいれて、
しかもアンインストールするときは個別にコントロールパネルから消していくとかどんだけやねんなぁ
無料でエロを。
無料でエロをしたい
- 206 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:47:38.56 ID:ANbGNzr9.net
- CUDAコアはNVIDIAのGPUにしか積まれてないから物理的に無理
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え
- 207 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:52:48.04 ID:SNYTfBwu.net
- なんで無視できないの?
まぁ俺も荒らしを無視できない奴を無視できてないんだけど
- 208 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:54:11.93 ID:CZ9nqGeN.net
- >>206
年金まであと3日
我慢できないンゴねえ
>>207
どうした?
というかお前がまず無視できていないだろう
ぐう無能
- 209 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:54:44.97 ID:Xc5wtwxO.net
- このアプリ使う上で3060tiってコスパ何点ですか
- 210 :名無しさん@お腹いっぱい。:2022/10/11(火) 17:57:47.97 ID:ANbGNzr9.net
- >>208
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え
- 211 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:00:12.91 ID:nhKOmsix.net
- 4080が出るから、それの乗ったPCを買うんだ。4090でも良いが、これ載ったのBTOで出るかな?
- 212 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:00:23.36 ID:CZ9nqGeN.net
- せや、ワイ生活保護ナマポやから非課税世帯給付金5万また来るんや
というかモニターは既にあるからええわ
むしろマウスやキーボードもいらん
pcやけどbtoでいくかパーツ集めて組むかやなぁ
- 213 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:05:06.74 ID:ANbGNzr9.net
- >>212
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成したいのでNVIDIAのグラボ積んでるやつください」っつって予算ギリギリのやつを選んでもらえ
- 214 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:10:53.47 ID:Y/+qAYDf.net
- >>209
40点
4080もコスパ悪いだろ
4090なら一気にできること増える
- 215 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:17:19.65 ID:VktYYArG.net
- >>209
30x0の中でワットパフォーマンスは一番良いし、発熱もデュアルファンモデル選ぶだけでクリアできる程度だから、長時間ブン回す用途なら最適まである。
- 216 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:18:50.14 ID:eheI2hbr.net
- 出来る事増えてもやらんかったら意味無いし何をもってコスパするかだな
AIで画像適当に吐くだけなら60で十分だと思うが
- 217 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:25:56.91 ID:mq6SWHcu.net
- >>211
4080買うくらいなら3090買うか、もう少し金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだいぶ違う
ゲーム用途ならいいんだろうけど、画像AIにはだいぶコスパ悪い
- 218 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:35:41.67 ID:bQ/h7hWY.net
- 10日くらい前にwaifu使ってdreamboothしたらめちゃくちゃ出来よかったんだけど、ここ何日か1.3でやっても全然良い結果にならない
ワンチャン、モデルの違いかなと思って検証したいんだけど1.2ってどっかに落ちてるかな?
- 219 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:39:17.17 ID:gMGAc8Wj.net
- huggingfaceにおいてあるぞい
- 220 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:39:40.17 ID:bn6ltzAi.net
- 1111更新したらwd-v1-2-full-emaが読めなくなってるけど何でだ…
- 221 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:42:48.97 ID:bQ/h7hWY.net
- >>219
あれ?hakureiのはもう1.3に更新されてるよね?
それともjcplusってやつか
- 222 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:47:03.43 ID:ZeUg+SCW.net
- 4090買えば色々出来るようになるけど、
3Dモデリングもゲームもやらないからエロ画像以外の用途がない
そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイトや出版社が速攻食いつくと思ったのに
- 223 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:48:32.79 ID:gMGAc8Wj.net
- https://huggingface.co/hakurei/waifu-diffusion
これを
https://note.com/npaka/n/ne3f3316b8dad
で変換するか
https://huggingface.co/crumb/pruned-waifu-diffusion
これ(これは変換方法の問題でちょっとオリジナルと違うらしい)
- 224 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:49:07.98 ID:ZeUg+SCW.net
- >>211
今のところはVRAMが最優先事項だから3090にしろ
電気代は知らん
- 225 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:50:41.61 ID:iXYo6Vy0.net
- >>218
DreamBoothって学習に使ったmodelじゃないと動かないんじゃなかたっけ?
- 226 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:51:56.37 ID:gMGAc8Wj.net
- DBは元モデル内包のckptファイルになる
TIは学習方法である程度汎用性ある(ない場合もある)
- 227 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:55:46.53 ID:BBUpK2cF.net
- グラボに関する個人的な見解はこんな感じ
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090
- 228 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:56:44.78 ID:eheI2hbr.net
- VRAM大量に使うのって学習する時だけじゃないの?やらん人には要らんでしょ
- 229 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:57:50.76 ID:UFVvvgHt.net
- fine tuningぐらいならcolabかその辺でよかろう
- 230 :名無しさん@お腹いっぱい。:2022/10/11(火) 18:58:13.26 ID:bQ/h7hWY.net
- >>223
これって1.3のモデルじゃないのん
ファイルにもWD1.3て書いてるし
- 231 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:00:06.61 ID:AloA+G1f.net
- エロ絵が作りたいだけの男に4080だ4090だと薦める鬼畜スレ
- 232 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:03:36.60 ID:gMGAc8Wj.net
- >>230
1番上はコミット履歴に1.2も含まれてる(古いヤツを頑張って落として)
3つめは1.2のcpkt変換して余分なやつ削ったやつ
- 233 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:04:15.27 ID:cYZxoNFI.net
- 3060のコスパが素晴らし過ぎるから当面は十分だわ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れして投げ売りに近い状態になったタイミングの3090だけは狙い目
- 234 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:06:02.42 ID:bQ/h7hWY.net
- >>232
親切にありがとう
探してみるわ
- 235 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:07:05.18 ID:OaRMwoWU.net
- >>222
AIに学習させるプロンプターを募集してる企業ならあるけどな
- 236 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:09:21.80 ID:VWEX5mCS.net
- あれ、stable-diffusion-webuiを更新したら、昨日まで動作してた
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻したらまた動くようになったけど
- 237 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:10:49.71 ID:4tFLkTuy.net
- >>236
>>98とか?
- 238 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:21:20.70 ID:mUV+ns7j.net
- 前スレにあった翻訳ボタンをTampermonkeyスクリプト化してみました
https://github.com/hetima/SD-JE-translate
- 239 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:22:18.14 ID:CZ9nqGeN.net
- ワイ3Dモデリングするしそろそろ買い替えかなと思っていたからAIのお蔭で買う気になった
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ
- 240 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:27:35.39 ID:WJDFfila.net
- novelai公式でオープンソースばら撒きらしいな
エグいことやるでほんま
- 241 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:30:13.29 ID:mHSrToGr.net
- 正味AI自体を商売にするのもう無理そう
- 242 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:30:16.03 ID:++hbjAhe.net
- >>228
VRAMは結果的に生成の速度に大きく関係してる
- 243 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:33:25.62 ID:BBUpK2cF.net
- >>239
3Dモデルやるなら、BlenderのテクスチャをAIで生成できるプラグインとかあるから調べてみるといいぞ
- 244 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:36:04.46 ID:HMl0Y+Qw.net
- 25ドル涙目
- 245 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:39:29.50 ID:w27UG8fH.net
- >>237
うちはクリーンインスコしないとそれではダメだった
- 246 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:47:21.76 ID:xfwneuFr.net
- >>240
マジでどこで言ってる?
- 247 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:48:39.72 ID:mHSrToGr.net
- >>246
https://six-loganberry-ba7.notion.site/22-10-10-Emad-aae60a74858a4f52ab453aab7f4e3a1e
- 248 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:51:07.38 ID:Y/+qAYDf.net
- 誰がそんな話信じるんだよ
25ドル払った奴らにどう説明すんねん
- 249 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:52:41.16 ID:mHSrToGr.net
- オープンソース公開(半年後)みたいなのはありそう
- 250 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:53:06.45 ID:WJDFfila.net
- emadの発言でテキストから動画も年内に発表できるって凄いよな
オープンソース化は来年かもしれないけど本気でクリエイティブ職はAIと向き合わないとヤバイ
- 251 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:53:07.87 ID:6YYv3EfZ.net
- VER2はクローズドってことだろう。VER1は宣伝を兼ねてオープンソースで。
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね?
- 252 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:53:57.02 ID:6YYv3EfZ.net
- そろそろ、AIがフォトショとかイラレとかみたいなものっていうマインドチェンジしてかないとキツそうだな。
- 253 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:54:16.04 ID:xfwneuFr.net
- 一旦流出するともうどうしようもないから、ばら撒くことにしたのかな
>>247
ありがとう。あいつらライセンス違反やってたのか。
- 254 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:55:41.07 ID:HsAWRd20.net
- 25ドルで先進技術を先行体験できたと思ってくださいwくらいの説明でいいだろ
契約文書に存在しない客のお気持ちに忖度する日本とは違うんだ
- 255 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:56:14.64 ID:29Udd4W/.net
- これバージョン上がったら同じせっかくガチャ回して見つけた神seedも無意味になるんだよな?
- 256 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:57:17.34 ID:WJDFfila.net
- ローカルで動かすのは想像より面倒だしそれなりのスペックいるしブラウザから手軽に出来る体験に金払う価値はあると思うぞ
- 257 :名無しさん@お腹いっぱい。:2022/10/11(火) 19:59:11.54 ID:6YYv3EfZ.net
- >>255
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckptまで、ちょっとしたことでガラッと変わる。
- 258 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:08:34.55 ID:+IYEg037.net
- 実質レンタルサーバーも込みなわけだし25ドル程度でグチグチ言ってる奴しょーもなすぎる
流出してくれたおかげで俺たちはめっちゃ得してるんだし
- 259 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:09:50.36 ID:Cn6wuu2U.net
- deep段ボールって
Interrogate CLIPってボタン?
- 260 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:12:36.88 ID:29Udd4W/.net
- いやまあそこら辺はNAIでもユーザーが調整出来る範囲だけど裏でモデルのバージョン自体更新されたらどうしようもないよなぁと
そこら辺全部管理したいなら今後はローカル版で回したほうが良さそうだな
- 261 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:14:33.69 ID:VWEX5mCS.net
- >>245
うちもui-config.jsonとconfig.jsonを消しただけじゃいかんかった
最新Ver使えないのもあれだし、クリーンインスコまたするかなぁ
- 262 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:22:16.80 ID:c2af8446.net
- https://discord.com/channels/1015751613840883732/1019290161420435568/1029241599223402566
こんにちは、ついに皆さんにご紹介します。
皆さんご存知ないかもしれませんが、私はgoogleのimagen(https://imagen.research.google/video/)に似たアーキテクチャでビデオ生成の学習を行おうとしています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、しばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るしかない。構築方法は以下の通りです。
アニメのエピソード -> アニメのLFD顔検出器 -> 検出された顔を切り出したビデオ -> 64x64ピクセルで合計20フレームにリサイズ
そして、お察しの通り、データセットのデータの中には、動かず、何もしない静止画の顔が大量にあります。これらをすべて削除したいのです。
そこで、皆さんにお願いがあります。
データセットのキュレーションを手伝ってくれませんか?どれくらいの時間を費やせますか?データが良いか悪いか、2つのキーを押すだけで良いのです。
リレーチャットで回答
なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成できる数少ないものの1つです。
なぜもっと解像度を高くしないのか?
ハードウェアの限界
もしこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもしれません。私が聞いたところでは、Stabilityはtext2videoモデルの計画を持っているので、それが出てきたときにそれを微調整するためのデータセットが用意されているとよいでしょう。
アニメ版imagenを手伝う人募集してる
質はわからんがアニメ版の動画生成も近いな
- 263 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:26:02.30 ID:t2JQ2Rdx.net
- >>236
うちではvenv消して作り直させたら動いた。
細かいバージョンが狂ってるのかも。
- 264 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:28:38.54 ID:Y/+qAYDf.net
- しれっと追加されてたsamplerのパラメタ設定でもかなり結果が変わる
AI絵なんて一期一会の気持ちでやらないと気が狂いそう
- 265 :名無しさん@お腹いっぱい。:2022/10/11(火) 20:40:47.42 ID:m9QnEdXo.net
- 何で神seedだと多少違うプロンプトでもいい絵になるのか不思議だ
- 266 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:23:33.24 ID:gMGAc8Wj.net
- deepダンボールはメモリどれぐらいいるんだろ
- 267 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:25:52.28 ID:6YYv3EfZ.net
- なんていうか、seedって実はある程度情報の詰まったpromptのハッシュのようなものではないかって気がしてる
たまにwater paintから別の塗りに変えて回し直した時に同じseedのままだと何故かwater paintっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はpromptのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想してる
- 268 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:27:56.45 ID:OKWzXzG8.net
- 画像生成数を4枚にしようとしたらこんな表示が出てきて困った。
「アプリケーション エラー: クライアント側の例外が発生しました (詳細については、ブラウザー コンソールを参照してください) 。」
あとサブスクを更新しようとしたら
「エラー メッセージ:NotFoundError: Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.」
って出てくる。
chromeのGPU支援をオフにしたりして一度収まったかと思ったけど再発してる。
だれか解決方法わかる?
- 269 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:38:31.83 ID:eheI2hbr.net
- >>267
またオカルトか。ソースりゃわかるでしょ。
torch.randn()で生成するただの乱数だよ。プロンプト関係ない
- 270 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:43:22.14 ID:m9QnEdXo.net
- 偶然情報を持っているかのような癖のあるシードは俺も遭遇した
奇跡の一枚が出たときにプロンプト少し変えて出力すると何故か元のプロンプトの影響が少しだけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致したときに奇跡の一枚が出やすいのでは?と踏んでる
- 271 :名無しさん@お腹いっぱい。:2022/10/11(火) 21:50:09.83 ID:x2SYJ+vG.net
- GIMPでそのシードのノイズ作ってみてください
そしたら何かが見えてくるはずです
- 272 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:01:09.93 ID:oKx/eDyV.net
- 前から妄想でAIの仕組みを勝手に解説してくる句点使い君が住み着いてるからな
何の証明もせずにただ妄想をたれ流すだけ
キャッシュされてて前の生成結果を引き継ぐとか言ってたのもこいつ
- 273 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:10:32.94 ID:nKKPAe0W.net
- ステップ数って闇雲に最大で良いのかな。そのほうがいい絵ができると思って最大にしてるんだけど、
- 274 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:11:13.87 ID:nKKPAe0W.net
- >>273
ステップ数多いとデメリットあったりする?
- 275 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:18:03.07 ID:1p0zySTV.net
- https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017
ローカルでカッコで強調する時にカッコの前にバックスラッシュを置くと良いらしい
- 276 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:19:56.95 ID:mHSrToGr.net
- >>274
時間がかかる
- 277 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:20:28.18 ID:Y4JtovpP.net
- 画像に何らかフィルタリングしたものをノイズとして使えば新しい方式のimg2imgができるのでは?と夢想したことはある
- 278 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:21:50.31 ID:GJPpDEKo.net
- >>274
デメリットは時間と電気代ぐらいか。メリットもたいして無い。
50~60できれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う
- 279 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:26:11.69 ID:6YYv3EfZ.net
- サンプラーでも結構違う気がする。DDIMだと20〜30で結構綺麗に出る。50以上は出力の解釈が変わらない範囲ではもう誤差な気がする。
- 280 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:32:28.92 ID:+OwR5sq1.net
- NAIって新規登録再開してる?
- 281 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:46:52.14 ID:j3ZHYBkl.net
- >>277
以前そう思って試したんだけどただフィルタ処理されたものを返しただけだった
- 282 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:47:08.22 ID:NtZIb7O5.net
- xformersオプションつけるとエラー出るやつ
pipでxformersアンインストールしてから再起動したら再インストールされて直ったわ
- 283 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:49:32.41 ID:nKKPAe0W.net
- >>276
>>278
>>279
ありがと。あげすぎてもあんま意味ないのね。 50~60あたりでいい感じのところを調節して探してみる
- 284 :名無しさん@お腹いっぱい。:2022/10/11(火) 22:54:06.88 ID:j3ZHYBkl.net
- img2imgで低strengthだとノイズ載ってしまうけどstep上げると少しだけ下げられる気がする
そういうときに普段より上げるのは効果あるかもしれんよ
- 285 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:07:01.75 ID:SNYTfBwu.net
- >>275
NAIモデルは()認識してない気がするけど
- 286 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:25:55.37 ID:oKx/eDyV.net
- >>285
NovelAIのUIだと強調は{}で()はそのままテキストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)としてエスケープしてやって()をテキストエンコーダーに渡してやらないと再現できないという話
- 287 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:39:38.20 ID:SNYTfBwu.net
- いやWD1.3の仕様みたく認識されない気がするって話なんだけどなぁ
- 288 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:40:18.59 ID:euFxIGy0.net
- 1111のweb uiを導入したところなんだけど
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成した場合に一枚毎に違うフォルダに指定して「save」とかは出来ない感じ?
- 289 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:44:04.26 ID:SNYTfBwu.net
- よく言われてるけどGradioが重すぎて辛いわ
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれやったらもう
- 290 :名無しさん@お腹いっぱい。:2022/10/11(火) 23:46:31.55 ID:GcJsTdiu.net
- まとめて出すとめちゃくちゃ重いよな
数十枚出したら最後に1枚だけ出し直して軽くしてるわ。不便
- 291 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:24:29.49 ID:tnkHPKBn.net
- >>288
↓ここ
Output directory for images from extras tab
- 292 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:30:54.08 ID:dOKrPM1J.net
- >>291
なるほど、エクストラへ一枚ずつ送ればいいのか
ありがとう
- 293 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:33:12.32 ID:oslN2U1X.net
- 正直な話、絵はもういいからさっさと動画生成に行って欲しい
まあ現実みたいな写真出せるなら欲しいけど画像生成は正反対の方向に行ってしまってるしな
- 294 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:35:52.15 ID:0zPfU5+P.net
- フォトリアルはSD1.5が頑張るっしょ
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてるし
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど
- 295 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:43:28.84 ID:mVA/sRdU.net
- 音楽AIはどうしたんだ
割と楽しみにしてるんだが
- 296 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:47:12.58 ID:AIArC2qd.net
- SD1.5も楽しみだし音楽AIも動画AIも待ってるし、世の中楽しみだらけやで
- 297 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:53:40.81 ID:1En7iy57.net
- 音楽AIはベースモデルは権利煩いだろうし詰め込まなくていいから個々人で簡単にファインチューンできるようにして欲しいな
日本の歌もの特化とかやれたら面白い
- 298 :名無しさん@お腹いっぱい。:2022/10/12(水) 00:58:00.66 ID:ddxhJKC8.net
- 音楽の話はスレチだから俺はしないけど
どこで話せばいい?
- 299 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:00:36.52 ID:mVA/sRdU.net
- 確かにスレチだったかすまん
やるならAI総合だろうけどまともに話にならなそう
- 300 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:09:10.24 ID:YjzIQUOi.net
- 1111版のNAIでnsfw入れても乳首や局部が表示されないんだけど
どこで設定するんや
もしかして1111版だとnswf表現できない?
- 301 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:09:36.88 ID:2ladUrgg.net
- AUTOMATICの9日に拾った版までは良かったのに10日に拾った版以降で出力が変わっちまった
なんだったら出力させる度に全く同じ条件で出力がブレることもある
xformersは使ってないしどういうこっちゃ
- 302 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:11:26.82 ID:oslN2U1X.net
- >>294
SD1.4は実写強いと言ってもしょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲しいものなんだが1.5でそんな改善するかな、、
- 303 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:11:29.17 ID:0zPfU5+P.net
- エロスレ民に聞くのが早いと思うけど、とりあえずNSFWってpromptに突っ込んでみたら? これで垂れてるとこまで解禁される。
- 304 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:13:11.98 ID:kozSGHal.net
- 特定のステップまで無効にするやつ効いてない?ローカルNAI
- 305 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:15:23.50 ID:0zPfU5+P.net
- >>302
さすがにそれは難しいんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんやけど
ライカだのソニーだのシグマだのpromptに突っ込んで18mmでf4とかやっても全然効かんし
ひどい時はレンズの絵が出るし
- 306 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:16:05.43 ID:AIArC2qd.net
- >>301
その辺でトークン75制限を超えたときの挙動が変わったはず。毎回変わるってのはちょっとわからんけど
- 307 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:21:01.04 ID:YjzIQUOi.net
- >>303
入れてるんやがまんこ出んなー
だしたいなーまんこ
>>304
なにそれ詳しく
- 308 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:29:00.71 ID:2ladUrgg.net
- >>306
そこ疑って無効化しようとしてるんだけどオプションも何も無さそうなんだよね
出力のブレってのはシード固定した状態で1枚出した後にそのままもう一度出力ボタン押すと崩れたりとかはしないんだけど小物のディテールとかが変わったりして
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとしてK samplerの設定いじったからかもしれない
まあ9日の版で出せばいいんだけど
- 309 :名無しさん@お腹いっぱい。:2022/10/12(水) 01:55:37.33 ID:oslN2U1X.net
- TilTokでJKたちが踊ってるレベルの動画が作れたらSNSの世界一気に崩れそうな気がするな
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが
- 310 :名無しさん@お腹いっぱい。:2022/10/12(水) 02:08:48.50 ID:E8GzIrEy.net
- トークン解除でおかしくなったという声やトークン150超えるとめちゃくちゃな絵になるとか情報あったなー
内部処理どう変わったんだろ
- 311 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- NMKDでWD1.3を回してるんだけどたまに指定した生成枚数を勝手に超えて出力されるんだがこれって俺だけか?
しかもそれで生成される絵に限ってpromptとは明らかに外れてる絵なんだが
- 312 :名無しさん@お腹いっぱい。:2022/10/12(水) 03:07:11.81 ID:7WgE6Aas.net
- お前のAI意思を持ちはじめたんだな
うらやましい
- 313 :名無しさん@お腹いっぱい。:2022/10/12(水) 03:08:47.33 ID:KMpw9fSM.net
- 意思持ち始めたAIを野に放ってくれ
そいつに界隈蹂躙させよう
- 314 :名無しさん@お腹いっぱい。:2022/10/12(水) 03:12:37.64 ID:tnkHPKBn.net
- --xformers も --deepdanbooru もうまく動かないや。
linuxにぶち込むの、なかなかしんどいなぁ
- 315 :名無しさん@お腹いっぱい。:2022/10/12(水) 04:29:31.84 ID:5fT70X24.net
- >>311
知らず知らずにどこかで改行してるだけだと思う
確か改行してるとそれ以降は別の生成物の命令として扱うはず
- 316 :名無しさん@お腹いっぱい。:2022/10/12(水) 04:55:26.02 ID:DZy23lp4.net
- >>286
めんどいな方言
- 317 :名無しさん@お腹いっぱい。:2022/10/12(水) 04:57:15.31 ID:h5Duf69K.net
- >>4
更新されてた
https://rentry.org/sdg_FAQ
> If you are running an Pascal, Turing and Ampere (1000, 2000, 3000 series) card
> Add --xformers to COMMANDLINE_ARGS in webui-user.bat and that's all you have to do.
- 318 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- stable diffusionのwebuiでimg2imgすると全体がボケボケになったり顔が潰れてしまうんですけど、これの回避方法ないですか?
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボヤけてしまう
- 319 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>300
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される
- 320 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>318
CFG Scaleは12くらい、どのくらいバリエーションを出したいかは
Variation strengthの数値で決めるといいぞ。
- 321 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>318
AIは基本、小さい顔は苦手
別に大きく作って縮小したのフォトショとかで貼り付けましょうとか言ってる人がいるくらい
- 322 :名無しさん@お腹いっぱい。:2022/10/12(水) 07:31:21.34 ID:H5Zxeydq.net
- webuiにhypernetworkのトレーニング機能来てるね
- 323 :名無しさん@お腹いっぱい。:2022/10/12(水) 07:57:19.14 ID:Fc+KOdTU.net
- 背景綺麗な絵がほしいから顔の破綻は多少は許す
でも足は2本にしてください…
- 324 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 顔の向きとかでXYZ軸の角度指定欲しいな
- 325 :名無しさん@お腹いっぱい。:2022/10/12(水) 08:41:48.87 ID:Jtt7R8ot.net
- 画像から顔の角度検出するAIは既にあるから学習データをそれに通して
右向きとか上向きとか大まかな角度情報をラベル付けして追加学習すれば多少は何とかなりそう?
やる人居るかは知らんが
- 326 :名無しさん@お腹いっぱい。:2022/10/12(水) 08:43:46.48 ID:nWe7TwLZ.net
- (Y軸方向に無限に伸びた首画像)
- 327 :名無しさん@お腹いっぱい。:2022/10/12(水) 08:51:21.57 ID:DEdMJn6N.net
- 1111版はパラメータの数値を直接入力できるようになったんだね
マウスで動かしてカーソルキーで微調整する必要はなくなった
- 328 :名無しさん@お腹いっぱい。:2022/10/12(水) 09:46:53.14 ID:NDQ40tzG.net
- >>309
3Dからとかは前からあるしねぇ
https://twitter.com/yokohara_h/status/1578636519144685569?s=61&t=iaYI_6Bjq6zFL0zE-KwsgQ
リンクメモってなかったけどTikTokから変換するテストは4chに動画で上がってたよ
背景動かない奴はそれなりに見れるレベルになってた
(deleted an unsolicited ad)
- 329 :名無しさん@お腹いっぱい。:2022/10/12(水) 10:25:08.01 ID:7X8wtcYd.net
- 日本語であればシャフ度という便利な言葉があるが
- 330 :名無しさん@お腹いっぱい。:2022/10/12(水) 10:29:56.59 ID:C55NbFwb.net
- TwitterでAI関連の発言するの躊躇うようになってしまって苦しい
風当たり強すぎる
- 331 :名無しさん@お腹いっぱい。:2022/10/12(水) 10:51:09.46 ID:SYo62ZNQ.net
- じきに皆慣れて反感も忘れ去られる
ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容してしまう何度も見てきた流れ
- 332 :名無しさん@お腹いっぱい。:2022/10/12(水) 11:17:23.41 ID:ybfOmJmX.net
- 16GBと24GBでやっぱ違うのか
今colabで16GB使っててそんなに不満ないけど、24GBにしたらもっと早くなったり出力枚数増やせるのかな、いいな
- 333 :名無しさん@お腹いっぱい。:2022/10/12(水) 11:31:12.60 ID:fbQ+aX/K.net
- 70Ti8GBの俺低みの見物
CPUとメインメモリは盛ってるから週末にでもDreamboothのそっち使う奴試してみようと思う
- 334 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:02:14.78 ID:LxxZooPL.net
- 保存情報にi2iで使用した元画像ファイル名を記入してもらえると助かる1111さん…
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成できない…
- 335 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:20:29.82 ID:aBAn8uGQ.net
- VRAMで24GBで 動かせるらしい
https://github.com/gammagec/Dreambooth-SD-optimized
を試してるところだけど
一回目の
last.ckptを吐き出し終わったかどうか分からないよく分からない状態で
out of memoryでエラー終了する
- 336 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:32:40.01 ID:dOKrPM1J.net
- web uiで複数の画像書いてる途中でCMDが途中で止まっちゃった場合は再起動するしかない?
interrupt押しても何も反応しない
- 337 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:33:51.71 ID:NY35Cg55.net
- いよいよQuadro 48GBが必要になってきたのか
- 338 :名無しさん@お腹いっぱい。:2022/10/12(水) 12:37:56.61 ID:yndPCBwT.net
- 4090tiの48GB待ちかね
- 339 :名無しさん@お腹いっぱい。:2022/10/12(水) 13:10:52.21 ID:oslN2U1X.net
- fanzaのCG集、ついに1位から15位まで全部AIが独占w
終わりってレベルじゃねえしこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ
- 340 :名無しさん@お腹いっぱい。:2022/10/12(水) 13:11:10.48 ID:oslN2U1X.net
- 誤爆
- 341 :名無しさん@お腹いっぱい。:2022/10/12(水) 13:40:48.98 ID:pFAZCdQL.net
- 4090Ti、せめて36GBにはなって欲しいしできれば48GBにしてほしい
もし据え置きなら5090まで見送りかな
- 342 :名無しさん@お腹いっぱい。:2022/10/12(水) 14:01:23.33 ID:2H018u9e.net
- 数日前の75トークン制限解除辺りでそれ以前の生成と同シード同設定にしても同じ画像が生成出来なくなったらしいね
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる
- 343 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 3090-24GBをnvlinkで繋げればいいじゃん
- 344 :名無しさん@お腹いっぱい。:2022/10/12(水) 14:50:02.74 ID:/0Qg67th.net
- pixivは14年で1億枚の絵なのにnovelaiは10日足らずで3000万枚はやべぇな
今年中にpixivの枚数超えるかもしれないのか
- 345 :名無しさん@お腹いっぱい。:2022/10/12(水) 14:52:11.47 ID:9og32tKs.net
- AIでお題を与えて延々と絵を吐かせる→AIで良い絵だけを選別して学習させる→以下ループ
これでどれぐらい安定していくのかちょっと見てみたい
- 346 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:19:20.03 ID:ybfOmJmX.net
- dreambooth、ここ数日ずっと悩んでたのになんかだんだんなんかよくわからんまま上手くいくようになってきた
良いことなのに良くないな…原因が分からねぇまま解決していく…
- 347 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:20:31.71 ID:pyeOGgSk.net
- dreamboothの次はhypernetworkが来てる
速すぎて恐ろしい
- 348 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:25:36.07 ID:5fT70X24.net
- 手で描く時代の終焉だな
民主化万歳
- 349 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:29:14.18 ID:0+M7IquF.net
- バージョンアップが追いつかないだろこれ
下手にver番号振ってるやつは永遠に修正作業に追われそう
- 350 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:43:53.72 ID:OiV7LtOS.net
- >>345
それまさに強化学習の有名な手法のやつだな
- 351 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:44:45.99 ID:NY35Cg55.net
- NovelAIの社員はともかく1111の人とかWDの人は本業大丈夫なんだろうかw
- 352 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:46:55.29 ID:AIArC2qd.net
- >>350
加えて「これはダメ」のネガティブ学習もさせてみたいね
- 353 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:48:18.56 ID:wY80ZS1c.net
- >>331
とはいえ原子力発電や太陽光発電や電気自動車や遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる
- 354 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:49:56.21 ID:OiV7LtOS.net
- >>344
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ないし、
AI以降は一気に供給量増えるだろうな
Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライブ:
全245タイトル
- 355 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:52:16.18 ID:9og32tKs.net
- >>353
原子力発電は歴史に残っちゃうような大規模災害が複数回起きてるから、まあ反対意見が消えないのは仕方ないとして
それ以外は、なんだかんだで気がつけば普通に定着してないかい?
太陽光発電も、太陽光発電が悪いというよりもアホなパネル設置騒動に問題があるわけで
- 356 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:52:31.44 ID:OiV7LtOS.net
- >>353
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらしいから、実際に大事故とか起きたらしゃーない
AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業した奴らは恨み続けるだろうけど、まぁ恨みも風化するしな
俺だってなろう系死ぬほど嫌いだったけど五年もしたら慣れてまぁそういうもんかと思うようになったし
- 357 :名無しさん@お腹いっぱい。:2022/10/12(水) 15:55:24.99 ID:9og32tKs.net
- それにしても、トレーニング系の設定がやたらと増えてる1111だけどハイパーネットワークのトレーニングって具体的に何がどうなるんだ?
1111の説明見ても、なんかいまいち要領をえんし
- 358 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:13:39.58 ID:Jtt7R8ot.net
- >>351
1111の人ってロシア人らしいし動員で開発中止とかはあるかもな
- 359 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:20:32.87 ID:Ooqyi5eK.net
- >>357
できることはTIやDBと同じで、画風やモノ(キャラ)を覚えさせられる、らしい。
しかし少ない学習ステップでいける、らしい。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2284
- 360 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:24:47.83 ID:ZlAOHCh1.net
- >>342
75トークンに収まるよう下から削ればええやん
トークン数は見えるんだから
あるいはmaster #2129まで巻き戻したものを別個入れればいい
- 361 :名無しさん@お腹いっぱい。:2022/10/12(水) 16:25:17.91 ID:9og32tKs.net
- >>359
トン
dreamboothの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーキーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってきちゃうのか。
- 362 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:00:03.71 ID:z2VVctkE.net
- >>343
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々として3090二つ買ったんだけどな
- 363 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:02:40.59 ID:ifrLRek9.net
- >>344
サーバーパンクしそうだな
- 364 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:08:43.63 ID:9fjO5n7K.net
- novelaiは生成物一切保存しないって明言してるからサーバーは問題ないんじゃなかろうか
容量の問題というより児童ポルノとか犯罪系への対策だろうけども
- 365 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:22:54.19 ID:fbQ+aX/K.net
- >>362
改造ドライバとか出てこないかな
昔はGeforceのQuadro化とかあったよね
- 366 :名無しさん@お腹いっぱい。:2022/10/12(水) 17:28:00.23 ID:7WgE6Aas.net
- 実際のところ4090TiでVRAM盛ってくれる可能性どれくらいあるんだろう
4090の発表時は画像生成AI需要けっこう意識してる感じだったけど
- 367 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:18:49.86 ID:OSbDnTsm.net
- そんなわけでですね、
CUDAがインストールできないGPUであり、
いまStable Diffusion UIを試しているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにしても、
どうなるものやらと。
- 368 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:30:59.03 ID:oslN2U1X.net
- NAIの作画レベルに感覚焼かれてしまって漫画読むときに
絵の下手さばかりが目についてしょうがなくなった
まだまだ性能向上すると考えると恐ろしいわ
- 369 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:32:40.07 ID:OiV7LtOS.net
- むしろAI絵をあまりにも見すぎて絵柄が違うとなんかホッとするわ
まぁ俺が続き物作るために同じパターンで生成しまくってたからというのもあるが
- 370 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:41:05.69 ID:0zPfU5+P.net
- one先生の絵をNAIとかWDに食わせてみたいと思う俺ガイル
- 371 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:41:48.17 ID:DEdMJn6N.net
- >>367
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにしたほうがよいのでは…?
- 372 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:47:26.12 ID:OSbDnTsm.net
- >>371
せや
ワイの十八番 ミクキャットが
processed 1 images in 1853.433 seconds や
それにしてもwdもバージョンありすぎてようわからんな。
- 373 :名無しさん@お腹いっぱい。:2022/10/12(水) 19:57:47.84 ID:6PKdw4UK.net
- >>372
自分も無料Colabが力尽きた後はCPUでガン回ししてるけど、ある程度step数減らすのおすすめよ
お気に入りの画像見つけたら高Stepでじっくり生成し直せばいい
512*640でstep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い
- 374 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:08:45.59 ID:NO0PpfX3.net
- 何年も前のゴミグラボ(8GB)だけど1枚1分で生成できてるよ(Euler a step20 512×512)
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな
- 375 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:23:04.71 ID:AIArC2qd.net
- ステップ数高めにしてる人多いけどアニメ絵ならEuler a 15〜20stepでもちゃんと出るからね
CPUの人は下げてみるのはありだと思う
- 376 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:33:27.11 ID:oslN2U1X.net
- NAIはエロ方面は本当に強いな
コッソリ鑑賞用にしか生成してないけど絵描きが追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivやdlsiteに上がってるのはあくまで素人によるサンプルレベルだわ
- 377 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:45:27.32 ID:U11jpQVz.net
- NAIの公式オープンソースはよしてくれー
- 378 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:53:33.69 ID:jO+SeLLh.net
- 俺のGTX1080ti(11GB)で>>15の条件のアスカを作ったら処理時間これぐらいだった
バッチサイズ1 - 11秒 (2.6it/s)
バッチサイズ8 - 55秒 (1.98s/it)
普段はGPUのパワーリミットを55%にして性能2割ダウンで動かしてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか?
- 379 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:54:17.64 ID:QlQMsFsc.net
- NMKDで公式にNAIが扱えるようにならねーかなtorrentで流れてる流出版じゃなくて正式リリースしてほしい
- 380 :名無しさん@お腹いっぱい。:2022/10/12(水) 20:56:56.32 ID:Fc+KOdTU.net
- >>374
373だけど、使ってるノートパソコン調べてみたらThunderbolt3端子なかったわ
グラボ詳しくないからよくわかってないけど、これ多分ダメそうってことだよね?
大人しくCPUガン回ししとこ
- 381 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:05:35.67 ID:fbQ+aX/K.net
- ノートのCPU長時間ブン回すのは破壊前提でもない限りお勧めしない
- 382 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:06:51.76 ID:FjjgbpjM.net
- RTX2060+xformersですら512x512(20step)は3秒
これ以上のグラボの人は一枚生成に1~2秒?
- 383 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:35:25.98 ID:Fc+KOdTU.net
- >>381
外付けファン回しながら1日2~3時間ブン回す感じでも自殺行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらしいし
- 384 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:55:10.68 ID:1vFMU4BV.net
- IntelがRTX 3060 Ti相当の性能を持つグラボ「Arc A770」を10月12日から329ドルで発売へ
http://gigazine.net/news/20220928-intel-arc-a770/
ZLUDA使えるなら選択肢に入る?
- 385 :名無しさん@お腹いっぱい。:2022/10/12(水) 21:58:53.15 ID:fQ316zUC.net
- CUDA・・・
- 386 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:01:59.40 ID:aBAn8uGQ.net
- VRAMが沢山乗ってるね
- 387 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:04:25.57 ID:0zPfU5+P.net
- ラデと同じでcuda無いから…ってパターンな予感
- 388 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:08:49.39 ID:1vFMU4BV.net
- いやだからCUDA使えるようになるZLUDAってのがあるからそれが本当に動くなら3060の値段で3060ti16GB相当になるかなあと
- 389 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:14:48.96 ID:AIArC2qd.net
- はえー知らんかった。パフォーマンスも結構悪くない的な記事を見たけど
ZLUDAで動かす事ができたらHD Graphicsの人達にも福音になるかもしれないね
- 390 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:25:35.90 ID:aOAzC1Re.net
- Trainのやり方やパラメーター解説してるところあったら教えて
- 391 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:31:15.83 ID:0zPfU5+P.net
- Zludaって開発まだやってるのかな
なんかこのみた感じだと止まってるっぽいけど…
https://github.com/vosen/ZLUDA
- 392 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:44:07.81 ID:1En7iy57.net
- titanRTXならnvlinkでVRAM48G行けるやん!と思ったけどそもそもtitanがまだ高すぎて結局rtx8000辺りと変わらんな
- 393 :名無しさん@お腹いっぱい。:2022/10/12(水) 22:49:29.02 ID:zx+gyfL9.net
- もういっそのこと金あるならA40あたりでいいのでは...
- 394 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- text to 3Dはまだそこまで精度出ないみたいだけど
text to poseとかできないのかしら
生成したポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならキャラの一貫性崩さずにアングル調整とか差分作りができるよなーという妄想
- 395 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 意外とポーズとか物をきっちりと持つってのが出来ないんだよな
そう言う行動で学習してないからなんだろうけど
この辺もカバーしたら本当嬉しいんだけど
- 396 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- プロンプトの後ろの方にbloodって入れてみたら、一切流血せずにうまくダークファンタジー感だけ増し増しになった
これはあれかな?ブラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな?
- 397 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- from aboveで見下ろしになるとダンボタグに書いてあったのでやってみたら、キャラが増えると見下ろしというよりもネトゲのクォータビューみたいな感じになって挙句の果てにはアクションバーみたいなのが画面上部にくっついてきて、ダンボールにはネトゲのキャプチャまであるんかいとちょっと感心してしまったw
- 398 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- Promtやモデル毎に縦横でマトリクスの比較画像出してる人をよく見るけど
あれ何かの機能でできるんだよね?
- 399 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>398
AUTOMATIC1111のprompt matrixとかX/Y protとかを使う。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features
- 400 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- テキストから3Dモーションを生成するMotion Diffusionてやつならあるよ
- 401 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>398
model変えてマトリックス作るのはできない……かな?
- 402 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 出来るだろ何言ってんだ
- 403 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- WSL2ってメモリサイズ制限が「メモリの50%または8GBのうち少ない方の値」で設定されてるけど、どうせ腐る程メモリあるし好きなだけ使っていいぞ~としたら、メモリ50GBほど喰われて草
加減を知らないのか貴様は
- 404 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>403
加減を知らないのはLinuxだな。メモリに空きがあればあるだけキャッシュに使うぞw
- 405 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- >>402
あ、ほんとだ。checkpoint nameとか入ってるわ。
- 406 :名無しさん@お腹いっぱい。:2022/10/13(木) 01:28:23.57 ID:KGvGoTe1.net
- colab3日経っても規制が続く
厳しくなってるなあ
- 407 :名無しさん@お腹いっぱい。:2022/10/13(木) 01:29:24.04 ID:Nm5De/sw.net
- >>399-402
ありがとう!試してみます
- 408 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- automatic 1111のアップデートってどうすればできますか?
- 409 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- git pull
- 410 :名無しさん@お腹いっぱい。:2022/10/13(木) 02:57:01.66 ID:pkInAopp.net
- 追加学習周りが盛んだけど、手法も手段も増えて全然わからなくなってきたからわかる神>>1のまとめ追記してほしい
textual inversionとdreamboothの違いすらよくわかってないのにhypernetworkまで出てきて更にわからない
- 411 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:06:57.67 ID:SgQcu03O.net
- >>409
git bash hereで
git pull https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
打ち込んでもエラー吐くんだが俺だけかな
- 412 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:09:26.87 ID:zmcQhSoI.net
- 後ろのURLいらなくて単にgit pullよ
- 413 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:14:41.84 ID:bhkjUU2G.net
- また間違えてブックマークバーのサイトクリックして移動されて設定や入力消えちゃった…
「遷移していいの?」ってワンクッション確認挟む仕様にしてほしい1111様…
- 414 :名無しさん@お腹いっぱい。:2022/10/13(木) 03:54:44.00 ID:SgQcu03O.net
- >>412
できたわありがとー
- 415 :名無しさん@お腹いっぱい。:2022/10/13(木) 04:24:12.71 ID:PnQCQTvw.net
- >>413
ブラウザ拡張でやれ
- 416 :名無しさん@お腹いっぱい。:2022/10/13(木) 04:55:39.94 ID:B6jYdeNw.net
- 線画にNovel AIのクオリティで色塗りだけしてくれる機能ってあるだろうか?
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲しい
- 417 :名無しさん@お腹いっぱい。:2022/10/13(木) 05:15:53.93 ID:iUqZHk8n.net
- AI活用で生産性アップも良いが俺が真に楽しみなのはAI同士の無限学習による進化だな
将棋やチェスで見られた風景だが芸術でもそれを見せてほしい
ゲッターの行き着く先が見たい早乙女や隼人みたいな発想だけど
- 418 :名無しさん@お腹いっぱい。:2022/10/13(木) 06:52:09.13 ID:x1mr0mmI.net
- colabでautomatic1111のtrainからcreate embeddingに対象の名前と情報入力してもエラーが出てファイル自体作れないんだけどどっかで詳しいやり方とか書かれてないですかね…
- 419 :名無しさん@お腹いっぱい。:2022/10/13(木) 06:54:21.78 ID:La+Qxu0Q.net
- つpython入門
- 420 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:01:07.53 ID:r0EYpDo2.net
- AI絵で学習させても手がどんどん溶けるだけじゃないかな
- 421 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:08:01.55 ID:M4inZTpt.net
- novel AIのi2iとWeb UIでモデル動かしてやるi2iのパラメータの対応関係ってどうなってますか?
前者はstrengthとnoiseがあるのに後者はdenoising strengthしかパラメータなんすよね
- 422 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:23:22.29 ID:zwM3s4wI.net
- イラストは将棋と違って明確なルールや勝敗が決まってないから自己学習させたら行き着く先はシュメール人だろうな
https://i.imgur.com/PU9ye4s.jpg
- 423 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:27:25.88 ID:6gZRmsvv.net
- 人間にフィードバックさせればいい
すでに投下されてるAIイラストは人の手で厳選されたもの
- 424 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:28:39.67 ID:iUqZHk8n.net
- 俺はシュメールもマヤも縄文も好きだから良いよ
とにかく見た事ない物が見たい
早く模倣を抜け出して欲しい
- 425 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:34:24.68 ID:PnQCQTvw.net
- Hypernetworkのtrain10GBくらいvramくってんな
それだけ効果期待していいのか?
- 426 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:47:45.82 ID:z0k0c3WV.net
- >>391
最後のコミットでコメントにこう書かれてる
Due to private reasons I am currently unable to continue developing this project. If you
want to take it over, fork it and contact me
そして勿論引き継ぐ人なんか居ない
- 427 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:56:12.29 ID:z0k0c3WV.net
- >>394
URL貼れねえけど
mdm-a-new-text-to-motion-generative-model
てのが発表されてる
- 428 :名無しさん@お腹いっぱい。:2022/10/13(木) 07:57:24.30 ID:VVCDygvq.net
- Intel自らがCUDAとの互換取れるように作り込めばいいんだけど
- 429 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:02:58.02 ID:z0k0c3WV.net
- >>413
bookmarkletでonBeforeunloadを上書きしてalert出すやつ作ればいいだろ
- 430 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:05:03.65 ID:z0k0c3WV.net
- >>428
なぜAMDがCUDAを採用しないか考えたこと無いの
- 431 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:09:34.15 ID:VVCDygvq.net
- >>430
あー、特許とか絡んでるのか
- 432 :名無しさん@お腹いっぱい。:2022/10/13(木) 08:55:48.09 ID:F/f1VpBz.net
- 使用率見てると生成速度はCUDAの性能が全てっぽい?
- 433 :名無しさん@お腹いっぱい。:2022/10/13(木) 09:34:35.65 ID:kY4znFzn.net
- hlky 版から AUTOMATIC1111 版に乗り換えたのだけど、localhost 以外(他の PC)からつながる?
動かしている PC からはWeb GUI 表示できるんだけど、F/W 切った状態で他の PC やスマホから WebGUI にアクセスさせようとすると
connection refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かしている PC の上の他のサービスにはつながる。
- 434 :名無しさん@お腹いっぱい。:2022/10/13(木) 09:45:00.64 ID:FNeVUzvw.net
- --listen
- 435 :名無しさん@お腹いっぱい。:2022/10/13(木) 09:55:03.65 ID:qTuaLJzO.net
- サブPCのCPUうんこだけど3060あたり載っけてそこそこ動くんかな
- 436 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:03:22.45 ID:AQIrnPB6.net
- せっかくやからコ↑コ←にもマルチポストしとくで。
だれかStableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckpt使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckpt分割されとるんやったか
ともかくだれかおらんかのぅ
- 437 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:21:20.60 ID:La+Qxu0Q.net
- 犯罪者が出たぞ、囲め!
- 438 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:22:58.04 ID:92UCQItD.net
- >>435
3060が乗るマザボって時点で最低限のスペックは満たしてそうだし大丈夫なんじゃないかな
- 439 :名無しさん@お腹いっぱい。:2022/10/13(木) 10:41:56.94 ID:kY4znFzn.net
- >>434
助かり申した、感謝。
---
・webui-user.bat
set COMMANDLINE_ARGS=--listen
---
- 440 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:21:23.98 ID:nG71Z+6z.net
- >>436
NAIに関しては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にしか対応してないんじゃない?
試しにTrinartのckptで置き換えてみたら「ckptのサイズが不正なのでDLしなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ
- 441 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:30:28.51 ID:qTuaLJzO.net
- >>438
録画PC最近あんま稼働してないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな…
- 442 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:39:17.34 ID:6op4yHiB.net
- artroomってPC再起動すると動かなくなっちゃうのなんでやねん。毎回インストールすんのかよ
- 443 :名無しさん@お腹いっぱい。:2022/10/13(木) 13:43:46.22 ID:vJaVK+nz.net
- diffuserのモデルに入ってるunetとかtextencoderとかvaeとかってなんなん?
unetが本体で他はサブ?
- 444 :名無しさん@お腹いっぱい。:2022/10/13(木) 14:51:54.75 ID:yOxgSzrZ.net
- >>443
プロンプト→textencoder→(unet→サンプラー)ループ→vae→画像
みたいな流れだったと思う。unetには横からシードから作られたノイズが最初に入る
- 445 :名無しさん@お腹いっぱい。:2022/10/13(木) 15:36:03.58 ID:mvr2EnqE.net
- グラボの限界近くで無理させると電力の効率悪くなるんだろうけど
消費電力と計算速度のバランスいいところの目安みたいなのって何かあったりしますかね
ちなみにgtx1080無印(8G)で2.2~it/sec power limit50%で消費電力100w減って1.7~it/secくらいだった
適当に刻んで回してプロットして探るしかないかな
- 446 :名無しさん@お腹いっぱい。:2022/10/13(木) 15:39:10.22 ID:bXTgaR1D.net
- >>422
んなもんそれこそ批評側AIのパラメータ作り込めばいいだけじゃん
- 447 :名無しさん@お腹いっぱい。:2022/10/14(金) 16:33:20.52 ID:OMLW7wgc.net
- >>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です
- 448 :名無しさん@お腹いっぱい。:2022/10/14(金) 16:52:03.02 ID:40bMpPm9.net
- ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ
- 449 :名無しさん@お腹いっぱい。:2022/10/14(金) 16:54:51.68 ID:ARTDPbZp.net
- >>447
なるほど〜
4090欲しくなりました
- 450 :名無しさん@お腹いっぱい。:2022/10/14(金) 17:40:10.57 ID:ARTDPbZp.net
- StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
- 451 :名無しさん@お腹いっぱい。:2022/10/14(金) 17:45:35.52 ID:QeGD8Cwp.net
- 連続生成って? バッチカウントとは別の?
- 452 :名無しさん@お腹いっぱい。:2022/10/14(金) 17:49:29.32 ID:nKgTqKnx.net
- 1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?
- 453 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:12:33.01 ID:6Dz0i5Q9.net
- Generateボタン右クリしてGenerat Forever
- 454 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:14:01.63 ID:AvuLwezm.net
- >>450
https://gigazine.net/news/20220909-automatic1111-stable-diffusion-webui-prompt-matrix/
- 455 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:15:21.42 ID:XnPXne0y.net
- Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ
- 456 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:26:49.65 ID:YLsjtjlH.net
- Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
- 457 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:29:21.53 ID:FMOFHk9F.net
- >>456
わからん
同じ枚数に対して50でも200でも違いがわからん
- 458 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:37:37.83 ID:OMLW7wgc.net
- 正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い
もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
- 459 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:42:40.37 ID:aUor17yO.net
- Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄
- 460 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:43:27.15 ID:aUor17yO.net
- 誤爆、誤爆でもないけど
- 461 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:48:27.44 ID:bNwczKpA.net
- そのうちAI絵師同士が殴り合うことになるのでは
- 462 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:50:31.38 ID:ARTDPbZp.net
- >>453
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww
バッチカウントってどこで変えれるの?
- 463 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:52:16.22 ID:ARTDPbZp.net
- ああ見つけたわw
バッチサイズの横にあった
- 464 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:52:20.38 ID:QeGD8Cwp.net
- CFGスケールの上のバー
- 465 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:55:35.26 ID:AmgEVVUS.net
- NAIモデルで二次元キャラを三次元に変換するの楽しい
- 466 :名無しさん@お腹いっぱい。:2022/10/14(金) 18:56:33.69 ID:XnPXne0y.net
- 遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……
- 467 :名無しさん@お腹いっぱい。:2022/10/14(金) 19:01:42.64 ID:I4aoRgos.net
- >>466
windowsのアップデートしたんならそれじゃね
windowsの復元で戻してみたらどうかね
- 468 :名無しさん@お腹いっぱい。:2022/10/14(金) 19:05:51.91 ID:XnPXne0y.net
- >>467
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ
- 469 :名無しさん@お腹いっぱい。:2022/10/14(金) 19:30:34.74 ID:K1vetAlc.net
- チェックポイントが一度に3つ混ぜれるようになってて草
相変わらず進化早いねw
- 470 :名無しさん@お腹いっぱい。:2022/10/14(金) 20:05:12.49 ID:FMOFHk9F.net
- 一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
- 471 :名無しさん@お腹いっぱい。:2022/10/14(金) 20:56:55.52 ID:Jz1slLtt.net
- モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる
- 472 :名無しさん@お腹いっぱい。:2022/10/14(金) 21:00:26.00 ID:XjikJorg.net
- >>471
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし
- 473 :名無しさん@お腹いっぱい。:2022/10/14(金) 21:27:50.14 ID:lpWZ4Hlp.net
- 公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?
- 474 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:34:27.60 ID:dLPWtPAo.net
- >>473
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
ttps://note.com/uunin/n/n725ae4601264
- 475 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:45:00.85 ID:lpWZ4Hlp.net
- >>474
おう!ありがとよ!(導入するとは言ってない)
- 476 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:54:14.21 ID:ntrMQ3UX.net
- 2070sからグラボ新調しようとしてたけどクラウドという手があったか
スレ見てよかった
- 477 :名無しさん@お腹いっぱい。:2022/10/14(金) 22:58:33.12 ID:K5lHcCjq.net
- NMKDはとりあえず試したいだけの人にはかなり便利だけど本腰入れてやりたいなら1111一択だな
- 478 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:03:07.13 ID:C/gau9np.net
- すみませんプロンプトで「uc」てどういう効果あるかご存知の方教えて頂けないでしょうか?
- 479 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:15:04.53 ID:AcwfJ4Wh.net
- fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ
でもトレにめちゃ時間かかるし課金するか悩むなぁ
- 480 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:27:27.86 ID:IZHJbIbx.net
- blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?
- 481 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:28:15.28 ID:Ia8ZvkTj.net
- 最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと
- 482 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:28:21.31 ID:ARTDPbZp.net
- waifuじゃnovelAIみたいなエロ画像出すのは無理?
- 483 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:30:02.18 ID:I4aoRgos.net
- >>482
普通にいける
>>480
ネガティブに 白黒っていれてみた?
- 484 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:38:30.80 ID:AcwfJ4Wh.net
- ごめんDBstablediffusion のが爆速だった
- 485 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:38:30.92 ID:ARTDPbZp.net
- >>482
マジかぁ
精進するわ
pcにgpuたくさん積んでるんだけどstablediffusionは複数gpuで並列処理できないのかなこれ
- 486 :名無しさん@お腹いっぱい。:2022/10/14(金) 23:53:13.74 ID:+g+H2Nl6.net
- オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね
- 487 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:00:15.59 ID:NIfsDDC5.net
- ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ
- 488 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:28:30.86 ID:cVyIiDx3.net
- >>481
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと
- 489 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:28:52.89 ID:MA6pT5cu.net
- 1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った
- 490 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:32:54.52 ID:MA6pT5cu.net
- いや時間は変わってないっぽい?
クオリティに影響してるのかな
教えて詳しい人
- 491 :名無しさん@お腹いっぱい。:2022/10/15(土) 00:54:36.35 ID:kphj/9u/.net
- >>485
リクエストはいくつか出てるようだけどまだ実装はされてない模様
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1621
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues?q=is%3Aissue+multi+gpu+is%3Aclosed
GPU指定とport番号を変えてwebuiを複数起動すれば、複数GPUをそれぞれ使うことはできるかも?
- 492 :名無しさん@お腹いっぱい。:2022/10/15(土) 01:14:10.59 ID:AikKaOMk.net
- >>490
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
https://ossan-gamer.net/post-82311/#WEB_UIBatch_countBatch_size
サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども
- 493 :名無しさん@お腹いっぱい。:2022/10/15(土) 01:31:58.84 ID:MA6pT5cu.net
- >>492
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね
具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた
WSL2のDockerに入れたから細かいところが違うのかなぁ
- 494 :名無しさん@お腹いっぱい。:2022/10/15(土) 01:45:05.20 ID:AikKaOMk.net
- >>493
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる
詳しい人の降臨待ちっすね
- 495 :名無しさん@お腹いっぱい。:2022/10/15(土) 02:03:46.69 ID:TmM0Ta1u.net
- 少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
- 496 :名無しさん@お腹いっぱい。:2022/10/15(土) 02:16:57.29 ID:S/D1EGiC.net
- deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?
- 497 :名無しさん@お腹いっぱい。:2022/10/15(土) 03:45:25.60 ID:L+3ToJT9.net
- >>496
俺はvenv消して実行し直したら治った
- 498 :名無しさん@お腹いっぱい。:2022/10/15(土) 03:51:53.16 ID:uMZtKJRm.net
- >>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。
- 499 :名無しさん@お腹いっぱい。:2022/10/15(土) 04:02:26.09 ID:NIfsDDC5.net
- >>498
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも
- 500 :名無しさん@お腹いっぱい。:2022/10/15(土) 04:19:01.82 ID:5rScqju3.net
- 履歴機能ついたけど想像通りの重さ
なぜマージしたんだろう
- 501 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:22:07.54 ID:uMZtKJRm.net
- なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G
AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。
結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
- 502 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:25:54.15 ID:7nZ34vzV.net
- コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな
なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな
- 503 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:29:09.45 ID:uMZtKJRm.net
- >>501
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
のエラーで続けるわ。
もう9時やん
- 504 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:31:05.90 ID:SRcrgA/b.net
- 一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね
- 505 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:35:18.22 ID:bfq41/Ms.net
- 1111、また設定変わったー
Highres. fix時にscaleintentがFirstpass widthとFirstpass heightに別れとる……
- 506 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:36:43.82 ID:kphj/9u/.net
- COMMANDLINE_ARGS(コマンドライン引数)まとめ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Run-with-Custom-Parameters
ソースを読んだ方が完璧に把握できるかもね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/shared.py
- 507 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:39:58.53 ID:uMZtKJRm.net
- >>504
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。
- 508 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:46:26.92 ID:uMZtKJRm.net
- よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>504の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。
- 509 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:53:49.69 ID:osFtr3lr.net
- 面白いなこれ
回転するフィギュアを動画で撮って全コマAIでimg2img
https://twitter.com/toyxyz3/status/1581039517112602624?s=46&t=qtABZ33710o14Nfouqn8Ew
(deleted an unsolicited ad)
- 510 :名無しさん@お腹いっぱい。:2022/10/15(土) 09:59:19.21 ID:cETgTEzp.net
- 顔が全部カメラ目線
やはりカメラ目線は重要ということか
- 511 :名無しさん@お腹いっぱい。:2022/10/15(土) 10:01:30.70 ID:e+jJnNMA.net
- アニメーションの自動生成はそんなに遠くないんだろうなって感じる
- 512 :名無しさん@お腹いっぱい。:2022/10/15(土) 10:18:12.19 ID:8pgYproy.net
- restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった
よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない
- 513 :名無しさん@お腹いっぱい。:2022/10/15(土) 10:51:43.76 ID:AikKaOMk.net
- >>512
アニメ絵生成してない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
https://youtu.be/YF3MtNuX_F0
- 514 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:02:32.50 ID:8pgYproy.net
- >>513
ほーん
配置が修正されるのかと思ったら
解像度が上って美肌される感じか
- 515 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:03:54.95 ID:uMZtKJRm.net
- 1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。
GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
- 516 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:06:59.56 ID:bfq41/Ms.net
- ちゃんとレイヤーステップ2になっとるけ?
- 517 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:13:20.62 ID:AikKaOMk.net
- >>514
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね
- 518 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:26:25.32 ID:mbp63UAw.net
- >>515
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから
- 519 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:38:12.22 ID:uMZtKJRm.net
- >>516
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。
settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337
*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590
Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
- 520 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:40:04.74 ID:bfq41/Ms.net
- vae通ってないんじゃ?
- 521 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:44:19.45 ID:uMZtKJRm.net
- >>518
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。
…ネカフェのPCで…だめか。
- 522 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:48:09.45 ID:Kwyzi7uJ.net
- ネカフェのPCなら
3060位積んでるんじゃね
- 523 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:48:59.10 ID:7nZ34vzV.net
- ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ
- 524 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:51:04.13 ID:Ntrq5HZ9.net
- みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?
- 525 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:54:45.21 ID:bfq41/Ms.net
- その条件なら8枚で23秒かな。3070ti
- 526 :名無しさん@お腹いっぱい。:2022/10/15(土) 11:56:06.76 ID:bfq41/Ms.net
- ああ、ごめんステップ見間違えてた。150stepなら19秒だわ
- 527 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:02:01.69 ID:KScbvafB.net
- >>521
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
- 528 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:12:08.50 ID:JcgiPC8b.net
- 今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや
- 529 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:14:41.26 ID:uMZtKJRm.net
- >>518
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。
>>520
なんやそれ
>>523
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ
- 530 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:16:36.84 ID:mbp63UAw.net
- >>529
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って
- 531 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:23:26.27 ID:CvyUGpTa.net
- 勉強すんのは嫌だけどエロの為なら頑張れる
- 532 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:25:42.23 ID:uMZtKJRm.net
- 使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや……
- 533 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:31:52.38 ID:vxI1kUjx.net
- ネカフェに金払うくらいならcolabに課金して家でやった方がコスパいいのでは
- 534 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:33:17.14 ID:7nZ34vzV.net
- >>529
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが
- 535 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:37:32.96 ID:et6JpmZW.net
- >>525
8枚70秒くらいかかるわ
ちなrtx4090
- 536 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:40:51.93 ID:Ntrq5HZ9.net
- >>526
くっそ早いww
もうこんなグラボでチンタラやってるの悲しくなってきた
グラボ買うぞ🥺
- 537 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:42:07.96 ID:1wuGG+vw.net
- ついに4090持ちが現れたかw
4090の方が遅いの?スクショとかupできる?>>535
- 538 :名無しさん@お腹いっぱい。:2022/10/15(土) 12:43:38.94 ID:Ntrq5HZ9.net
- 俺も4090買うぞ☺
- 539 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:07:16.65 ID:cVyIiDx3.net
- なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!
と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか
- 540 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:11:27.42 ID:0Krj1uq/.net
- >>532
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする
- 541 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:22:52.99 ID:S28Zpjdt.net
- gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ
素直にGPUかえ
- 542 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:30:41.91 ID:F0xLrC4V.net
- >>537
https://i.imgur.com/i5ddt1U.jpg
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな
- 543 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:53:58.52 ID:0kSXAuWY.net
- NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる?
- 544 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:55:31.51 ID:nm/5L0YC.net
- そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる
>>542
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ…
- 545 :名無しさん@お腹いっぱい。:2022/10/15(土) 13:58:04.03 ID:nm/5L0YC.net
- >>543
自分がちょうど >>456 で同じ質問してて、 >>458 が詳しく解説してくれたから参考になると思うよ
- 546 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:00:42.92 ID:LYx8iol5.net
- >>545
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな
- 547 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:01:53.34 ID:1wuGG+vw.net
- >>542
うっひょー
報告あるんだ
- 548 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:02:11.31 ID:21RKitFN.net
- 8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい
- 549 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:11:00.25 ID:TmM0Ta1u.net
- 情報が少し古いのがあるけどこんなにGIGAZINEが役に立ったのは初めてかもしれない
- 550 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:14:35.36 ID:7nZ34vzV.net
- >>549
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった
- 551 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:18:07.33 ID:+S3McIYd.net
- 手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です
- 552 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:24:01.67 ID:bfq41/Ms.net
- 線画に軽く色をつけて投げて、ちゃんとpromptも書き込む
- 553 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:25:47.77 ID:nm/5L0YC.net
- >>546
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う
ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い
- 554 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:29:14.87 ID:eUckkZej.net
- 3060だと26秒(5.56it/s)
- 555 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:30:48.39 ID:mbp63UAw.net
- >>551
SDはそういう目的のAIじゃないので向いてない。こっち↓のAIの方が良さそう
https://github.com/lllyasviel/style2paints
- 556 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:33:39.75 ID:8pgYproy.net
- そういえばRTX3000が発売さたときもBLENDERとかで遅くて、後に最適化で早くなってたなぁ
- 557 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:35:57.23 ID:uMZtKJRm.net
- >>540
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.
こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。
- 558 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:36:07.59 ID:Kwyzi7uJ.net
- step150も上げなくてよくね?
50とそんなに変わるのか
- 559 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:38:34.04 ID:hntWdn8M.net
- 50以上は上げても違いがよくわからん
- 560 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:42:33.68 ID:nm/5L0YC.net
- せやね
なんならアニメ調の絵は30くらいでも十分かも
- 561 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:42:38.70 ID:bfq41/Ms.net
- 正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる
- 562 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:44:43.86 ID:B6H/o30J.net
- あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある
- 563 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:45:48.91 ID:VUuwRUix.net
- @アニメキャラ画像<==>prompt=キャラ名+girlの出力
A本来のgirl出力(正則化画像)<==>prompt=girlの出力
@の距離だけを近づけていくと、過学習起こしたときにAの距離が次第にずれていく。
Aも同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。
- 564 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:50:53.54 ID:F0xLrC4V.net
- >>544
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流
- 565 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:56:10.75 ID:Kwyzi7uJ.net
- アニメキャラを覚えさせる場合
reg template smallest
"phot of a {}"→"{}"
に変更して
覚えさせたいキャラの特徴で吐き出させた方がいいのかね
- 566 :名無しさん@お腹いっぱい。:2022/10/15(土) 14:58:25.36 ID:+S3McIYd.net
- >>555
ありがとうございます!試してみます!
- 567 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:08:16.84 ID:nm/5L0YC.net
- >>564
環境も同じっぽいしやっぱり最適化不足なんだね
4090の本気が見られるのはまだ先かー
- 568 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:15:56.94 ID:F0xLrC4V.net
- Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと
- 569 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:18:11.65 ID:bfq41/Ms.net
- とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし
- 570 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:21:19.16 ID:+EjjPfMN.net
- >>548
がんばって
自分も詰んでる組だから
もし出来たらまた報告に来て欲しい
- 571 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:21:53.00 ID:0Krj1uq/.net
- >>557
ちゃんと読み込めてるな
他の設定も合ってるみたいだし、CPUとGPUの差が濃厚っぽいな
- 572 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:22:45.82 ID:+EjjPfMN.net
- >>549
まだ読んでないけどgigazineがkindleに無料の解説本だしてた
- 573 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:41:34.87 ID:EkMd8kqH.net
- https://github.com/7eu7d7/APT-stable-diffusion-auto-prompt
この技術なんか凄そうだけど
中国語でよくわからん
pixivをクローリングしてプロンプトを最適化したらしいけど
- 574 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:43:30.71 ID:zLlnUrZc.net
- ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね
- 575 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:46:24.94 ID:jDEnkG22.net
- 確かにHires.fix変わってScale Latentなくなってるな。これなしだと見栄えが違うから復活希望の意見ばかりだし、待ってれば戻ってきそう。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2613
- 576 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:48:59.51 ID:5rScqju3.net
- scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか
- 577 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:49:49.61 ID:eUckkZej.net
- 一方勝間和代は外付けGPUボックスを買った
ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/14/225419
別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた
Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
https://k%61tsumakazuyo.h%61tenablog.com/entry/2022/10/15/094147
- 578 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:49:57.86 ID:KzL+RF0K.net
- >>553
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう
- 579 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:54:09.49 ID:5ecYbv+F.net
- 勝間和代のブログ見てる人おんのか…
- 580 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:56:34.55 ID:093ZpIqN.net
- >>577
1111のgradioの機能でデプロイすれば出先でも使えるよな
グラボ持ち歩くよりこっちのほうがいいだろ
- 581 :名無しさん@お腹いっぱい。:2022/10/15(土) 15:56:38.51 ID:21RKitFN.net
- >>570
それっぽい報告は複数あるけど解決策出てないんだよな
https://github.com/microsoft/DeepSpeed/discussions/2408
https://github.com/microsoft/DeepSpeed/issues/2099
https://github.com/microsoft/DeepSpeed/issues/2191
- 582 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:10:39.34 ID:MA6pT5cu.net
- うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる
記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ
注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい
- 583 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:10:49.69 ID:6vS59t0d.net
- 勝間和代NMKD使ってるのか
画像まであげるとは攻めてるなー
- 584 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:24:43.36 ID:+EjjPfMN.net
- >>572
ごめんKindleUnlimitedで0に見えてただけだった
- 585 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:40:09.91 ID:4y2ZH5X6.net
- ワイのグラボGTX760で2GBしかないんやけどWebUI(AUTO1111版)いけるか?
- 586 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:43:50.49 ID:bHEhhghC.net
- いけますよ、CPUを使いましょう
1枚5分くらいで生成してくれることでしょう
- 587 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:47:08.80 ID:mbp63UAw.net
- 5分かかるCPUなら760でもGPU使った方がマシなんじゃないか
- 588 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:48:24.84 ID:MA6pT5cu.net
- 1111の最低要件ってVRAM4GBじゃなかったっけ
- 589 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:50:06.61 ID:21RKitFN.net
- AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる?
- 590 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:52:41.71 ID:MR4PxJk9.net
- NAIモデルでdreambooth走らせたいんだがgoogle cloabじゃ無理?
- 591 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:53:06.29 ID:pbYNsuKO.net
- 今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ
- 592 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:55:20.12 ID:mbp63UAw.net
- >>588
4chanに750Tiで動かしてる人おったから多分2Gでも動く
- 593 :名無しさん@お腹いっぱい。:2022/10/15(土) 16:55:44.11 ID:uMZtKJRm.net
- >>571
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。
- 594 :名無しさん@お腹いっぱい。:2022/10/15(土) 17:03:40.09 ID:uMZtKJRm.net
- せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定
- 595 :名無しさん@お腹いっぱい。:2022/10/15(土) 17:11:14.26 ID:mbp63UAw.net
- どっかの説明にも2Gでいける書いてあった気がするので探したがコレだわ
https://rentry.org/voldy
If you have 4GB VRAM and want to make 512x512 (or maybe larger) images,
use --medvram.
If you have 2GB VRAM,
use --lowvram
- 596 :名無しさん@お腹いっぱい。:2022/10/15(土) 17:48:01.71 ID:21RKitFN.net
- >>590
俺も探してるけど見つかってないな
- 597 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:00:08.61 ID:NWnRPioF.net
- ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。
- 598 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:10:32.38 ID:VOiTplJv.net
- colab1111の出力枚数上限の増やし方がわからない・・・
- 599 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:12:34.22 ID:iTuUmUVr.net
- コンフィグいじれよ
- 600 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:17:01.11 ID:VOiTplJv.net
- >>599
ローカルでいうui-configのcount/maximumがどこに
あるか分からないです・・・
素人質問すみません・・・
- 601 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:48:06.87 ID:S36LRKR5.net
- フォルダ直下
- 602 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:59:12.98 ID:O196yiuJ.net
- hypernetworkどれくらい学習すればこんくらい効果あるみたいな情報ないか?
- 603 :名無しさん@お腹いっぱい。:2022/10/15(土) 18:59:35.33 ID:/FBs4jwG.net
- >>600
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)
ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"
!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py
- 604 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:04:17.53 ID:nkG6PHq4.net
- >>602
エロスレに試してる人いる
- 605 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:06:10.12 ID:5rScqju3.net
- NAIモデルで月野うさぎ/セーラームーンが出ない
- 606 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:06:47.86 ID:S/D1EGiC.net
- >>496 >>497
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか
- 607 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:14:00.95 ID:VOiTplJv.net
- ありがとございました!
無事設定できました!
- 608 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:37:20.07 ID:uMZtKJRm.net
- メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ
are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...)
- 609 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:41:59.21 ID:uMZtKJRm.net
- はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ
適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分
- 610 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:42:21.90 ID:bfq41/Ms.net
- これを踏まえると、将来cuda以外で実行したら全部結果変わるっていう感じになりそうだな
- 611 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:43:03.24 ID:JcgiPC8b.net
- dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか
それか、step数踏めば銃やミリタリー系の色消えるもの?
- 612 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:44:24.00 ID:MA6pT5cu.net
- JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある?
- 613 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:46:39.79 ID:7nZ34vzV.net
- >>609
スペック記載してる店は少ないからバクチやけど、せめてハイスペゲーミングPCの席選ぶんやで
- 614 :名無しさん@お腹いっぱい。:2022/10/15(土) 19:53:13.33 ID:MA6pT5cu.net
- >>611
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか
- 615 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:06:43.56 ID:JcgiPC8b.net
- 適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?
結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする
- 616 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:33:09.95 ID:Ras3M4ay.net
- トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか
- 617 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:42:52.20 ID:Ntrq5HZ9.net
- novelAIに勝てねえ
やっぱ有料サービスは強いな
- 618 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:55:51.81 ID:hntWdn8M.net
- リークモデル使ってもやっぱ違う?
- 619 :名無しさん@お腹いっぱい。:2022/10/15(土) 20:56:45.47 ID:4y2ZH5X6.net
- 流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね
- 620 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:01:46.70 ID:Ras3M4ay.net
- グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように
- 621 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:12:38.01 ID:Ntrq5HZ9.net
- >>619
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど
- 622 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:21:10.64 ID:bfq41/Ms.net
- novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い
- 623 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:24:13.81 ID:TmM0Ta1u.net
- シンギュラリティ?!!
- 624 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:34:17.94 ID:Kwyzi7uJ.net
- NovelAI最近糞重くて サービスちょこちょこ止まってるけど
- 625 :名無しさん@お腹いっぱい。:2022/10/15(土) 21:37:38.67 ID:bHEhhghC.net
- radeonはrocmでcuda使えるって話もあるな
ただしmacテメーはダメだ
- 626 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:07:58.45 ID:nkG6PHq4.net
- dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら
- 627 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:13:27.58 ID:5Sol/bUf.net
- colabでdreamboothしばらく使ったらもう何日も使わせてもらえない
- 628 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:15:44.95 ID:hntWdn8M.net
- あんまり負担掛けるんじゃねーよ的な?
- 629 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:34:32.92 ID:khLmL76h.net
- dreamboothとTIとhypernetworkの使い分けがよく分からない
- 630 :名無しさん@お腹いっぱい。:2022/10/15(土) 22:54:34.79 ID:4y2ZH5X6.net
- >>621
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし
- 631 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:33:10.89 ID:yN0Lb7VT.net
- >>615
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし!
- 632 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:37:47.09 ID:mbp63UAw.net
- >>629
使い分けるまでも無くHNが完全上位互換じゃないの?
- 633 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:50:10.20 ID:eUckkZej.net
- Train Hypernetworkをさっき初めて開始した
100000stepsまで15時間
- 634 :名無しさん@お腹いっぱい。:2022/10/15(土) 23:56:32.22 ID:yj0C8KAM.net
- NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい
- 635 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:01:30.37 ID:Zee6dncT.net
- 1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる?
- 636 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:04:47.44 ID:i8k1JocR.net
- dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた
- 637 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:09:23.41 ID:igoLWNix.net
- >>629
>>629
TI(画風の学習)→プロンプトに味付け
教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
×学習時のモデルで使わないとダメ
(そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)
dreambooth(特定の意味を加える→キャラとか覚えさせる)
教えた画像群の意味を覚えさせてモデルに加える
→sksとか教えた意味が呪文で使える
hypernetwork(画風の学習→生成後半に味付け)
モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)
TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う
TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)
HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた
- 638 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:17:26.64 ID:bXlx3GEL.net
- >>635
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される
- 639 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:20:08.98 ID:6ffuqtQX.net
- スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる
一長一短だなぁ
- 640 :720:2022/10/16(日) 00:20:37.91 ID:igoLWNix.net
- あと、TIよりHNの方が学習時間が短い。
そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風〜とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない)
- 641 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:23:22.66 ID:kvXH9jJF.net
- はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう
- 642 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:27:05.45 ID:86BHjn16.net
- HNを複数作っておけば好きに画風を切り替えられるってことでいい?
- 643 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:27:20.34 ID:igoLWNix.net
- >>639
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする
)
- 644 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:32:22.50 ID:6x1IPbSd.net
- どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような
- 645 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:33:24.01 ID:J6rT9g9/.net
- こうしてみるとHNはckptというよりもdiffuserの拡張的なイメージなんだな
- 646 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:34:46.97 ID:igoLWNix.net
- >>642
画風を複数作っておくのはHNでもTIでも切り替え可能。
HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ
- 647 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:41:08.62 ID:6ffuqtQX.net
- HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ
- 648 :名無しさん@お腹いっぱい。:2022/10/16(日) 00:48:55.75 ID:wopiNjdt.net
- Hypernetwork strength...
- 649 :名無しさん@お腹いっぱい。:2022/10/16(日) 01:13:20.91 ID:ghjWKzhb.net
- >>630
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで
- 650 :名無しさん@お腹いっぱい。:2022/10/16(日) 01:55:54.91 ID:QmrqDzef.net
- >>630
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。
- 651 :名無しさん@お腹いっぱい。:2022/10/16(日) 01:56:01.24 ID:5rzd4/h5.net
- waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます
- 652 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:05:32.11 ID:5rzd4/h5.net
- >>630
>>650
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺
- 653 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:11:10.76 ID:QmrqDzef.net
- 6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。
- 654 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:14:00.78 ID:hZM0T8yy.net
- >>630
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる
- 655 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:27:26.22 ID:dh9YtBzs.net
- 1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと??
- 656 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:30:23.90 ID:QmrqDzef.net
- 5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB
- 657 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:37:15.76 ID:Gdqp7gRE.net
- 初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか
- 658 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:44:04.05 ID:FPOZlxXn.net
- >>657
TIでもHNでも一応できるよ
- 659 :名無しさん@お腹いっぱい。:2022/10/16(日) 02:54:41.70 ID:ZnhcANsj.net
- まあすでにRadeon持ってるならともかく、今からAI画像生成目的で買うならGeforce一択だと思う
- 660 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:11:46.80 ID:B9hWP+Us.net
- nobelAI本家と、ローカルとの構文の違いって、
本家では{}や[]があるらしいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'('を'{'
335行目の')'を'}'
に書き換えて
この書き換えを
- 661 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:13:59.26 ID:B9hWP+Us.net
- そのために↑のように
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズしているという
ことなのだろうか
- 662 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:51:11.60 ID:vfrGrCfV.net
- Radeonはvram多いのが安いから環境構築さえ安定して出来るようになれば学習系で使ってみたいとは思う。実際は苦労しそう
- 663 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:51:51.01 ID:NHyXE8Qr.net
- 少し前にも書かれてたけどStable Diffusion1111導入してnsfw生成しても乳首が描かれない現象にぶち当たってしまった
SettingsのFilter NSFW contentは外してるけど上手くいかない…助けて
- 664 :名無しさん@お腹いっぱい。:2022/10/16(日) 07:59:21.04 ID:ObnEzCwO.net
- エロスレで聞いたほうが早いんじゃね?
【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1665317109/
- 665 :名無しさん@お腹いっぱい。:2022/10/16(日) 08:11:24.98 ID:NHyXE8Qr.net
- >>664
ありがとう
ちょっと行ってくる
- 666 :名無しさん@お腹いっぱい。:2022/10/16(日) 08:37:08.15 ID:Zee6dncT.net
- >>638
ありがとう。試してみる
- 667 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:05:28.76 ID:B9hWP+Us.net
- >>661>>660
ふむふむメモとして自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答してしまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたたき上げで本家一切触らず無料でイクを通してきた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か???
- 668 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:19:58.47 ID:HUWTCMFo.net
- >>667
1111でも{}解釈してくれない?
- 669 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:28:22.97 ID:2aq9lCQB.net
- 1111で{}は意味ないぞ
- 670 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:42:02.54 ID:YEX1sJRa.net
- https://i.imgur.com/KwZZRBA.png
「Colabでgitを使うには」「SourceTree導入できないか」
と色々試してて、今start SourceTreeSetup-3.4.9.exeしようとしてエラー吐いてるんだけど、
もしかしてColabってPython上で実行可能なファイルしか実行できないとかある?
カレントディレクトリはrootだったのでその配下に置いたからパス問題ではないはずだが
- 671 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:46:51.38 ID:YEX1sJRa.net
- あーなんかgithubの導入はいけそうな記事あるな
- 672 :名無しさん@お腹いっぱい。:2022/10/16(日) 10:55:11.85 ID:2aq9lCQB.net
- >>670
colabはlinuxだぞ。windowsのバイナリが動く訳ない
gitは何もせんでもコマンド使える
- 673 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:13:50.17 ID:YEX1sJRa.net
- >>672
ありがとう、やっぱそういう根本的なとこだったか
そんでLinuxサポートしてないのな、代替GUI探してみるわサンクス
https://qiita.com/solmin719/items/f174aab0fc73ddbc9cdf
- 674 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:15:30.64 ID:J6rT9g9/.net
- colabって基本、セッション閉じたら環境もデリになるからあんまり凝ったことしてもすぐに飛んじゃうぞ
- 675 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:25:58.09 ID:+U5N+6KE.net
- 仕様をよく知らないけどcolabでコマンドを使う時は先頭に!を入れないと動かない
!wgetみたいに
- 676 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:26:45.89 ID:YEX1sJRa.net
- そこはわかってる、大丈夫
逆にコマンド全部自動化できるから毎朝環境構築してもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化した手順作りたいんだよね、今後もSDベースが出るなら役立つだろうし
- 677 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:27:31.29 ID:YEX1sJRa.net
- >>675
記事のコピペでGitHubまで通ったけどなんで!あんのかわかんなかったがなるほど、サンキュー
- 678 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:31:22.16 ID:igoLWNix.net
- >>651
img2imgの「Script」>「Poor man's outpainting」で
Outpaintingするんだ
「Up」だけ選んで64・128とか拡張したいピクセル数入れて
Generateすれば、切れてた頭の上が追加で描画される
- 679 :名無しさん@お腹いっぱい。:2022/10/16(日) 11:48:35.66 ID:J6rT9g9/.net
- colabはjupyter notebookベースだから、jupyter notebookの仕様見ると大体わかる。セルもjupyter notebookの機能
- 680 :名無しさん@お腹いっぱい。:2022/10/16(日) 14:24:32.60 ID:kkaKYXbZ.net
- hypernetworkを試してみているんですが、500ステップごとの画像出力がこんなにバラバラなのはうまくいっていない…ってコト!?
https://i.imgur.com/YTrrFiM.png
- 681 :名無しさん@お腹いっぱい。:2022/10/16(日) 14:25:27.84 ID:Zee6dncT.net
- >>680
シードがランダムになってるからじゃね?
- 682 :名無しさん@お腹いっぱい。:2022/10/16(日) 14:42:42.43 ID:kkaKYXbZ.net
- >>681
あーなるほど、トレーニング中のステップごとの画像出力でもtxt2imgの設定が使われるから、txt2imgタブのSeedを固定した数字にしておくべきなのか
試してみます
- 683 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:03:47.10 ID:B9hWP+Us.net
- やっとハローアスカが前進した
イムガーのエラーリストにあるものと完全一致同になったのが大きい
つまり構築に問題はなし。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとして、チェックするときはオイラーで。
紛らわしいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力しそうになるのかなと
というよりオイラーaで出力しようとして、オイラーで出力されたものと比較してあれ違くね?にもなった
cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大きい
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。
ところで、1111でsettingsのリセットってどうやるんですかね。
- 684 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:11:09.04 ID:J6rT9g9/.net
- settingのJSON削除したら再起動時にデフォのsettingのJSONが生成されるぞなもしばってん
- 685 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:38:27.23 ID:B9hWP+Us.net
- 全て終了させてdos窓も閉じてもまだ31337残ってるのだが
おかしいのうapplysettings押したからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりやなこのスレ、すまんな
たしかにconfig.jsonに呪いの数字31337あるものな
そうか、これSettingsとtxt2imgの項目別個ってことか
1つにまとめろや怒
- 686 :名無しさん@お腹いっぱい。:2022/10/16(日) 15:51:12.34 ID:sVKT7A6r.net
- 4090で速度上がったって人もいるね
遅いのはxformersなのかな?
- 687 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:01:48.29 ID:B9hWP+Us.net
- よし、ナマポおじさんつぎはドッカーかOpenVINOでも試してみるか
昨日?から初めてのギフハブ、はじめて?ではないか、パイソンときて
よく見かけるアイコンのドッカー。OpenVINOはしらね。
試すのもありよな
- 688 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:08:17.71 ID:Wyi55eZ9.net
- おめぇの日記帳じゃねえんだよ
- 689 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:11:34.08 ID:4txKkgUl.net
- 構ってもらえるから居場所見つけたと思ったら調子に乗っちゃって叩かれるパターン
何度見てきたことか
- 690 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:24:51.33 ID:ghjWKzhb.net
- >>523が褒めたせいなんだろうけど、606以外特に褒めてないのにここまで日記帳にできるのな
昨日は大人の対応で無視してたけど、俺も流石にウザくなってきた
- 691 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:25:09.35 ID:1Get5kDd.net
- ColabでAutomatic1111をはじめたんだけど、不安定じゃない?
どうやらgradio.appが重すぎるんだよね。
radio.appのかわりに ngrokが使えるから、同じように不安定な人は試してみると良いかも。
起動引数で、--share の代わりに --ngrok トークン とすると、ngrokが使える。
これでだいぶ安定した。
- 692 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:32:31.29 ID:B9hWP+Us.net
- クッ、くやしいのう
でもなぁワイはウザイと言われるとやる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼやで
若い子にはそこがわからんやろなあ
図々しくいくんや
- 693 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:34:01.06 ID:1Get5kDd.net
- >>691
radioの問題だけど、参考までにgithubの情報も載せとく
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/344
- 694 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:38:50.59 ID:1Get5kDd.net
- Colabの無料枠って使い切ったら、待ってたら回復する?それとも課金しかない?
課金の 100コンピューティングユニットってどのくらい使えんの??
- 695 :名無しさん@お腹いっぱい。:2022/10/16(日) 16:55:46.65 ID:ZnhcANsj.net
- 教師画像約250枚、正則化画像約2500枚でJoePenna版のDreamboothを30000ステップ勉強させてみた
何を学習させたかは伏せるけど上手く行き過ぎて戦慄してる
やっぱりVRAM24GB使うだけあってクオリティすごいね
- 696 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:05:04.93 ID:86BHjn16.net
- モザイク必要になる奴?
- 697 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:17:04.92 ID:I8bATd7d.net
- >>694
待ってたら回復するよ
100コンピューティングユニットだと無料枠と同じGPU(Tesla T4)で50時間くらい使える
- 698 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:21:45.04 ID:t7hiT172.net
- >>695
正則化画像のクオリティは拘った?自動生成やデータセットは酷いの多くて毎度うっすら気になる
- 699 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:31:09.51 ID:i8k1JocR.net
- Waifu-Diffusers1.4来たらdreamboothに革命来る?
- 700 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:32:03.23 ID:6hH9al3A.net
- >>695
3090欲しくなるやんけ…
- 701 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:34:09.14 ID:xGrXXdLo.net
- >>695
250枚ともなるとステップ数も凄いな
時間どんくらいかかるんそれ
- 702 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:44:01.08 ID:ZnhcANsj.net
- >>698
正則化画像はwd1.3で1girlとだけ指定、ネガティブプロンプトは無し、ステップ数は40
むしろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う
>>701
3090Tiで約12時間かかった
- 703 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:46:10.38 ID:T83lw36i.net
- 成果物の提出をお願いいたします
- 704 :名無しさん@お腹いっぱい。:2022/10/16(日) 17:50:14.43 ID:86BHjn16.net
- 絵柄の学習は完全にクリーンだから
出していいでしょ
見せてくれませんか
- 705 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:03:32.09 ID:ZnhcANsj.net
- >>703
>>704
権利関係とかを気にしているわけではなくて、キャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな
ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもできて戦慄してる
- 706 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:04:34.37 ID:BIra5d23.net
- ついに俺のGTX1080のフルパワーを発揮するときが来たと思ったけど
メモリが足りなくて泣いた
- 707 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:06:03.17 ID:kWLs9UQI.net
- hypernetworkで使うプロンプトってカッコやネガティヴプロンプト使えるのだろうか?
- 708 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:08:03.30 ID:xGrXXdLo.net
- >>702
12時間ワロタ、すげえな
そんくらいあると学習元とほぼ同じポーズとかあっても気づかなそうだ
- 709 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:25:15.07 ID:ejt6P45d.net
- 1111でgradio経由で任意のPythonコードを実行できる
脆弱性が発見されたとのこと
やってる人いないと思うけど--sharedオプションつけて動かしてるとPC乗っ取られたり情報漏洩する可能性あり
- 710 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:25:33.47 ID:ejt6P45d.net
- >>709
スレッド
https://www.reddit.com/r/StableDiffusion/comments/y56qb9/security_warning_do_not_use_share_in
- 711 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:25:57.43 ID:+U5N+6KE.net
- diffusersで生成はTPU使えるようになったけどもう学習もできるのかね
まあそのうち情報が出てくるんだろうけど
- 712 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:33:02.39 ID:ejt6P45d.net
- 誤記:shareオプションだ
- 713 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:38:34.37 ID:+U5N+6KE.net
- 任意のコードを実行できるっていうのはscript部分のcustom codeか?
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう
- 714 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:43:45.45 ID:VAYJsdng.net
- AIくん手や足が苦手なのはhypernetworkやDream boothで追加学習させれば解決出来る?
- 715 :名無しさん@お腹いっぱい。:2022/10/16(日) 18:45:26.99 ID:HJvyOLCz.net
- ローカルマンは起動時のlunch=trueになってなければ大丈夫
- 716 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:09:03.38 ID:k2SMXVws.net
- 勝手に変態スケベ画像作られちゃう!?
- 717 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:14:21.38 ID:c/X3WEwH.net
- ウェブカメラ起動されて顔写真撮られまくって自分のエロ画像生成された挙げ句拡散されるぞ
- 718 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:23:11.79 ID:B9hWP+Us.net
- 中間報告しておかなあかんな。いや最終でええのか?
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付きになる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だしな)
で、そのあと本家に合わせてeuler_aでENSDに数字ぶち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にしてどうなるか試してる。
cmdr2からすっと1111に切り替えて正解やったで。
- 719 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:32:43.44 ID:B9hWP+Us.net
- さすがにeuler_aで出力の場合はENSDに入れる数字で出力結果はかわるんやな。
そらENSDに数字入れろ言うわけやわ。
でも大まかな変更点はそれほどない。いやあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー
- 720 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:34:23.17 ID:7rdeF0oE.net
- novelaiで画像生成してたら突然エラーが出て、「エラーコンソールを参照しろ」って出てくるんだがどこから見れる?
- 721 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:34:47.16 ID:I8bATd7d.net
- AUTOMATIC1111Colab版だとshareってのが必要なのか
- 722 :名無しさん@お腹いっぱい。:2022/10/16(日) 19:57:12.56 ID:J6rT9g9/.net
- ハイレゾの設定ってどれぐらいが適正値なのかさっぱり分からん…
512にしたら荒くなるし、数値を大きくすると首が増えるし…
前のscaleratentの時って内部の設定幾つだったんだよう
- 723 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:06:33.73 ID:B9hWP+Us.net
- 新しい問題に直面したからまた居座ることにするわ
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルやbatファイル書き換えたのが原因かもだけれど、
本来?よくある手順サイトや他のスレでもwebui-user.batから起動しているところを、
俺はwebui.batで起動しているんよ。
逆に、webuiーuser.batから起動しようとすると何かキーを押してくださいで落とされる。
原因なんだろなぁ、webui-user.batへの記入漏れか?
いやでもwebui.batで起動できているし…
本来webui―user.batへ記入するべきものがlunch.pyなんかに記入しててそれでuser.batから起動せんのかなぁ
結果的にwebui.bat起動だとうまくいくと。
順序的にはみなwebui-user.batから起動しているということはきいたし、
webuiーuser.bat→webui.bat→lunch.pyなんかな?
うーん
- 724 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:15:38.49 ID:B9hWP+Us.net
- 多分pyに書いたのをそのままで
webui-userに書いていないのが原因な気がしてきた
というかそもそもlunch.pyに記述せず、
webui-userに記述したらいいってことけ?ことけ?だよな?
…そういやどこにおれ記述したかな
- 725 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:16:35.23 ID:7Ekig07N.net
- とりあえずgitクローンからやり直しせばなおる
- 726 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:21:10.29 ID:B9hWP+Us.net
- 変更加えたのluntchpyとbatファイルしかねーしな
それだけ保存して、1からやり直ししてしまえば
diffでどこ変更したかもわかるしな
というか、userに――ダンボールいれたらなにかおいしいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ
- 727 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:24:42.43 ID:7DUNBWh6.net
- 俺も手やら強化したい部類があるが
embeddingだとイマイチだしTIだと絵そのものが変わっちゃうから困るんだよなぁ…
この辺の正しい使い方あると嬉しいんだけどな
dreamboothってのがいるんかなあ
- 728 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:26:45.64 ID:Zee6dncT.net
- 手を治すみたいなのはSD1.x根本の問題みたいだし、後付学習でどうにかなるものじゃないかも
NAIでもそうそうきれいに出ているわけじゃないし
- 729 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:30:28.08 ID:7DUNBWh6.net
- 出にくいもの出したいってときどうすればいいの?強調したら出てくるけど位置がおかしいとかそういうのになるから教えてあげたいんだけど
アクセサリーとかエロネタ系だったり
- 730 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:30:49.44 ID:7Xgmo+75.net
- colabでshareやると危ない的なこと他スレで見てビビってるけど大丈夫なのかな
有識者さん教えてくださいm(_ _)m
35 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セキュリティ警告Automatic1111 webuiで--shareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索している人がいる。
Exploitはこちらで共有されています: https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2571
(中略)
以前、この件について投稿を行い、追加情報を集めました。もしあなたが --listen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもしれません。しかし、最も危険なのは --share を使った場合です。人々はこのインスタンスを検索していますし、悪用方法も公開されています。
- 731 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:34:24.68 ID:XnlSfyrV.net
- 質問するようなレベルならやめるべき
- 732 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:37:37.00 ID:1j9gK3ok.net
- 前からパスかけずに--share使うなって言われてんのに使ってる奴居るのか
- 733 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:40:09.26 ID:7+6NBw4t.net
- >>726
たぶんlaunch.pyを書き換えたのは良くなくて、
webui-user.batだけ書き替えて実行すれば動くはず。
set COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいやつを全部書く。
だけど、もしそれで動かんなら力になれんわ。
- 734 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:43:02.80 ID:J6rT9g9/.net
- ローカルで普通はshareなんか使わんだろう。そんなオプション知ってる方が少数派だと思うが。
- 735 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:43:38.36 ID:k6J7VrR6.net
- >>>709
Ngrok経由なら大丈夫ということでしょうか?
- 736 :名無しさん@お腹いっぱい。:2022/10/16(日) 21:45:36.39 ID:+ZwawC2e.net
- >>729
それはinpaintしかないんじゃないかな
- 737 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:19:07.67 ID:7DUNBWh6.net
- >>736
なるほどねー
正しい位置に出たらそのままでいいし増え過ぎたら削って感じ?
新しくは書き込めなかったよね…?
- 738 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:21:17.88 ID:J6rT9g9/.net
- 書き込めるよ。
元絵の任意の場所に出したいアイテムの大まかな形状と色を塗る。
塗った部分をマスクしてアイテムのpromptを指定してマスクしてインペイントをかける
ガチャる
これで概ね、何とかなる
- 739 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:52:25.29 ID:7DUNBWh6.net
- >>738
なるありがとう。
- 740 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:53:20.63 ID:XIiZzwz/.net
- >>694
自分も無料Colabだけど、丸一日経った頃には大体復活してる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンしてるわ
でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもしれない
- 741 :名無しさん@お腹いっぱい。:2022/10/16(日) 22:58:38.91 ID:s5IGHlcL.net
- 機械学習って今まではmacやlinuxが主流だったけど、SDはなぜかwindowsが主流だよね。その辺も裾野の広がりに関係してると思うわ
- 742 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:11:58.25 ID:1Get5kDd.net
- >>735
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと
- 743 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:14:58.39 ID:+U5N+6KE.net
- グラボが全て
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう
このままだとMacはスタバでドヤるためだけのパソコンになるだろうな
- 744 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:16:25.47 ID:1Get5kDd.net
- >>697
>>740
さんきゅー。とりあえずしばらく待ったら復活した。
無料だとトレーニングはなかなか難しいかもねー
- 745 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:44:22.73 ID:wopiNjdt.net
- xformers有効でたまに真っ黒の出るんだけどおま環?
- 746 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:53:47.82 ID:rT5G0VDH.net
- >>745
俺も入れてから出るようになった。StepやScale上げてあげると回避できることはあるけど
発生条件はよくわからんんね
- 747 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:58:33.82 ID:2YaNlGqE.net
- >>741
機械学習は今も昔もpython一択じゃねえの?
SDは単にWindowsでも楽に実行環境を作れるってだけの話じゃろ
- 748 :名無しさん@お腹いっぱい。:2022/10/16(日) 23:59:12.45 ID:Yg7Hg+zN.net
- shareってローカル1111起動する時
To create a public link, set `share=True` in `launch()`.
て出てるのまずい?
- 749 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:03:18.16 ID:gWeiQ26A.net
- >>748
(ローカルではない)publicなリンクを作るためには'share=True'にしろよ、って言ってるだけだ。
- 750 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:09:09.14 ID:U7+CHkNh.net
- colabの方のgigazineの手順(というか作成済colabファイル)には--shareが明確にある
ローカルの方はなんか手順書書いた人によって入ってたりするらしい
- 751 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:16:30.99 ID:WG4Oke8l.net
- xformersビルドしないと動かないのに勝手にインストールするコード入れられてるからバージョン上げられない
- 752 :名無しさん@お腹いっぱい。:2022/10/17(月) 00:19:15.31 ID:gWeiQ26A.net
- launch.py見た感じ、今も--xformersオプション付けなければインストールされないのでは?
- 753 :名無しさん@お腹いっぱい。:2022/10/17(月) 01:34:50.34 ID:alDmjM1O.net
- xformersのビルドパラメーター変えたら動くようになった
そもそも入ってなかったのかも
- 754 :名無しさん@お腹いっぱい。:2022/10/17(月) 02:09:11.72 ID:/Z66lPo9.net
- というか1000番台以降なら--xformersで完全に自動で入るはずだし
それ以前のは悪影響の方がでかい
- 755 :名無しさん@お腹いっぱい。:2022/10/17(月) 07:16:13.77 ID:iZ/UdLjt.net
- 絵柄を統一するにはどうしたらいいんだ?
- 756 :名無しさん@お腹いっぱい。:2022/10/17(月) 07:49:48.10 ID:2m3hygkV.net
- >>754
3000以降でなくて?
- 757 :名無しさん@お腹いっぱい。:2022/10/17(月) 07:54:00.36 ID:nQGEYwDS.net
- Hypernetworkに画像70枚の正則化込み180枚投入して6万ステップ回したけど収束の気配なし
画像が多すぎると無理なのか
- 758 :名無しさん@お腹いっぱい。:2022/10/17(月) 08:07:27.14 ID:d2XyZlWc.net
- >>730
生活保護ナマポ+障害年金2級精神ワイの見解やと
危険もなにもリークをダウンロードしていることでそれは承知の上だし
novelAIがもとにしているのが許可なし転載サイトの絵だったりでそれを承知の上だし
そういうことやろ
いまさらという
- 759 :名無しさん@お腹いっぱい。:2022/10/17(月) 08:48:45.02 ID:OdjOHVZz.net
- 絵より実写の呪文集まとめてる場所の情報欲しいんですけどそういうのって知らないですか?
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で
- 760 :名無しさん@お腹いっぱい。:2022/10/17(月) 08:52:52.10 ID:fu4E24m1.net
- >>757
一旦、20枚ぐらいに厳選して、学習率も5e-5ぐらいの粗いところから始め、
ログで損失率の推移やPNG見て過学習0生成がで壊れるステップ数を確認した上で、
どれだけの枚数食わせるか、学習率を下げるかを検討したほうが良いと思う
- 761 :名無しさん@お腹いっぱい。:2022/10/17(月) 09:07:03.32 ID:d2XyZlWc.net
- すべて見直して、webui-user.batに値をぶち込んだらいい感じに起動してくれた。
まぁ、起動してよしじゃだめだからな。煮詰めないと。
どれにしてもどうしておれはwebui.batで起動していたのか記憶にございません。
色々な情報から、launch.pyのここ書き換えてとか、webui-user.bat書き換えてとか情報みててそれぞれやって、
最後押したのがwebui.batでたまたま起動してくれたのが混乱の原因だな。
ちょっと前までは、git bush hereして即webui-user.bat書き換えて(つまりckptとか入れるの忘れて)起動してあれ?となっていたからな。
もうあらかじめリネームしてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認している。
準備良しだな。なお、
--skip-torch-cuda-test --precision full --no-half --medvram をぶち込んでいる。
というより、--medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないしな。
インテルグラフィックス5000がCUDA対応していないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションしか注視していなかった。
というよりだな俺ってこれまでずっと飛鳥しか出力してないんじゃねってことなんだよな。
- 762 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:32:25.54 ID:mndmJmmd.net
- 自分の好きな絵師の画風を学習させると本当にシコリティ高いな
正規化した画像と間違えて元画像使って15000ステップ回してしまったけど、
十分実用に足るものが出来てしまった
- 763 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:36:14.41 ID:nQGEYwDS.net
- >>760
6万ステップで破綻したから戻って学習率1/10にしてやり直してる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか
- 764 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:36:57.29 ID:mndmJmmd.net
- そして書くスレ間違えた…
いやまあ大きく外れてはいないけど
- 765 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:40:03.05 ID:ULNZXAxL.net
- 帽子とか被らないようにしたい場合はどんな呪文を入れればいいのか教えてください
- 766 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:55:02.80 ID:2JeR298Q.net
- negative promptに帽子いれたら?
- 767 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:56:22.48 ID:/4GmzdgE.net
- Dreamboothで学習した結果、sksを入れずに例えばNendoroidoとだけ指定してもなんか学習元を反映させてそれっぽくしてくる
てか逆にsks入れるとNendoroido要素無視してくる
これは過学習なのかな?
- 768 :名無しさん@お腹いっぱい。:2022/10/17(月) 10:57:10.16 ID:FjkRtqVh.net
- xformersのおかげかvram12gbでTIバッチサイズ2で回せるようになっていた
dreamboothと比べて気軽に組み合わせられるのは魅力だし使っていきたいね
- 769 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:01:58.50 ID:rgXlaQs+.net
- SDやWDってfp16だとckptは2GB程度だけど
出回ってる追加学習したやつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど
- 770 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:29:12.21 ID:fu4E24m1.net
- >>769
謎なんだけど、NMKDで剪定しちゃえば同じ生成してくれる2GBのモデルは作れる
- 771 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:37:04.40 ID:d+usOTfa.net
- 追加学習なんだが
破綻するステップ数を確認したら
最初からやり直して破綻する前に止めるってやり方で合ってる?
- 772 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:56:25.35 ID:rgXlaQs+.net
- >>770
prune済みfp16でも小さくなるって事?
どうやればいいの?NMKD使った事なくてよく分からん
- 773 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:58:33.91 ID:nQGEYwDS.net
- hypernetworkのトレーング方法ようやく要領が掴めてきた
Tiよりは大分いいな
- 774 :名無しさん@お腹いっぱい。:2022/10/17(月) 11:58:57.02 ID:x0GhWPSO.net
- 学習系もう全然わかんなくなっちゃった、TIはやったことあるんだけど
hypernetworkの1111版を説明してるサイトとかない?
https://kirarico.net/memo/2174/
これの
> できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する
ptファイルって駄目なのを自分で消したりするものなの?
途中経過で作られる画像自体には意味ないよね?
- 775 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:07:51.66 ID:PEU3gbWs.net
- >>769
pruneスクリプトが9/28以降おかしいからじゃね
作者は新しいの使ってるみたいだけどそれだとprune前後で出力内容が変わる
https://github.com/harubaru/waifu-diffusion/commits/main/scripts/prune.py
- 776 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:33:04.82 ID:fu4E24m1.net
- >>772
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない
使い方
NMKDをインストールして起動。
右上にアイコン並んでるメニューあるから、develoer toolsを選んで、
さらにpruned(trim)modelsというのを選ぶ
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.
で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど
- 777 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:45:13.44 ID:rgXlaQs+.net
- >>775.859
ありがとう、どちらも試してみるわ
- 778 :名無しさん@お腹いっぱい。:2022/10/17(月) 12:53:25.46 ID:nQGEYwDS.net
- Hypernetworkでdreamboothみたいに少ない枚数で学習したい
流石に5-6枚では無理か?
- 779 :名無しさん@お腹いっぱい。:2022/10/17(月) 13:04:46.79 ID:s3d8QjiO.net
- ようやくStable Diffusion web UIがApple Siliconで動作したので情報共有しておく
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで
bash -l -c "conda activate web-ui; pip install jsonmerge einops clean-fid resize_right torchdiffeq lark gradio fastapi omegaconf piexif fonts font-roboto pytorch_lightning transformers kornia realesrgan scunet timm"
を実行すると依存関係の問題が解決する
https://github.com/sd-webui/stable-diffusion-webui/issues/1518
あとは、run_webui_mac.shを実行するだけ
ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
https://github.com/dylancl/stable-diffusion-webui-mps/blob/master/setup_mac.sh
104行目の
pip install -r requirements.txt
が機能してない理由わかるAnaconda環境に詳しい人がいたら教えてほしい
これ自分もmacのデフォがzshだからパス通ってなくて、bashからcondaコマンドでインストールしなきゃいけないんじゃないかと思って試してみてたんだよね
pip install jsonmergeと明示するとインストールできて、pip install -r requirements.txtだと駄目な理由知りたい
ちなみに、requirements.txtにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたときは自己解決できるようになりたいす
- 780 :名無しさん@お腹いっぱい。:2022/10/17(月) 13:46:44.99 ID:TZxRUe++.net
- auto1111だけど、2-3日前はgit pullできたのに
さっきやろうとしたらエラーになっちゃった
モデファイしてないのにモデファイ済みだからアップデートできないと出る
これ強制上書きにしちゃっていいのかな
- 781 :名無しさん@お腹いっぱい。:2022/10/17(月) 14:30:32.55 ID:zoSlJeQX.net
- NMKD Stable Diffusion GUI 1.6.0がリリースされて、DreamboothのGUIサポートらしい
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)しか使えないけど
- 782 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:09:32.24 ID:Y2AMcOHu.net
- TrinArt旧キャラクターモデルがオープンソース化
https://twitter.com/naclbbr/status/1581876642200244224?s=46&t=Y8rt7gPiC2mM-zVcHKTPiA
(deleted an unsolicited ad)
- 783 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:20:18.77 ID:2kKXaQLK.net
- 当たり前のようにVAEをかます手法になってきたなw
- 784 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:31:48.42 ID:nQGEYwDS.net
- hypernetwork異常なほど過学習しやすいな
バラ付きの少ない顔画像だと5e-06で3000stepくらいで既に崩れ気味になってくる
- 785 :名無しさん@お腹いっぱい。:2022/10/17(月) 15:33:18.61 ID:hP+5piYT.net
- >>774
hypernetworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過したら
途中経過のptファイルで試して丁度いいステップ数のデータを探せってことでしょ
ちなみにembeddingsじゃなくてmodels/hypernetworksフォルダだけど
- 786 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:05:42.43 ID:n2Bxn8NT.net
- >>782
405MBしかないautoencoder_kl-f8-trinart_characters.ckptはどう使うものなのかな
- 787 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:08:23.94 ID:2kKXaQLK.net
- >>786
vaeだろう? waifuと同じ感じの
ファイル名も同系列だし
- 788 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:09:56.53 ID:4sACRINh.net
- HypernetworksはGithubにあったこれで大体うまくいってる
5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
- 789 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:12:19.14 ID:2kKXaQLK.net
- とりんもNAIにライバル心バッチバチだな
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
- 790 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:13:30.61 ID:nQGEYwDS.net
- そんなもんだよな、5e-6で1万回とか回したらすぐ壊れるわ
- 791 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:15:02.59 ID:ljDkNpKQ.net
- Embeddingsでキャラ学習させてるんだが
テストプロンプトでmasterpiece, best quality, embeddings名みたいな感じにして回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってキャラ学習すると同時にデータの絵柄も学習されていっちゃっててmasterpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
- 792 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:16:33.01 ID:n2Bxn8NT.net
- >>787
models\Stable-diffusion に入れればいいんですか?
- 793 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:17:06.46 ID:4sACRINh.net
- ちなみにTIのBatch sizeって増やしたら必要スペックがその分単純に割り算で減るって認識で良い?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epochの数も半分になるし合ってると思うんだが
- 794 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:37:00.08 ID:l1DjdfDd.net
- >>761
medvramのあるなしでメモリ使用量と速度がどう変わるかやね
- 795 :名無しさん@お腹いっぱい。:2022/10/17(月) 16:55:45.37 ID:lhahwq9Z.net
- SDの拡散モデルって2次元画像とワード類の関連付けから2次元画像への推測って感じで
対象を3次元的に解釈してどうこうみたいなことはしてないって感じの理解でいいんかな
例えば りんご,俯瞰視点 みたいなワードで生成を試みるとして
参照するのは りんご や 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解して角度変えて描画してるわけではないみたいな
- 796 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:02:14.80 ID:+Pf/s7hV.net
- https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1
trinの更新来てるじゃあん
waifu1.3はつまらないな
一山いくらで売られてそうな萌絵しか出ない
- 797 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:06:20.98 ID:wYyHAuYq.net
- 3070tiの俺氏、vram8GBでのDreamboothのハードルの高さに憤死
2060でも買ってこようか真剣に考えてる
- 798 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:08:04.28 ID:d+usOTfa.net
- 1.3はちょっとガッカリでしたね
- 799 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:17:36.70 ID:mndmJmmd.net
- アウロリ製造目的でもないならdreamboothはcolabでよくね
- 800 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:19:54.66 ID:wYyHAuYq.net
- 冷静な指摘THX
- 801 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:30:32.51 ID:jzVVkhF8.net
- >>774
Hypernetwork解説してるのこれかなー。ちゃんと見てないけど
https://www.youtube.com/watch?v=1mEggRgRgfg
- 802 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:35:35.74 ID:PG7EuW3q.net
- ドリブス等のファインチューニング?て教師画像何枚くらいが適正ですか?
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔や全身の画像を含めて100枚くらい入れるべきなんでしょうか
- 803 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:39:26.96 ID:jzVVkhF8.net
- >>787
すまん、vaeについていけてない。どう使えばいいの?
- 804 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:41:36.24 ID:LrKWnqH7.net
- NAIこれもしかして規制入った?
NSFWって入力してもビーチクもコーチンも出てこないんだけど
もしそうならもう使う理由が無いんだが
- 805 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:41:51.73 ID:2kKXaQLK.net
- >>803
6
- 806 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:44:37.35 ID:d+usOTfa.net
- >>804
今やってみたけど今まで通り出るよ
- 807 :名無しさん@お腹いっぱい。:2022/10/17(月) 17:52:13.04 ID:4sACRINh.net
- >>804
Fullにしてないオチ
- 808 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:04:38.20 ID:L7rdcMqT.net
- とりさんまはどれをどこに入れればええんやん?
- 809 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:05:25.98 ID:L7rdcMqT.net
- 自決した
- 810 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:16:54.70 ID:ZVbLymcT.net
- colab環境でdreambooth回すならwaifu1.3を使うしかないのか
- 811 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:18:40.75 ID:n2Bxn8NT.net
- >>805
autoencoder_kl-f8-trinart_characters.ckpt
を
trinart_characters_it4_v1.vae.pt
にリネームして、trinart_characters_it4_v1.ckptと同じようにmodels\Stable-diffusionに入れればいいのかな
NAIも同じようにanimevae.ptを[novelaiのckptのファイル名部分].vae.ptにリネームしてmodels\Stable-diffusionに入れるとかあったけど、これしなくてもアスカテストは通ったんだよね
VAEはよくわからんがやっておこう
- 812 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:28:46.14 ID:mtmeY11F.net
- とりんの新しいやつ使ってみたが、やっぱり手はダメか。
https://i.imgur.com/lBJTIWH.png
しかしNAIになれてしまうとプロンプト開発キツいなー。こんなにじゃじゃ馬だったかな
- 813 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:30:53.13 ID:2kKXaQLK.net
- とりんのオープンは言ってみれば新世代の宣伝用の古いやつだからな
まあ、ある程度劣るのはしゃーない
- 814 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:35:07.99 ID:CKWAYoH4.net
- NAIも裏で入ってる優秀なネガティブプロンプトが無いとわりと品質落ちるぞ
- 815 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:44:46.35 ID:yqllOzjB.net
- hlkyって死んだの?
- 816 :名無しさん@お腹いっぱい。:2022/10/17(月) 18:49:49.96 ID:AN5V5xfD.net
- >>795
立体要素はないと思う。ただ切り抜きみたいな事はやってる
この画像で言うとこの部分がリンゴだよ、みたいな
- 817 :名無しさん@お腹いっぱい。:2022/10/17(月) 19:19:29.32 ID:mndmJmmd.net
- HNは何か急激に再現度上がるタイミングがあるな
- 818 :名無しさん@お腹いっぱい。:2022/10/17(月) 19:26:37.90 ID:jzVVkhF8.net
- >>811
ありがとう!
colabはwgetでモデルとってくるところをこんな感じにすれば良さそう
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/trinart_characters_it4_v1.ckpt -O models/trinart_characters_it4_v1.ckpt
!wget --header={user_header} https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1/resolve/main/autoencoder_kl-f8-trinart_characters.ckpt -O models/trinart_characters_it4_v1.vae.pt
- 819 :名無しさん@お腹いっぱい。:2022/10/17(月) 19:46:35.16 ID:jzVVkhF8.net
- >>818
ごめん、このwgetのコマンドは間違い。
vae.ptが ckptと同じ場所、
stable-diffusion-webui/models/Stable-diffusion/
にないとダメだわ。
こんな感じになったら、VAEがロードされてるはず。
Loading weights [d64dab7f] from /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.ckpt
Global Step: 101319
Loading VAE weights from: /content/stable-diffusion-webui/models/Stable-diffusion/trinart_characters_it4_v1.vae.pt
Applying cross attention optimization (Doggettx).
Weights loaded.
- 820 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- 私もHypernetworkが上手くいかないので教えてください。
キャラを学習させたいんだが、学習後、t2i実行しても全然反映されない。
下記手順でやってるんですが、どこがいかんでしょうか?
・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・やりたい事:赤い髪の女性キャラ(AKAKO)を学習させたい
1.画像を20枚用意(紐づけるtextファイルの内容は「a woman with red hair」等)
2.空のHypernetworkファイル名を「AKAKO」で作成
3.5e-6、10000stepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, white background」
>100step事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、settingタブのHypernetwork設定を「AKAKO」を指定してApply settingクリック
5.txt2imgでプロンプトを「AKAKO, 1girl, solo, white background」で実行
・・・学習した特徴のない(赤毛でない)キャラが作成されてしまう。
(「a woman, 1girl, solo, white background」でもだめ)
- 821 :名無しさん@お腹いっぱい。:2022/10/17(月) 20:31:29.55 ID:fu4E24m1.net
- >>820
5e-5、3000ステップを目処に試行する
キャプション生成はdeep danbooruを使う
学習用プロンプトのキャプションに 赤い髪 の指定を入れない
学習用テンプレートテキストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにしておく
自分ならとりあえずこんな感じで試すかも
- 822 :名無しさん@お腹いっぱい。:2022/10/17(月) 20:34:55.89 ID:adqtuMlL.net
- なかなか 難しいね
- 823 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:02:41.17 ID:NFtScPgO.net
- とりんさまも結構やる子だぞ
https://i.imgur.com/QSbVPOy.jpg
https://i.imgur.com/sS7R7xx.jpg
- 824 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:35:22.64 ID:891my6Vf.net
- イケメン生成するためにずっとtrinart2使ってるけど、美少女もわりといけると思うんだ
https://i.imgur.com/FitNt0H.jpg
https://i.imgur.com/ZGU7YBm.jpg
https://i.imgur.com/rbVFCsv.jpg
新しいのはまだ遊んでないけど、どう違うやつなんだろ
- 825 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:39:57.04 ID:UGl0wV53.net
- 新しいのは有料サイトで公開されてたやつの丸丸SD移植版だな。
ほんの少し前に有料サイトのAI絵描きのバージョンが上がったので、ところてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
- 826 :名無しさん@お腹いっぱい。:2022/10/17(月) 22:51:45.40 ID:adqtuMlL.net
- xformers 入れてる当初はそうでもなかったが
最近は意地でも VRAM6GB位しか使わなくなった
- 827 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:05:28.46 ID:891my6Vf.net
- >>825
わかりやすい
得意分野は既存版とちょっと違うんだろうか
上手く使い分けられるといいな
- 828 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:47:42.47 ID:+Pf/s7hV.net
- 色々試してるけど、結局waifu1.2に戻ってくる
https://i.imgur.com/cCJf2DY.png
- 829 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:55:39.15 ID:UGl0wV53.net
- 偏れば偏るほど、実はノーマルSDの要素が結構重要だったことに気がつく
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
- 830 :名無しさん@お腹いっぱい。:2022/10/17(月) 23:57:11.48 ID:+Pf/s7hV.net
- 手とかの細かい部分を修正したいから
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
- 831 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:02:36.49 ID:j0I0cSk3.net
- >>829
記憶を上書きしてるようなもんだからな
まぁ全てを内包したモデルなんか作られても一般人には動かせないんでしゃーない
色々マージして自分の用途に対してのベストを見つけるしかないな
- 832 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:06:18.31 ID:oKNCSux3.net
- ブレンド以外にもi2iで段階ごとにモデル変えてフィルタ がわりに使うとかもあるしな
とにかく可変要素がprompt以外にも馬鹿みたいに広がってるので、最適値探しが大変だわ
- 833 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:18:08.04 ID:8/hguxf8.net
- Stable Diffusion Prompt Generatorが使えなくなりました
- 834 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:18:46.14 ID:8/hguxf8.net
- Stable Diffusion Prompt Generatorが使えなくなりました
自分だけでしょうか?
もしかしてサービス終了したのでしょうか?
- 835 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:31:00.38 ID:93v8L+yq.net
- 上の方でNAIのデータを元にdreamboothしてるっぽい人がいるけどあのデータのckptからDiffuseに変換できます?
試してみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走しない
- 836 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:43:10.46 ID:l1T5Qa1Z.net
- diffusers/scripts/convert_original_stable_diffusion_to_diffusers.pyで
config.yamlとfinal-pruned.vae.ptをfinal-pruned.ckptにおいて
python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --dump_path=model_output
で出来た。vaeが変換できてるかは知らん
- 837 :名無しさん@お腹いっぱい。:2022/10/18(火) 00:50:34.35 ID:93v8L+yq.net
- >>836
ありがとう。試してみます
- 838 :名無しさん@お腹いっぱい。:2022/10/18(火) 04:14:38.49 ID:soj7FsTJ.net
- wd1.4の新しいvae来たけど試した?
- 839 :名無しさん@お腹いっぱい。:2022/10/18(火) 07:11:36.57 ID:P2mP3FzW.net
- 進化の流れについていけねええええええええ
- 840 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:41:00.94 ID:q9QBdgsx.net
- https://docs.qq.com/doc/DWHl3am5Zb05QbGVs
なんでこれ貼ってないの
- 841 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:45:17.71 ID:cyHLbL5S.net
- しいて言えば、特にネガティブのところはこのスレで散々アレコレやったのを長大に展開してるだけで資料的価値が無いというか
- 842 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:46:54.53 ID:TtXnf/fW.net
- ついていけないではなく、学習とか使わなければいいんだよ
基本萌え絵エロみたいなののクオリティを爆上げしたい人たちが
欲望をエネルギー源に先陣切って爆走(暴走ともいう)してるだけなんだ
- 843 :名無しさん@お腹いっぱい。:2022/10/18(火) 08:47:13.18 ID:Lo3y4TAi.net
- >>695 だけど、過学習の傾向があったから
学習率を1e-6から6.5e-7に変更して、教師画像を92枚に厳選、正則化画像は1104枚、14000ステップ学習させた
sks 1girlとした時はあまり違いがわからないけど、他にプロンプト追加したときに柔軟に対応してくれるようになった
- 844 :名無しさん@お腹いっぱい。:2022/10/18(火) 09:41:15.76 ID:RDN7cvBB.net
- HyperNetWorkを利用すればわりと簡単に狙った画風に自由にコントロール出来てしまって怖いな
顔だけ自分の絵柄にしたり背景は背景絵師からパクったりで10-20枚のコラ画像から自由にコントロールできる
これ無限に悪用可能だろ、、、
- 845 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:36:16.00 ID:bKPdKQSD.net
- そっくりそのまま学習元の絵師と同じにならないから逆にいいと思う
実質絵柄が無限になって個性が出る
- 846 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:36:56.24 ID:wbrPm6Fj.net
- >>843
成功事例ほんと参考になってありがたい
教師データ、顔のクローズアップは何割ほど?
欲張って全身絵多めにしてるんだけど、顔の生成がいまいちで悩んでる
- 847 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:51:55.46 ID:3BBOW5w1.net
- i2iで使う前提の顔特化HN作成して顔だけそれで切り抜いてi2iの可能性
誰かやって♡ ワイはデータセット集めるのめんどい
- 848 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:54:05.13 ID:x3uyPhfX.net
- おいおい、1111版のsettingsにLocalizationなんて設定項目ができてるぞ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Localization
によると下の通り
Creating localization files
Go to settings and click Download localization template button at the bottom.
This will download a template for localization that you can edit.
英語と日本語できる人よろしくたのむ
- 849 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:58:00.25 ID:RDN7cvBB.net
- hypernetworkに俺が自分で描いた顔の絵4枚食わせるだけで
生成される顔の品質が大幅にアップして戦慄する
これを他人の絵にやり放題だっていうんだから絵描きはしぬしかないわ
- 850 :名無しさん@お腹いっぱい。:2022/10/18(火) 10:58:13.00 ID:YQaGLl7w.net
- 博多弁なら任せろ
- 851 :名無しさん@お腹いっぱい。:2022/10/18(火) 11:35:57.20 ID:93v8L+yq.net
- >>836
WinとUbuntuで試したのですがどちらもin loading state dictで同じエラーを出してしまいました
もし原因が分かれば正しい方法をご教示いただけないでしょうか
(1でやったとき)
https://i.imgur.com/PAzwP4r.png
(2)ckptを解凍してそのフォルダ内に入れてみたのですが…
https://i.imgur.com/9WM3ZV4.png
novelaileak/stableckpt/animefull-final-pruned/model.ckpt→model/final-pruned.ckpt(1)→解凍(2)
novelaileak/stableckpt/animefull-final-pruned/config.yaml→model/config.yaml
novelaileak/stableckpt/animevae.pt→model/final-pruned.vae.pt
- 852 :名無しさん@お腹いっぱい。:2022/10/18(火) 13:28:22.93 ID:l1T5Qa1Z.net
- 引数に以下必要かも
--original_config_file=model/config.yaml
- 853 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- ちなみに自分はwinでしかやってないからUbuntuは分からない
model_outputにdiffuser形式のフォルダが作られるはず
- 854 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
- エラー的にパス指定がおかしいんじゃね
スクリプトと同階層にモデル置いてファイル名のみを
引数に指定してみたら?
- 855 :名無しさん@お腹いっぱい。:2022/10/18(火) 14:00:14.32 ID:xjE4NofN.net
- 無事アスカこんにちは出来たからやれる事広がった
xformersは途中buildするとこエラーでて断念
- 856 :名無しさん@お腹いっぱい。:2022/10/18(火) 14:06:39.39 ID:93v8L+yq.net
- >>852
ありがとうございます。でも同じ結果になりました
使うファイルが根本的に違うとかではなさそうで安心したのでもう少し調べてみます
出力結果(長文失礼します
(env) user@user-virtual-machine:~/diffusers/scripts$ python convert_original_stable_diffusion_to_diffusers.py --checkpoint_path=model/final-pruned.ckpt --original_config_file=model/config.yaml --dump_path=model_output
Some (略sdv1.4を変換成功したときも出たやつ
- This IS expected(略
- This IS NOT expected (略
Traceback (most recent call last):
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 687, in <module>
text_model = convert_ldm_clip_checkpoint(checkpoint)
File "/home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py", line 609, in convert_ldm_clip_checkpoint
text_model.load_state_dict(text_model_dict)
File "/home/user/diffusers/env/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1604, in load_state_dict
raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format(
RuntimeError: Error(s) in loading state_dict for CLIPTextModel:
Missing key(s) in state_dict: "text_mode(以外多数のファイル名略".
- 857 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:14:54.45 ID:N32QSKnx.net
- >>856
https://colab.research.google.com/drive/1Fu_v_VfTVDan61uiS5zI8OEqeRjQgVC2#scrollTo=wnTMyW41cC1E
参考にしてください
- 858 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:40:53.95 ID:5DgBXIZt.net
- >>846
8割ぐらいかな
でも全身絵を生成すると顔崩れるね
全身絵で顔が崩れるのはStable Diffusionからの仕様みたいなもので、Dreamboothでどうこうできる問題ではないと思う
全身絵を生成したいなら、ポーズと服が納得する全身絵を生成して、以下のリンクを参考に顔を修正するといいよ
https://dskjal.com/others/waifu-diffusion-workflow.html#fix-detail
- 859 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:49:26.92 ID:N32QSKnx.net
- >>856
wget -q -O - https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_original_stable_diffusion_to_diffusers.py | sed -e '609s/text_model_dict/text_model_dict, strict=False/g' -e 697,698d > convert_original_stable_diffusion_to_diffusers.py
python3 convert_original_stable_diffusion_to_diffusers.py --checkpoint_path .\model.ckpt --dump_path .\converted
- 860 :名無しさん@お腹いっぱい。:2022/10/18(火) 15:58:16.38 ID:RDN7cvBB.net
- hypernetworlで自分の絵学習させたら乳首の大きさに胸の尖らせ具合まで再現してきて怖い
もう今の時代に自分なりのこだわりとか意味ねぇな
- 861 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:07:25.39 ID:N32QSKnx.net
- ./でした
失礼
- 862 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:25:37.33 ID:93v8L+yq.net
- >>859
ありがとうございます
609行目のFalseのみを反映させたらエラーを出さずに変換できました
--- /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py 2022-10-18 10:21:04.269283151 +0900
+++ /home/user/diffusers/scripts/convert_original_stable_diffusion_to_diffusers2.py 2022-10-18 16:14:28.611846408 +0900
@@ -606,7 +606,7 @@
if key.startswith("cond_stage_model.transformer"):
text_model_dict[key[len("cond_stage_model.transformer.") :]] = checkpoint[key]
- text_model.load_state_dict(text_model_dict)
+ text_model.load_state_dict(text_model_dict, strict=False)
return text_model
- 863 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:42:09.31 ID:x9mpdnVy.net
- 結局SD1.5はいつ出るんだ?
- 864 :名無しさん@お腹いっぱい。:2022/10/18(火) 16:59:13.94 ID:8m7b93Ex.net
- たぶん、SD2.0を自社サービスに組み込んだあとに宣伝として放流するんじゃない
- 865 :名無しさん@お腹いっぱい。:2022/10/18(火) 17:21:57.69 ID:GXy84LFC.net
- >>858
丁寧にありがとう!
顔を重点的に学ばせて全身絵のときは手直し上等で挑みます
- 866 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:12:48.64 ID:cvFdiqt/.net
- NAIのNovelAI Diffusion Anime (Curated)でしか似ないキャラがいるんだが
あのモデルでエロもやれたら最高なのになぁ
- 867 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:22:32.68 ID:PD7GU1ya.net
- これ写真食わせたらどうなんの?
- 868 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:42:38.40 ID:b76mos+T.net
- deepfakeが作れるよ
- 869 :名無しさん@お腹いっぱい。:2022/10/18(火) 19:44:39.55 ID:83KLqlGX.net
- >>866
i2iとかinpaintで頑張れ
- 870 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:19:37.76 ID:SdnJUVNK.net
- >>866
DBとかHNとかで既存のモデルにそのキャラを学ばせるのもあり
- 871 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:34:57.45 ID:5fUCLEJM.net
- >>15
のようにローカル環境の構築までは終わったのですが、
R18絵の生成が出来ません。
nsfwに引っかかり黒塗りされてるわけではないのですが何故でしょうか。
何か、不足している設定があるのでしょうか。
- 872 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:39:28.53 ID:U+Re+1lV.net
- >>871
R18絵の生成ができないってのはどういう状態だろうか
今使ってるモデルのハッシュは分かる?
一番左上の「Stable Diffusion checkpoint」っていう選択ボックスの.ckptの右側のカッコ内に表示されてる8桁の英数字を教えてほしい
- 873 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:40:23.24 ID:zu/vdcfa.net
- 前スレの>>714
https://i.imgur.com/dtEZHtl.png
この画像と比べるとできあがる画像が微妙に違うんだけどなにか導入まちがってる?
https://i.imgur.com/szIx4QD.jpg
ニーソの部分とか全体的な色合が鮮やかになってるの気になって
設定値は全く同じにできてると思うんだけど
- 874 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:43:40.02 ID:oKNCSux3.net
- Legのtypoミス
- 875 :名無しさん@お腹いっぱい。:2022/10/18(火) 20:46:34.26 ID:Nv8AfTz2.net
- >>873
タイポ
- 876 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:01:25.84 ID:k4JvEfw0.net
- >>872
確認ありがとうございます。
事象としては女性器、男性器等の所謂性的描写が全く描かれないと言った事象になります。
ハッシュ値は「1d4a34af」でした。
- 877 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:05:58.64 ID:VcGxzPHt.net
- >>873
>>15 のfinal-pruned.vae.ptが抜けてんじゃね。変更したら再起動ね(ブラウザじゃないよ)
hypernetworks と --xformers は抜きで
- 878 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:06:36.01 ID:zu/vdcfa.net
- これで正常になった?
https://i.imgur.com/DY85Nmj.png
でも別で上がってるのと比べるとちょっとだけ違うのがわかる
https://i.imgur.com/Bfl5qJB.png
- 879 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:07:10.61 ID:ey3587xA.net
- sfwでエロが出ないって当たり前だろ
わざとやってる?
- 880 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:21:49.83 ID:U+Re+1lV.net
- >>876
使うモデル(ckptファイル)が間違ってるね
正しいモデルならそこは「925997e9」になっているはず
おそらくcurate版(非R18用)のファイルを使ってしまってるんじゃないかな
もう一度手順に書いてあるとおりのファイルになってるかを確認しながらやり直すと良い
- 881 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:26:52.39 ID:AaFa6Jve.net
- >>878
前スレの人はleggegとleggedで間違えてたよ君もそのままコピペしてるね
- 882 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:27:06.68 ID:NEYHrj9C.net
- Googleが実写で差分作れるImagicって奴作ったんだけどもうStableDiffusionで動くようになったらしい
これの二次元特化できたら差分作り放題だな
https://i.imgur.com/i5Jpja9.jpg
https://i.imgur.com/Mj8ythP.jpg
- 883 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:33:21.34 ID:TgSrji0x.net
- でりだアート…のべりすといつのまに?
- 884 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:36:53.35 ID:D1LFLupJ.net
- >>877
>>880
確認ありがとうございます。
2.3日ここで詰まってたので解決の糸口になりそうです。
もう一度やり直してみます。
- 885 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:42:09.52 ID:zu/vdcfa.net
- >>877 >>881
.vae.ptリネームしてleggegとlegged変更したら全く同じ画像になった
すっきりしたありがとうね、ちゃんと正常にできたとは思うんだが
>>877
hypernetworks と --xformers は抜きってことだけど
batに--xformersに追加しなくてよかったってこと?
modulesフォルダのhypernetworksもいらないの??
- 886 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:46:16.50 ID:/we3lp9G.net
- >>882
しゅごい
- 887 :名無しさん@お腹いっぱい。:2022/10/18(火) 21:57:27.95 ID:7jXZOYp0.net
- >>884
先程cloneし直して最初からやり直したら出来ました!
本当にありがとうございます!
- 888 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:01:56.47 ID:NEYHrj9C.net
- 既存の絵も何もかも言葉で作り変えられる時代が直ぐそこに
- 889 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:13:25.88 ID:00I+6kfi.net
- NAI騒動で飛びついた初心者です。
ちょっとマイナーなキャラとかだと全然似ないから、特定のキャラクターだけを追加学習させたいんですが可能なんですかね?
お勧めのやり方とかあった教えてください
- 890 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:26:01.99 ID:00I+6kfi.net
- よく調べずに質問してしまいました...
Hypernetworkという凄い機能が付いてるんですね...
- 891 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:31:55.68 ID:q9QBdgsx.net
- 年末には1人でアニメ作れるな
https://twitter.com/Buntworthy/status/1582307817884889088
(deleted an unsolicited ad)
- 892 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:37:35.65 ID:g1scDU/l.net
- >>890
dreamboothのほうがええんちゃう
指示通りやっていけば終わるgoogleのcolabってサービスあるし
- 893 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:43:01.73 ID:P2mP3FzW.net
- hypernetworkようやくコツつかんだw
やばいな、これw
神絵師と同じ画風作りまくれるwwwww
- 894 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:48:48.02 ID:YQaGLl7w.net
- 俺はhypernetwork全然上手くいかんわ
- 895 :名無しさん@お腹いっぱい。:2022/10/18(火) 22:50:06.74 ID:8eBdxQoJ.net
- ハイパーネットワーク、出力中の画像は良いのに止めていざ本番やるとバケモンが出てくるんじゃが
コツ教えてくれよーーーーー
- 896 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:09:27.28 ID:/we3lp9G.net
- HN俺も上手くいかん
変に全身入れるより顔アップ多めの方がいいのかな?
- 897 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:13:52.08 ID:0F2kphzm.net
- 学習元データも含めてアップしてる人見ると
一枚の絵を上下に分けてやってんだよね、まあ正方形だからしゃあないんだけど
- 898 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:35:16.41 ID:TtXnf/fW.net
- 自分も上手くいかないので脱落組だ
顔だけとか背景切り抜きまでやったが
- 899 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:38:55.98 ID:gq0Co63H.net
- hypernetworkはデフォだと効きすぎるんで、コード側で掛かる倍率変えてやればいい感じになる
modules\hypernetworks\hypernetwork.pyのdef forward(self, x)を下みたいに書き換えればいい
return x + (self.linear2(self.linear1(x))) * 0.6
色々倍率は試したけど0.6倍が個人的には丁度良かった
- 900 :名無しさん@お腹いっぱい。:2022/10/18(火) 23:56:17.57 ID:8gvw4EwR.net
- >>899
SettingsのHypernetwork strengthを0.6にするのじゃ駄目?
- 901 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:08:58.49 ID:++6+YAXw.net
- 画像生成AI「Stable Diffusion」開発会社、1億100万米ドルの資金調達 音声や動画モデルなど開発加速
https://www.itmedia.co.jp/news/articles/2210/18/news128.html
Stability AIのエマド・モスタークCEOは「AIが人類最大の課題を解決することを約束する。
しかしこれを実現できるのは、その技術がオープンで誰もがアクセスできる場合に限られる」
と主張。今後も生成系AIのオープンソース化を目指す姿勢を見せている。
かっこいい...
- 902 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:11:36.54 ID:0pJigVJ+.net
- SDについて調べてもわからなかったので質問させてください
最終的には学習結果を用いてキャラクターAとBの2人がいる構図の画像を生成したいのですが
DBでAを学習したとして、同じモデルデータでBを学習させたい場合は
学習結果のファイルに追記という形になるのでしょうか?
それとも追記は出来ずに別の学習結果ができるのでしょうか?
別の学習結果のファイルを作るとしたら、同時に2つ以上の学習結果をロードすることは可能でしょうか?
- 903 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:17:17.68 ID:aNl7PeR+.net
- >>901
お金の問題で普通の企業じゃ作れないSD公開は本当にありがたかったけど、今後も続くかは様子見しないとわからんよね
2.0をオープンにしたら手放しでカッコいいと褒められる
資金調達できたとはいえ、マネタイズの方針定まってないからクローズになるんじゃないかと心配
- 904 :名無しさん@お腹いっぱい。:2022/10/19(水) 00:18:54.67 ID:+a8WOHE3.net
- >>900
しばらく更新してなかったから気づかんかったけど既に設定でいじれるようになってたわ
その設定でOK
- 905 :名無しさん@お腹いっぱい。:2022/10/19(水) 01:34:07.52 ID:qwe7eRJ8.net
- dockerを使っているのですが、新uiのbatch sizeを変えたいです。RTX3090Tiなら24ぐらいまでならいけるのに8に制限される…。2つ前のスレで以下の解決策が提示されてたけど…
[引用]
このリポジトリのDockerなら
https://github.com/AbdBarho/stable-diffusion-webui-docker
docker-compose.yml の以下の2行の間にui-config.jsonを入れればマウントできる。
(ローカルディレクトリ:Docker内のディレクトリという書式)
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings
↓
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json
- ./embeddings:/stable-diffusion-webui/embeddings
○蛇足
最初のui-config.jsonは他から持ってくる必要があります。以下の手順でDokcerコンテナからコピー出来ます。
1 docker-compose.yamlを変更しない素の状態で、docker compose up automatic1111 で起動
2 他のコマンドプロンプトから、docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a21dd0bdd3f3 webui-docker-automatic1111 "/bin/bash -ceuxo pi…" About a minute ago Up About a minute 0.0.0.0:7860->7860/tcp webui-docker-automatic1111-1
3 docker cp <CONTAINER ID>:/stable-diffusion-webui/ui-config.json .
例 docker cp a21dd0bdd3f3:/stable-diffusion-webui/ui-config.json .
[ここまで]
これをやろうとすると、そもそも下記の文が無くなっています。
[docker-compose.yaml]
- ./services/AUTOMATIC1111/config.json:/stable-diffusion-webui/config.json
- ./embeddings:/stable-diffusion-webui/embeddings
- ./services/AUTOMATIC1111/ui-config.json:/stable-diffusion-webui/ui-config.json を上記2行があったはずの場所に挿入し、 /services/AUTOMATIC1111にui-config.jsonを置いてもエラーが発生してしまいます。docker辺り詳しくないので、詳しい人教えていただけると助かります。
- 906 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:07:20.38 .net
- >>905
ざっと見た感じ、今は起動時に data/config/auto/ui-config.json に作成されるように見える。
- 907 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:35:43.49 ID:XotkVMWS.net
- >>788
俺的hypernetworkの学習率の結論はこれだわ
- 908 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:36:47.49 ID:XotkVMWS.net
- >>902
追記は出来るけどプロンプトの効きが弱くなるとは聞いた
あとkanewallmannのだと複数キャラ同時に学習出来る
- 909 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:54:09.68 ID:qwe7eRJ8.net
- >>906
試してみます、ありがとうございます!
- 910 :名無しさん@お腹いっぱい。:2022/10/19(水) 02:57:22.32 ID:JZ+Yd7tj.net
- ドリブスのモデルデータダウンロード中に限界きてデータも消えた…
- 911 :名無しさん@お腹いっぱい。:2022/10/19(水) 03:01:33.61 ID:WflAELaT.net
- モデルの保存先をグーグルドライブにしなきゃ
- 912 :名無しさん@お腹いっぱい。:2022/10/19(水) 03:08:03.30 ID:QBYhxeUI.net
- 今知ったけどこの無限生成できる裏技便利すぎだろ
このスレでも知ってる人いたんだね >>453
webページへの出力も一枚ごとだからGradioに大量表示されて負荷がかかる心配もない
https://i.imgur.com/R6kCtsS.jpg
- 913 :名無しさん@お腹いっぱい。:2022/10/19(水) 04:05:22.12 ID:0pJigVJ+.net
- >>908
教えていただいてありがとうございます
- 914 :名無しさん@お腹いっぱい。:2022/10/19(水) 05:48:21.35 ID:PQV9Ke8W.net
- Google Colab
OpenVINO
Docker
Anaconda
…etc
Diffusionの要求を満たさない環境でこれら組み合わせている人がいるけれど、実際どうなの?
Colabは使っている人多いらしいけど
それ以外でGPU環境が貧弱の場合どれがいいのかしら
例えばDockerだけど参考サイトをみると試している環境が普通に要求を満たしているPCで判別しにくいのよね
- 915 :名無しさん@お腹いっぱい。:2022/10/19(水) 08:44:26.07 ID:h/UtDtX1.net
- Colabはクラウドコンピューティングだからローカル環境は完全に無視できるけど、残りは結局ローカルなんだから関係なくね?
- 916 :名無しさん@お腹いっぱい。:2022/10/19(水) 09:06:32.13 ID:LIPhQQnQ.net
- colab以外は少なくとも低スペが解決策として使う手段にはならない
- 917 :名無しさん@お腹いっぱい。:2022/10/19(水) 09:23:04.06 ID:O5p02o0G.net
- 遊びならcolab
業務で使うならグラボ買え
- 918 :2ch.net投稿限界:Over 1000 Thread
- 2ch.netからのレス数が1000に到達しました。
総レス数 918
249 KB
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200