2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【Midjourney】AI画像生成技術5【StableDiffusion】

1 :名無しさん@お腹いっぱい。:2022/09/12(月) 08:58:08.25 ID:7eP1MleX.net
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1661762186/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

Midjourney】AI画像生成技術交換4【StableDiffusion
https://mevius.5ch.net/test/read.cgi/cg/1662332320/

2 :名無しさん@お腹いっぱい。:2022/09/12(月) 09:59:39.02 ID:ced6P25F.net
red ball
redball
どっちも認識するけど同seedでも微妙に結果違うんだよね・・

3 :名無しさん@お腹いっぱい。:2022/09/12(月) 10:06:01.89 ID:P+USYJFh.net
Red ballだとseedによっては白いボールを出す時があるんだよね。わけてみたりまとめてみたりする。
‘’で括ったりしても、あんまり効果見えなかったりこの辺はやっぱ呪文よね。

4 :名無しさん@お腹いっぱい。:2022/09/12(月) 10:13:24.25 ID:NiqPjgfP.net
SDってテキストと物体の関連付けは高いと思うけどUnetの識別能力が微妙だな
似たような色と形状があるだけで誤認識して勝手にそこに描き始める
名状し難きクリーチャーを見るの疲れたわ…

5 :名無しさん@お腹いっぱい。:2022/09/12(月) 10:20:09.19 ID:HMA+EZe9.net
引きの構図になると途端にキャラ崩れるのはなんでなん

6 :名無しさん@お腹いっぱい。:2022/09/12(月) 10:33:31.97 ID:ced6P25F.net
nendoroidが全身でも破綻しにくいあたりが鍵か

7 :名無しさん@お腹いっぱい。:2022/09/12(月) 10:41:46.53 ID:qrbDdxqv.net
いや,ねんどろいどは二頭身だからだろ

Automatic1111版またスクリプト追加してるな
Pullするたびにアプデあって気持ちいい

8 :名無しさん@お腹いっぱい。:2022/09/12(月) 10:48:22.70 ID:/4z4a+7R.net
clip frontでhiとかのdetail系だけパッとなんとなくで見た感じだけど案外違うんだな…

 hi detail 顔イラスト hi detailed 顔イラスト
 hi-detail 絵画 hi-detailed 顔イラスト

 high detail 建築・絵画 high detailed 雑多
 high-detail 建築・絵画 high-detailed 雑多

 highly detail 描画 highly detailed ミニチュア・フィギュア
 highly-detail 絵画 highly-detailed 雑多

 hyper detail 特定ブランド hyper detailed 細かい描画
 hyper-detail 特定ブランド hyper-detailed 細かい描画

9 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:01:35.34 ID:2OMfWC8V.net
ねんどろいどは
2等身で512x512におさまりやすい
通販ショップやレビューサイト等の物撮りで品質と構図が安定している
顔が占める面積がデカい
抽象化されていて細部の情報量が少ない

ここらで概念化がスムーズに行ったんだろうな

10 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:05:45.01 ID:LIUiLgPH.net
1111のスクリプトにあるバッチプロセスとはどういう代物ですか?
現在の生成設定✕指定枚数を児童で作成してくれる便利機能かと思ったけど、全然そういうものではない感じ?
インプットフォルダとアウトプットフォルダ設定だけで頭?状態

11 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:13:11.09 ID:4gjZUmrJ.net
ねんどろいどはポーズも限られてるし、誰かが絵描くにしてもバランスも似たような物しか描かないだろうし
結果として規格が統一されバランスの良いデータが。

ねんどろいど意外に海外含めもう少し等身高めのメジャーな人形規格ってないかなぁ。

12 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:20:00.97 ID:6gkmORKs.net
>>1
次立てる人、別スレ誘導は落ちてるアンチスレじゃなくて総合スレに直してほしい

13 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:31:59.09 ID:iu1fiXN8.net
>>12
前スレ立てた人が2に間違えたって書いてたのに・・
あと前スレが3スレ目で、下に4スレだけポツンとあるのももうちょっと
交換抜いて【】補正したのはいいけどすんごいズボラなスレ立てだね

14 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:42:21.80 ID:F3d/vAxB.net
>>11
GIジョー

15 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:45:03.51 ID:untpxQHo.net
>>1
乙乙

もう次スレ関連スレもてんぷりゃに入れればいいんじゃない?
あとdreamboothのやりかたnpakaさん解説来てたけど
40GBいるとかでかなりまだ無理っぽい

16 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:51:25.08 ID:uX3FKjDA.net
sd upscleようやくコツが掴めてきた
でも今頑張ってテク身に着けてもどうせすぐボタン一発で凄いの出るようんなるんだろ?
と思うと若干むなしさ感じるなw

17 :名無しさん@お腹いっぱい。:2022/09/12(月) 11:56:51.10 ID:7eP1MleX.net
>>13
いろいろもうしわけない
あわててスレ立てするもんじゃないね

18 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:11:40.40 ID:RCTanb+9.net
>>1
乙乙

prompt、オブジェクトとスタイルを分けてぶち込めるようにならないかなあ。
学習データでは一応、この二つは別物っぽいんだけど。
贅沢言えばカメラも分離して欲しいが、これはちょっとムリかな……

19 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:21:40.86 ID:iu1fiXN8.net
>>17
いやいや言い過ぎた。。ギリギリまでみんな気づいてなかったのも悪い

20 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:28:59.25 ID:2OMfWC8V.net
waifuでどうにか顔ドーンじゃなくて引きの画にならんだろうかと
Negative Promptsに((((portrait))))とぶち込んだら現実の顔成分がごっそり引っこ抜かれて二次元のカクカクとした目とアニメ塗りみたいになった

引きの画にはならなかった

21 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:37:57.06 ID:1cWHX7h4.net
full bodyでは?
しかし引きはくりーちゃーにしかならない

22 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:40:54.91 ID:IKLGuAg0.net
Midjourneyで実在の人物で練習してるんだけど瞳が高確率でロンパったりグチャグチャになったりする……
目の情報入れてみても微妙に上手くいかないし何か良いワードある?

23 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:54:00.11 ID:RCTanb+9.net
ワードの問題と言うよりも、解像度な気がする。
メモリと勝負になるけど、解像度上げてみたらどうかな?

24 :名無しさん@お腹いっぱい。:2022/09/12(月) 12:54:37.86 ID:untpxQHo.net
Craiyon基準だからWaifuで使えるか分からないけど
face portrait ⇒ 顔のみ
upper body portrait ⇒ 顔と上半身
full body portrait ⇒ 顔から腰ぐらい、足元まで行くことも
こんな感じの画像イメージわたしは効果あった
portraitのところを別のものにするとかで行けるかも 

25 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:00:35.56 ID:YpcqtgNG.net
Deforum Stable Diffusionで3Dモデルっぽく回転させてみた
https://imgur.com/MozJfd1

26 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:06:02.45 ID:IKLGuAg0.net
>>23
初心者で申し訳ない……んだけど解像度上げってアップスケールのこと?
それとも--q 5とかのクオリティ上げるってコマンドの事なのかな

27 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:06:08.80 ID:RCTanb+9.net
おお、凄い。

それにしても派生モデルが多すぎて追っつかんw

28 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:08:27.92 ID:RCTanb+9.net
>>26
いや、単純に最初に与える画像の大きさ。
まだ実験してないんで、アレなんだけど、単純に64×64以下の面積のブロックが他のブロックとの連続性が無いと崩れるんじゃないかな? と。
だから、引きだと必然的に顔の面積が少ないので描画がまともに実行出来てないんじゃないかなみたいな。

29 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:11:18.66 ID:nrOUqQyg.net
googlecolabってどの位の性能持ってるんだろう
高性能ならhdや2k4kの自動生成作らせようと思えばできるのかな

30 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:13:05.98 ID:2OMfWC8V.net
色々試してはいるんだけど顔に張り付く謎の力が働くプロンプトの時に効き目が途端に無くなるんだよね
どうしたもんだか

それはそれとしてportraitをNegativeにするのはアニメ顔にかなり効き目がいいことが分かった

waifu1.2
素(1girl, aqua_hair twintails, aqua_eyes)
https://i.imgur.com/48FJUuI.jpg
Negative portrait
https://i.imgur.com/BOokcDr.jpg
Negative ((portrait))
https://i.imgur.com/kWRFqpP.jpg
Negative ((((portrait))))
https://i.imgur.com/wWEI915.jpg

31 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:13:38.55 ID:vfH3LsoQ.net
>>22
何をどう練習してるのか知らんけど
1アニメ調ならMJは向いてないから諦めてDiffusionを使う
2取り敢えず同じPromptでEmma Watsonさんにお願いする
 それで崩れなければ、出したい人物の学習量が少ないせいで整わない可能性がある
3崩れるならPromptが論外なので公式のフィードで検索する https://www.midjourney.com/app/feed/all/

32 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:15:02.63 ID:RCTanb+9.net
+で
NVIDIA Tesla P100(16GB)
NVIDIA T4(16GB)

Pro+
NVIDIA Tesla V100(16GB)
NVIDIA Tesla A100(40GB)

でガチャらしいw
A100引けたら、結構高解像度いけそう。

33 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:16:21.33 ID:06MV2UCy.net
久々に来たが852話とかいうクッソ陰湿なゴミはそろそろ用済みになりそうか?

34 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:18:29.48 ID:iu1fiXN8.net
>>29
そもそも元のモデルが512x512用なんで
2048x2048作っても、同じパターンの繰り返しになるだけだったりする
https://www.reddit.com/r/StableDiffusion/comments/x6dhks/fork_for_automatic_memory_allocation_allows_for/
これとか凄い凄い言われてたけど、そもそもこんな画像作りたいか?って
結局、一発でやるのは意味ないので、過剰なVRAMは「今の技術では」必要ない

img2imgのアップスケールは元の整合性あるを拡大してから部分部分で変換させることで上手くいく
そこそこメモリがあれば実現できるし

35 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:18:57.21 ID:NOLXtzv9.net
>>33
Waifu使いませんでもTrinARTは使いまーす
やばいすごい!
ちなみにTrinARTでもダンボールのタグ使えまーす💕

36 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:20:02.40 ID:RCTanb+9.net
結局、512で作ってアップスケールしてトリミングが今は最適解ってことか……

37 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:20:24.60 ID:2OMfWC8V.net
>>32
良いGPU引けるまでインスタンスの破棄繰り返すのは違反行為だから気をつけなよ
なんか怪しまれて下位しか割り当たらなくなった人とか居るみたいだし

38 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:20:29.74 ID:untpxQHo.net
とりさんまは115000stepモデルでてる
キャラ特化モデルも早くリリースして欲しいけど
流石にまんまなキャラでやすいから著作権的に難しいか

39 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:22:29.11 ID:IKLGuAg0.net
>>28
正直半分ぐらい何言ってるか理解できてないけどありがとう
とりあえず画像の大きさ変えて色々トライしてみる

>>31
ありがとう
適当にハリウッドの有名人とか入れてなるべく実写に近い形で再現できるか練習してたんだけどとりあえずエマワトソンでやってみる

40 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:22:46.46 ID:iu1fiXN8.net
>>33,36
>>1
> AIイラスト 愚痴、アンチ、賛美スレ
> https://mevius.5ch.net/test/read.cgi/illustrator/1661305344/

修正前のテンプレが生きた、そっちでも嫌がられてるがw
数字話の人はいい加減イラ板に専用立ててほしいな、古塔とかもあるし

41 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:23:36.53 ID:iu1fiXN8.net
しまったアンカーミス
36->35

42 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:24:57.49 ID:RCTanb+9.net
>>37
Googleさん、その手の行為に厳しいのはFirestoreで実感したからやってないw

43 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:26:06.38 ID:RCTanb+9.net
実写ワードだと、濃くて写真がいっぱいあるトランプが一番効果わかりやすい気がするw
あんなの何枚も走らせたら、メンタルブレイク起こしそうだが

44 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:27:42.34 ID:Oqek9AKh.net
俺はcolabで回しまくってたら嫌がらせのようにロボット確認してくるようになった
操作止めると10秒後くらいに出てくる

45 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:30:33.53 ID:iu1fiXN8.net
無料colabってブラウザのそのタブを非アクティブにして一定時間でcaptchaじゃなかったっけ?
生成中の表示を眺めながら正座して待っとけと?イライラするんですぐやめてグラボ買っちゃったよ

46 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:42:43.35 ID:F3d/vAxB.net
>>20
縦長にする

47 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:42:58.53 ID:6NoPJtis.net
>>30
そのpromptだと情報が顔に偏るから、体に関する何かを加えるとよいのでは

1girl, aqua_hair twintails, aqua_eyes , blue one-piece dress, black belt, upper shot とか適当に

ttps://imgur.com/a/2xhgS3D

48 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:53:43.74 ID:nrOUqQyg.net
正常位騎乗位の命令でキャラクター指定をすれば奇形抜きのエロ大量生産んできるプログラミング誰か組んでください!

49 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:55:26.78 ID:X1bXMZ7N.net
StableDiffusionだけが目的ならグラボ買うよりcolabの方がお得感はある気もする
ちょっとがんばって30万のグラボを買うとすれば
colabなら同じ値段で25年戦える

50 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:55:45.89 ID:iu1fiXN8.net
SDは具体的な背景情報入れると嫌って程引きにしてくれる
blue skyとか入れてみて

51 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:56:49.09 ID:iu1fiXN8.net
ってやったらダメだった、ちょっと待ってよ・・

52 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:58:21.03 ID:RCTanb+9.net
in xxxxxxって入れて、さらにlong shotとか入れるとかなり引きになる確率上がるよ。
人物入ってる時点で、それなりにポートレートにも重みかかるみたいだけど。

53 :名無しさん@お腹いっぱい。:2022/09/12(月) 13:59:23.23 ID:untpxQHo.net
backgroundみたいな背景こうだよ指定を補足してみるとか

カメラで引きの撮影みたいな用語とかありそうだけどそう言う撮影用語は使えないのかしら
そもそも撮影用語が分からん

54 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:01:09.61 ID:iu1fiXN8.net
aerial full body of 1girl, aqua_hair twintails, aqua_eyes
ドヤァッ!

55 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:04:12.81 ID:Jp9s+Lkb.net
full body よりはstanding 等の状況説明のほうが全身は出やすいと思う
カメラ引いた都市とかはtop of view 、landscapeとか 怪獣映画みたいな低い視点の引きってのが難しいが

56 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:05:24.34 ID:2OMfWC8V.net
縦長にする、long shotはやったけど効かないのよね
超縦長にしたら見切れ横顔描いてきてブン投げたこともあったり
服装とかも指定してるんだけどどうしても顔に寄る

もちろんseed依存で5%ぐらいは引きの画が出るんだけどこれの収率を上げたい
背景指定するのはあまりやったこと無いからやってみるわ

それでも引きにならないガッチガチのプロンプトで一般にお出しできそうな構文のがあったら今度持ってくるからチャレンジしてみてくれ

57 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:07:15.57 ID:iu1fiXN8.net
>>54
https://i.imgur.com/vQ8H38E.jpg
aerialは例の人も入れてるだろうなってのは感じてる

58 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:10:45.06 ID:n7szH/NW.net
Waifu は場所指定して男をかけと言うと何故か引く率急上昇。

59 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:17:13.70 ID:iu1fiXN8.net
aerial view(俯瞰)のつもりだったけど、検索したらyogaのポーズの意味もあるのか

aerial pose of 1girl, aqua_hair twintails, aqua_eyes

でぐちゃぐちゃの人体が出力される
https://i.imgur.com/11p0HFi.jpg
変わったポーズありながら俯瞰にもなってたり、ダブルで効いて全身入る感じか

60 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:18:55.14 ID:n7szH/NW.net
俯瞰はバーズビューがやっぱ鉄板
ただし、鳥混入率も上がる

何でやたらと頭とか肩から羽生えてるエンジェル系率上がるんだろうと思ってたら、鳥だった罠

61 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:19:58.42 ID:FCnr3Hbx.net
Waifuととりんさまでそれぞれ本家SDベースで学習した実写TIとの組み合わせをやってみたけど
とりんさまはいい感じに実写をアニメに落とし込んでくれて使いやすいけど衣装指定とか調整しにくい
Waifuもアニメ調にはなるんだけど実写そのままな中の人が出やすいけど衣装指定とかしやすい

アニメTIもやってみたいけど今ところ全敗なのでノウハウが切実に欲しい

62 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:27:07.11 ID:HMA+EZe9.net
img2img使っても狙った情景を出すのは難しいねえ
延々ガチャ引いてる

63 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:30:58.81 ID:XBkBKrmq.net
遠景は別々に作って合成した方が早いような気がする

64 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:32:18.76 ID:n7szH/NW.net
合成してimg2imgが早い気がするけど、雑コラ突っ込んでもやっぱり顔崩れるからなあ。

65 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:38:33.72 ID:iqorF6m9.net
髪型指定ができないんだけどみんなどうしてる?
4chanではフォトショでコラしてimg2imgって言われた

66 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:46:00.94 ID:6NoPJtis.net
>>65
ショートボブ short bob hairstyle
三つ編み braid hairstyle
おさげ pigtails
ポニテ ponytail hairstyle

ハゲ skinhead

とか書くだけでは。あれこれprompt付け足すうちに薄まって消えるかもだが

67 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:46:12.41 ID:2OMfWC8V.net
waifuでportraitをNegativeに入れるのは相当な強度があるな
入れると何でもリアルになるはずのby greg構文でいきなりこれが出てくる
https://i.imgur.com/5Xxzk5S.png
https://i.imgur.com/D7fp05n.png
https://i.imgur.com/R4XQmYw.png

>>61
waifuでできるだけアニメ顔にしたいならこれ試してみるとどうよ?

68 :名無しさん@お腹いっぱい。:2022/09/12(月) 14:55:34.65 ID:Nu5D/25A.net
ネガティブにブレとか霧とか入れたら綺麗になるのかな

69 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:01:13.80 ID:VGMTb1zs.net
Emadさんインタビュー
https://signal.diamond.jp/articles/-/1407

Emadさんのインタビューなのにタイトルが深津なんてゴミの名前なのはなんなんだ
ダイヤモンド社に深津の同級生でもいるのか?

それはともかく内容はいい

・9月には音声、その後は動画、3D、言語、コードにも対応
 Dream Studioの完全版はアニメーションの作成にも対応する
・すべてをオープンソース化しますが、最新版はまずAPI経由で提供しする
・今は2GB(1.5のモデルサイズ)だが不要なものを取り除くことで100MBにできる
・数週間以内には、Stable Diffusionの独自モデルを構築するためのガイドラインを、クリエイター向けに公表する
 マーケットプレイスも構築していきます。そこでクリエイターは独自モデルで生成したコンテンツや、
 独自モデルの(クリエーターの)特性を他のクリエイターに販売する。
 もしあなたがピクセルアートに特化したモデルを作ったとしたら、ピクセルアートに関するアセットを求めるクリエイターは、
 汎用モデルではなく、あなたのモデルを利用することでしょう。
・StabilityAIが本格的な活動を開始したのは9カ月ほど前
 従業員数は75人で、世界で10番目に速いスーパーコンピューターを保有している

70 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:03:42.73 ID:IKLGuAg0.net
とりあえずEmma Watsonさんは凄いホントにEmma Watsonさんになるんだなw
他の人は512×512?とかでも試してみたけどいまいち瞳が安定しなかった…
https://i.imgur.com/e93hzij.jpg
https://i.imgur.com/kFjJVjT.jpg

71 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:05:53.41 ID:2OMfWC8V.net
>>68
Negative (portrait)
https://i.imgur.com/5Xxzk5S.png

Negative (portrait), (blur), (bokeh), (fog)
https://i.imgur.com/wJ18CAK.png

72 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:07:29.50 ID:RCTanb+9.net
最終的にはモデル10メガってすげえw

73 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:08:19.86 ID:8HzuZr0r.net
>>71
真正面顔になったときの鼻の輪郭線がおかしい(縦一直線になる)のは、MMDを学習したみたいな感じがする

74 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:09:22.93 ID:Wp+FQqeu.net
greg rutkowskiさん(本物)Twitterフォロワー2万2000人しかいないんだけど
こんなにお世話になってるんだからみんなフォローしたれよ・・・😢

75 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:09:36.27 ID:untpxQHo.net
EmadさんはメディアAI界のGoogleを狙ってるのな

76 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:10:34.60 ID:HMA+EZe9.net
>>74
可哀想…

77 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:11:30.83 ID:RCTanb+9.net
Gregさん、近いうちにネットでワシのオリジナル発掘出来んようになるって言ってるみたいね。

78 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:16:02.34 ID:vfH3LsoQ.net
あの人Twitterのフォロワーとかいうしょうもない次元の人じゃないでしょw

79 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:16:18.54 ID:untpxQHo.net
知らないけどそんなすごい絵師なんだって調べたら本当にすごい絵師さんだった

80 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:17:25.87 ID:rXESnT+m.net
他の似たような作風の人でもクオリティは上がるけどなんで皆Gregさんを使ってるんだろう
最初期に上手くいったプロンプトだから慣例的に使われてるのかね

81 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:18:24.36 ID:8HzuZr0r.net
>>80
単に知らないだけでは。私も知らないからいくつか教えて欲しい

82 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:21:27.65 ID:JZIihGAu.net
>>71
すげー効いてるっぽいな

83 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:21:48.49 ID:Jp9s+Lkb.net
gregさんは癖がなく使いやすい
他にもサンプル数が多い画家の名前が挙がってるけど
まさにその人の作風、みたいのが強く出てしまって使いにくい。

84 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:24:14.90 ID:NiqPjgfP.net
なるほど、モデルを公開したのはカスタマイズ市場を作る為だったのか

85 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:24:29.16 ID:YpcqtgNG.net
>>68 >>71
これはいい技術 いいこと知った

86 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:25:08.66 ID:HMA+EZe9.net
折角髪で目を隠したのにi2i掛けると両目描いちゃうのやめて

87 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:32:47.05 ID:XBkBKrmq.net
>>69
倫理とか下らないことを言い出したな
中国勢に負けるぞ

88 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:35:55.68 ID:RCTanb+9.net
有償で自分の絵に特化したモデルを作りますってのはアリだな。
これは魅力感じる人、多いんじゃないかね。

89 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:37:31.16 ID:znuu+o+Z.net
ヱッチな画像数十枚渡してこれで作ってくださいしたら怒られるかな

90 :名無しさん@お腹いっぱい。:2022/09/12(月) 15:58:51.76 ID:uX3FKjDA.net
特定の作家の絵柄をコピーしてモデルを売る人が確実に出てくるよな
流石にいずれ問題になると思う

91 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:04:50.05 ID:uQwRjJsC.net
裸体特化モデル全力待機です

92 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:08:22.98 ID:b/Q6G26U.net
通常のプロンプトにanimeやら色んな言葉入れた後にネガティブプロンプトでanimeを指定してやるとイラスト感強く出るな

93 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:17:02.13 ID:T9wkiioe.net
>>71
それは珠玉の知識だわ
昨日被写界深度が浅くて困ってるって書いた者なんだけど、一撃で回避できる解決策やんありがとう

94 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:19:45.77 ID:untpxQHo.net
特定絵師の本人以外の販売は流石に炎上する程度には世の中の理性を信じたいが……難しいだろうな

95 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:22:30.46 ID:7sA9pEar.net
>>87,89,90,91,94
重要な話だと思うけどスレチかな
https://mevius.5ch.net/test/read.cgi/cg/1662463049/

96 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:34:11.35 ID:2OMfWC8V.net
midjourneyのnoオプションが便利で~って書いてた人居たけど確かにこれがあると無いとじゃ大違いだな
単純に出したくない物書くだけじゃなく画像から質感まで消し去れるとか強力にも程がある

97 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:34:24.64 ID:T9wkiioe.net
Negativeって「,」で区切った先もマイナスの作用が続く感じなんですかね
それだと長文呪文使ってると呪文の再構築が結構大規模になりますね

もしくはPositiveみたいに言いなおせばそこから従来の呪文を再開できる感じ?

98 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:38:45.99 ID:2OMfWC8V.net
>>97
NegativeはNegativeの欄に入力するのよ
今のところAUTOMATIC1111の最新版ぐらいでしか対応してないけど

99 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:41:47.27 ID:T9wkiioe.net
>>98
マジすかありがとうございます!
これは1111入れなくちゃいけないコースですね

100 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:49:51.71 ID:HMA+EZe9.net
落としてくるだけでいいNMKDが楽で使ってるけど
1111入れた方がよさそうだ

101 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:54:29.80 ID:mmyt5ECq.net
hlky派だったんだけど1111に改宗しちゃった
この強欲なペースはすごいわ
今日もまたなんかimg2imgの改良型?のテスト始まってるし

102 :名無しさん@お腹いっぱい。:2022/09/12(月) 16:56:10.84 ID:untpxQHo.net
hlkyももう少しデバックしてくれれば

103 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:00:08.89 ID:n7szH/NW.net
ネガティヴワードってオプションとかじゃなくて1111のソース書き換えなんかな。だとすると入れるしかないか。

こういうとこでUi系は差がつくなあ

104 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:05:58.03 ID:uX3FKjDA.net
1111はあれだけの開発速度と高機能な割にhlkyみたいなバグの多さがないのほんと凄い

105 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:07:11.83 ID:iqorF6m9.net
>>66
特定のキャラを写真風にした上で髪型をmessy bunにしたいんだけど無理
キャラの元の髪型に寄せたいだけなんだけど

106 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
何度か検証してみたけどやっぱりWaifuはデフォルメアニメ以外にも実写系アニメ表現に強いね
そのせいで実写を元に作ったTI使うと中の人がわりとそのままアニメ品質で出てくる

107 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>69
小説とかのシナリオはないのね

108 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:22:16.00 ID:yeYFLqst.net
Automaticはプルしたら動かなくなってれどめ見に行ったらディレクトリ構成がらっと変わってた
自動インストールのバッチも出来てたけどうまく動かず手動にしたよ

109 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:23:44.43 ID:ojsRai9T.net
waifuをcolabで使ってるんだけど肌色多いとすぐにNSFWで引っかかって真っ黒になるんだけど
回避方法ってないのかな?

110 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:30:53.76 ID:1cWHX7h4.net
ぐぐれば回避方法でるけど、colabやめてローカルが無難だよ。相手はgoogleだから何されるかわからない

111 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:36:29.77 ID:T9wkiioe.net
BAN対策と称してサブ垢でやってる人もいるけど
google先生がサブ垢に気が付いてないはずないし、どう考えてもローカル環境作った方がええと思う

112 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:39:50.99 ID:2OMfWC8V.net
オリジナルのSD1.4でも追試したわ
背景のボカシまでうまい具合に取りたいとなると工夫が要りそう


https://i.imgur.com/eLvYSQ5.png
Negative ((bokeh)), ((fog))
https://i.imgur.com/Ap2g8IH.png

113 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:40:21.11 ID:ojsRai9T.net
ローカルかぁ、PCから変えないといけないかな
教えてくれてありがとねん

114 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:45:08.66 ID:X1bXMZ7N.net
同じ回線・端末を家族皆で使ってるというケースだってあるわけだし
サブアカウント判定は難しいとは思うけどな
実際サブアカウントごと全部BANになったという話は聞いたことがない

115 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:47:14.09 ID:uQwRjJsC.net
バレたところでせいぜい垢停止だしサブ垢でいいでしょ

116 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:50:24.11 ID:iu1fiXN8.net
pipe.safety_checkerで検索したら出るやつだっけ

117 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:53:26.18 ID:vfH3LsoQ.net
>>107
英語版AIのべりすとはGPTで既に氾濫してるからじゃないかね

118 :名無しさん@お腹いっぱい。:2022/09/12(月) 17:59:13.30 ID:krp8ICje.net
>>107,117
AIの言語モデルで、途中までの文をインプットにしてその後の文をAIに書かせるってものがある(というか多い)から
>>69の「言語」が小説を書かせることができるものかもね

119 :名無しさん@お腹いっぱい。:2022/09/12(月) 18:09:23.66 ID:UyPcFnlK.net
>>117
オープンソースで事前学習された言語モデルが配布されたら画像生成とは比較にならないほど革命的だと思う

120 :名無しさん@お腹いっぱい。:2022/09/12(月) 18:20:33.32 ID:GfcYn4pW.net
MJの --creative は2:3、3:3だけなんだな

121 :名無しさん@お腹いっぱい。:2022/09/12(月) 18:22:21.97 ID:LJ+5/oL/.net
>>114
なんか紐づけてるとbanされるってはなしをみた
まあフェイクじゃないかと疑われてはいるんだが

122 :名無しさん@お腹いっぱい。:2022/09/12(月) 18:57:27.80 ID:YzHgQ03t.net
正直丸投げ小説は当分できないと思うわ
AIが話の筋を構成できない、あらすじレベルでも無理
ただ、文体を真似るのとかは比較的簡単にできるだろうから、関西弁変換の進化系みたいな形で文体変換が出来れば
メチャクチャ雑に書く、AIで文体変換↔推敲、とかで作品を作り上げる補助としては優秀だし、ハードルはかなり下がると思う
でもそれはおそらく英語でされるので、日本人にはあんま関係ないかなあ

123 :名無しさん@お腹いっぱい。:2022/09/12(月) 18:58:35.76 ID:iqorF6m9.net
翻訳すら無理だからな

124 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:00:39.12 ID:krp8ICje.net
>>122
こちらにレスしたので続きはこちらで
https://mevius.5ch.net/test/read.cgi/cg/1662463049/

125 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:11:44.28 ID:iqorF6m9.net
スレチに反応してしまった
すまん

サマラ・ウィーヴィングも出せないSDにイライラしてる

126 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:27:43.50 ID:aTGeNfnD.net
nmkdでimg2imgしようとすると何も生成されないままdone!の表示が出るんだけど原因わかる人いる?

127 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:33:56.40 ID:Xs0SmZoS.net
ずっとグーグルドライブをAV保管庫にしてるけどBANされてないし大丈夫だと思いたい
ファン唸らないし安いし1111も動くしみんなもcolabつかおう!!

128 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:36:34.31 ID:no0UDyH1.net
二人並んでる人物のどちらかにカメラを寄せるって出来ますか?

129 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:53:44.58 ID:P0IIaxQm.net
1111をcolabでやってるからなのかわからないんだけど、表示されてる生成時間と実行してから画像が表示されるまでに5秒くらい差がでるんだけど
何か解決法とかない?ローカルだと起きないんかな

130 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:55:41.54 ID:L0XHxYGe.net
>>129
colabはよくわからんけど、ローカルで1枚だと100%になった瞬間表示される。
複数枚だとたぶんグリッド生成でいくらか待たされる。

131 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:55:41.86 ID:kgAIdVFp.net
どなたかhuggingfaceのアカウント削除の仕方わかる人います?
delete my account って入力しても、そのしたのチェックボックスが薄いままでクリック不可で
削除できないんだけど…
何か他にやっておかないといけないような事があるんですかね?

132 :名無しさん@お腹いっぱい。:2022/09/12(月) 19:59:03.07 ID:rbYYtFE8.net
>>126
NMKDは知らないけど、よくやるのがmask領域選んでないのにmaskした部分だけ再描画とか
すなわち何もしない

133 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:03:13.54 ID:iqorF6m9.net
negativeにwrinkles入れるだけで結構若返るなぁ

134 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:06:54.31 ID:Xs0SmZoS.net
>>129
colabの1111はgradio.appの転送速度がクソ遅いせいなのか画像表示に時間かかるね
パブリックでやる必要がある以上解決方法はない気がする
こうなると逆にコマンドライン版が欲しくなるな

135 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:14:09.18 ID:uX3FKjDA.net
進化の速度凄いけど冷静になると特定の条件下でクオリティ高い絵出ますって進化しかしてないんだな
個人的にはプロ並みの萌え立ち絵が出ます!とかよりも自由にあらゆる絵をソコソコクオリティで出せるほうが良かったか
東京都庁に襲い掛かる鎧武者の大軍!とか海面上昇で水没した教室で授業を受けるJk達とかそういうの何でも出して欲しい

136 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:17:05.13 ID:no0UDyH1.net
そういう絵を全部描いて学習させれば出来るよ
雑コラみたいなやつは学習的にないやつ

137 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:18:40.97 ID:npgiUmEw.net
需要があれば誰か作ってくれるって。速すぎて感覚麻痺してるけど、SDリリースされてまだ1ヶ月も経ってないんだから。
多分、映画的な需要であり得ない現実の出力ニーズが生まれてくるはず。
今はまだ、既存の何かを綺麗に出す段階

138 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:23:52.68 ID:P0IIaxQm.net
>>130
>>134
gradioの転送速度遅いのかー、なるほど
グリッド表示するときもファイルは既に出来てるのに表示がメチャクチャ遅かったりしたから
グリッドの画像が重いあたりが原因っぽいかぁ

139 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:25:32.41 ID:DMnEZFCF.net
>>69
> ・9月には音声、その後は動画、3D、言語、コードにも対応

Emad (Discord)
we are building a better version of copilot announcements soon hiring for that too

コードってのはGithubのcopilotのより良いバージョンらしい
Githubほど学習用コードを持ってる組織はないと思うけど、より良くするための技術がなんかあるんだろうな

soonといいながら、人を雇ってるってのはスピード感がよく分からないw

140 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:28:04.68 ID:L0XHxYGe.net
>>20
靴みたいな足元まわりの単語を入れる。

141 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:32:23.67 ID:L0XHxYGe.net
なお、bodysuitとかでもわりとよく腰あたりまでは出るようになるw

142 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:35:46.18 ID:2OMfWC8V.net
waifuの二次元表現において元のSDにある写実的表現部分がかなり邪魔になっていることが分かった
たったこれだけのプロンプトでこれ出すとは

waifu v1.2
standing 1girl, hatsune_miku
Negative prompt: (portrait), (blur)
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 273374107, Size: 448x640
https://i.imgur.com/3qL42ls.png

143 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:38:30.05 ID:npgiUmEw.net
やっぱネガティブは重要だなあ。1111も構築しよっと。

144 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:41:50.21 ID:L0XHxYGe.net
portrait引くとしつこい涙袋消えるよね……

145 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:46:15.98 ID:uX3FKjDA.net
トークンの制限めっちゃきついな
長文呪文の後半部分切り捨てられて全然効いてなかったわ

146 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:46:23.48 ID:QPg5TQkt.net
無課金colabで上限来た後はローカルのIntelCPUで数分~数十分かけて1連ガチャするようなゆるふわ勢はここにはあんまりいないのか
みんなレベル高くてついていくの難しいわ

147 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:49:56.38 ID:L0XHxYGe.net
IntelCPUで動かしてたんだけど、タイミング悪くSSDがお亡くなりになって新しいの買いに行ったらなぜか3060も買ってた……
Palitのが5万円だったんだ。

148 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:50:18.33 ID:DMnEZFCF.net
>>142
クリーンでいいねえ

1111はDocker対応してくれないかな

>>146
どっちにしたって新しいオモチャいじってるだけだからいいんでないw

149 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:50:30.28 ID:oFyVVeq+.net
1111はtoken制限きつくてなぁ…NMKDの方がいい画を作れる…
NMKDはいちいちModel読み直すのやめてくれんかね…

150 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:52:25.61 ID:L0XHxYGe.net
>>148
1111はsingularityで動かせるから自分で頑張ればDockerもいけるべ

151 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:52:44.14 ID:HMA+EZe9.net
token制限ってなんぞ
NMKDも長文だと無視するよって言われるけど似たようなもん?

152 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:56:59.76 ID:L0XHxYGe.net
>>151
出した画像をPNG Infoで見ると、

Warning: too many input tokens; some (7) have been truncated:
art , smooth , sharp focus illustration

って怒られる。

153 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:57:57.02 ID:L0XHxYGe.net
あれ、今数えてみたらカンマもトークンに数えられてるんな?

154 :名無しさん@お腹いっぱい。:2022/09/12(月) 20:57:59.92 ID:DMnEZFCF.net
>>149
token制限はどれも同じだと思う
内部的に77トークン(最初と最後で2トークン使うから実質75トークン)

>>150
がんばりたくない・・・・w

155 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:00:21.48 ID:uX3FKjDA.net
トークン制限回避しようと思ってandとかbyを省略すると全然結果変わるんだよ
それも大体は呪文の効果下がって劣化するから節約できん
トークンが200とか使えれば革命的に変わるだろうな〜

156 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:00:29.04 ID:npgiUmEw.net
トークンってワードとはまた別の概念なんだっけ?

157 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:03:33.33 ID:T9wkiioe.net
flyingが、flyとingで2トークン説もあるみたいな感じ
厳密にどうなってるかは謎

158 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:06:26.33 ID:npgiUmEw.net
AIが有意なノイズに変換出来る最小単位の文字列って感じなのかな。

159 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:06:53.64 ID:L0XHxYGe.net
何トークンになるのか、長いpromptの最後に入れてPNG Infoでwarning見たらわかりそうやね。

Warning: too many input tokens; some (9) have been truncated:
art , smooth , sharp focus illustration , flying

つーわけでflying入れてみたけど1トークンっぽいぞ。

160 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:07:56.84 ID:T9wkiioe.net
まじか
過去スレにそんなようなこと書いてあった気がするんだけど、間違いだったみたいならすまん
あと検証ありがとう

161 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:08:49.88 ID:2OMfWC8V.net
どっかにトークンのリストあったはずだけど
今だとUIのwarningギリギリのプロンプト入れて、そこに加えてあふれた分見るのが一番簡単よ
たまにめっちゃトークン数食う単語とかある

162 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:11:04.55 ID:vfH3LsoQ.net
1111版ならsd_hijack.pyのFrozenCLIPEmbedderWithCustomWordsに
print(tokensなんちゃら)入れるだけで見れるよ

163 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:11:19.32 ID:DMnEZFCF.net
>>159
それじゃトークンは分からないよ。

https://mevius.5ch.net/test/read.cgi/cg/1661146705/709

みたいにトークンカウントの前にvocab.get()でプリントしてみれば分かる

164 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:11:30.30 ID:AJ5S0LHh.net
自然言語として処理できるようにされてるから、同じ単語でも前後関係で1になったり2になったりすると思う
SDではなく文章関係のAIつかうときの前処理だとそんな感じ

165 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:14:46.84 ID:X1bXMZ7N.net
colabで1111使ってるけど画像は表示しないようにしたよ
すごく軽いし安定してる

166 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:17:11.76 ID:cmtaQyKF.net
Q トークン制限は将来解除される見込みはありますか?
A トークンの制限は、CLIPトークン化装置に組み込まれているので、可能性はありますが、あまり期待しないほうがいいと思います。
  また、このモデルでは、プロンプトの冒頭にある単語は、末尾にある単語よりも重視されるので、たとえ長くできたとしても、
  収穫はほとんどないでしょう。しかし、句読点もトークン制限にカウントされることを心に留めておいてください。

https://discord.com/channels/1002292111942635562/1002602742667280404/1008808423724417104

だそうです。

167 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:19:50.70 ID:L0XHxYGe.net
てことはPNG Infoでwarningが出てなくても実は無視されてるトークンがある場合もあるってことか。

168 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:29:02.23 ID:npgiUmEw.net
視界いっぱいに広がる小麦畑、冬の早朝

ってやると刈り取った後の小麦畑も出力されるあたり意味連想はやっぱ効いてるんだな。

169 :名無しさん@お腹いっぱい。:2022/09/12(月) 21:41:01.91 ID:QPg5TQkt.net
>>163のレスみたけど、
「swiming」が「swim」と「ing」に分かれてるのは、単純に「swimming」の打ち間違いをしてるせいで1単語と見なされなかったってことな気がする
「swimming」なら1トークンになるのかな

170 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:01:04.96 ID:L0XHxYGe.net
文にしてぶち込んでみたけど、PNG Infoだと1トークンに数えられますね。

Warning: too many input tokens; some (5) have been truncated:
art , she is swimming

171 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:11:40.71 ID:44lT3+Qt.net
promptの書式やwebUIの機能説明とかしている所とか無い?
11111のネガティブワードやステップ数とかなら何となく理解できるけど

それとも書式はhlkyや1111とかフォークごとに違ったりするのか?
トークン制限の話を聞くと単語を区切る為のコンマも駄目という事?

172 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:12:38.55 ID:QPg5TQkt.net
>>170
ありがとう!
辞書に載ってるような単語は基本的に1トークンって感じなのかな

173 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:16:01.06 ID:2OMfWC8V.net
>>171
カンマは意味がある
文を区切る意味としてちゃんと認識されていてとても有用
でも1文字で1トークン消費する

これはStableDiffusion使ってるところ全て共通
カッコと違って別にフォークごとに動作が異なる訳ではなくAIにそのまま渡される

174 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:18:09.47 ID:IDWlQNbN.net
>>171
機能説明ならautomaticの別リポジトリに詳しくある
webui-showcaseみたいなとこ

今日追加されたimg2imgaltが何を意図した機能なのかわかる人いる?
変な抽象図形みたいにされるだけで全然意味不明なんだが

175 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:18:56.56 ID:npgiUmEw.net
しかし、まるで商標のある作品をトレパクしましたと言わんばかりに出てくる謎文字はなんとかならんものか。
ネガティブでstringとかやったら消えるかな

176 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:22:26.47 ID:tMPa6q2s.net
BERTだとingはsub-wordで別トークンなんだけど、違うのかな
検証すりゃすぐだけど正直どうでもいいw

177 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:32:27.03 ID:YpcqtgNG.net
1111版の今日の22:00の修正でバリエーション機能ちゃんと動くようになった

1. 気に入ったものが出たらSeedコピーする
2. Seedに張り付け
3. ExtraからVariation strengthを0.1くらいにする
4. Batch countを4などにする
5. 生成すると指定したSeedに近い画像が4種類出る
https://i.imgur.com/ibyfqmA.png

178 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:37:48.86 ID:44lT3+Qt.net
>>173
意味あったのか
ただカンマはトークンを食う要因にもなるのね

>>174
redmeで起動オプションみたいなのはあったのは見たよ
batファイルにset COMMANDLINE_ARGS=--ckpt a.ckptみたいな追記でモデル使い分けてるのかな?

179 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:38:58.76 ID:ZmDccg6r.net
automatic1111のインストールめっちゃ難しくて分からない
どこかにインストール方法書いてませんか?

180 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:43:27.63 ID:itTelONC.net
GIGAZINEにあったけど、あれ確かminiconda入れさせてた気がする。必要ないよね?

181 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:44:32.58 ID:L0XHxYGe.net
>>174
READMEの通りにやってみたんだけど、なんか、元絵を微妙に変えてコントラスト強調した感じの絵が出てくるな?

182 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:44:49.58 ID:rbYYtFE8.net
>>179
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/
とか
windowsローカルならの
> ◆3:Windowsで動かす(NVIDIA製GPUが必要)
から

183 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:47:48.95 ID:YpcqtgNG.net
>>180
CUDA Toolkit入れる手順になってたね。
一時期1111のReadmeに入れろって書いてあったけど、すぐ削除された。
Gigazineは運悪く間違った記述の時に記事化したらしい

184 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:47:55.85 ID:ZmDccg6r.net
>>182
なるほど。ちょっと見てみます。

以前はminicondaでインストールしてAutomatic1111も動いてたんですが、
いまgit cloneして手順通りにやろうとするとエラーが多発して動きませんでした。

python 3.10じゃないと駄目になったのか・・・

conda、venvとかpython環境ややこしすぎて面倒くさすぎ

185 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:49:43.54 ID:IDWlQNbN.net
automatic1111のインストールめっちゃ難しいと感じるような人たちが画像生成AIを好き勝手使う時代がすぐそこに来てるんだよな

186 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:50:09.13 ID:/kiqse55.net
trinart触った人いる?
すげえ絵が出るって話だけど

187 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:50:44.36 ID:L0XHxYGe.net
>>179
python3.10とgitインストールした後はstable-diffusion-webuiをgit cloneしてダウンロードされたディレクトリにあるバッチファイル実行して別口でダウンロードしたmodel.ckptを入れるだけだぞ。

188 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:51:26.77 ID:QPg5TQkt.net
IntelCPUのローカルがあまりにも待ち時間長いから、お絵描きばりぐっどくんにも手を出したわ
毎日10連ガチャできるようになったみたいだし、日本語でもちゃんと効いてくれるから、これも気軽に遊ぶ分には楽しめるね
シード値とかはわからないっぽいけど

セーブポイントって書いてみたらちゃんとセーブポイントっぽいものが出てきてくれた
https://i.imgur.com/c1K9xfb.jpg

189 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:51:44.98 ID:ZmDccg6r.net
最初のインストールは簡単だったんだけどねw
Dockerにして欲しい・・・

minicondaとは別にpythonインストールするとややこしいことになるのかならないのか、とかpython環境の勉強する気がしないw

190 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:54:17.85 ID:mmyt5ECq.net
>>174
元の画像を再構築するノイズを見つけることによって img2img を実行するより良い (?) 方法
https://www.reddit.com/r/StableDiffusion/comments/xboy90/a_better_way_of_doing_img2img_by_finding_the/
まだテスト実装
https://github.com/AUTOMATIC1111/stable-diffusion-webui#img2img-alterantive-test
ここでユーザが良いパラメータを探してる
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/314
もうちょっと煮詰められないとサッとは使えなさそう

191 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:55:06.74 ID:npgiUmEw.net
ああ、もう、試すことがお多過ぎる〜

192 :名無しさん@お腹いっぱい。:2022/09/12(月) 22:58:34.14 ID:BbadDr71.net
Waifu Diffusionで適当に拾ったグラビア画像とかをimg2imgで美少女化するの楽しい

193 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:04:56.64 ID:TJIF4ZwL.net
>>175
映画のポスター,ヒーローもので設定した時に下らへんに見覚えのある赤と白のロゴのマークはっきり出てきた時は笑った

194 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:06:20.74 ID:iqorF6m9.net
>>179
これ翻訳にぶち込めばいいと思うよ
https://rentry.org/zfawb
もしくは
https://rentry.org/voldy

195 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:12:09.24 ID:RcmHGeGX.net
>>189
minicondaのcondaとpythonのvenvは両方あると干渉するかもしれないので
動作を把握しているのでなければminicondaはアンインストールして
クリーンな環境で一から構築しなおしたほうがよさそうな気がします

他にminicondaを使っているモノがあったら安直にアンインストールするのはまずいと思いますけれど

196 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:13:38.15 ID:untpxQHo.net
1111版のプロンプトの[]と()括りってそれぞれどれくらいの優先度値振られるんだろ
数字で直接指定とか出来なのかな

197 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:15:07.53 ID:ZmDccg6r.net
>>187,194,195
ありがとうございます。

hlkyがminiconda前提なので、python3.10を新たに入れるのはちょい怖く以下の手順でできました。

---
minicondaをプロンプトを起動して、
conda create --name Auto1111 python=3.10 で新しくpythonを3.10環境を作る
conda activate Auto1111
git pull https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
model.ckptとGFPGANv1.3.pthを配置

webui-user.bat →後はそのまま設定完了、起動
---

まあpython3.10を指定すればよかっただけですね。

198 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:22:16.78 ID:mmyt5ECq.net
>>196
stable-diffusion-webui/modules/sd_hijack.py 209行目あたりから
1回で10%アップorダウン

他のフォークのような:の重み付けは呪文分割実装なんで駄目だと考えてるとのこと
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/70

199 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:28:43.02 ID:untpxQHo.net
>>198
ありがとう

200 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:33:06.72 ID:L0XHxYGe.net
img2imgで新しく増えたInterrogateボタンがエラー出るだけだなーと思ったら、インストールするリポジトリが1個増えとったw

201 :名無しさん@お腹いっぱい。:2022/09/12(月) 23:59:50.47 ID:L0XHxYGe.net
img2img alterantive test、確かにoriginal promptに元絵から変わった状態を入れるとそれに応じて絵が変わるんだけど、めっちゃコントラスト高くなって出てくるからどうしようもないw

202 :201:2022/09/13(火) 00:02:03.42 ID:T243DbtB.net
具体的には、これが
https://i.imgur.com/AGd2rC4.png

こうなる。
https://i.imgur.com/1PO7nMa.png

203 :名無しさん@お腹いっぱい。:2022/09/13(火) 00:09:51.44 ID:F+5A822q.net
何かと思ったらCLIPで入力画像認識させてそれをプロンプトデータとして入力する機能か?
認識と出力の対応付けがまだうまくいってないんじゃ

204 :201:2022/09/13(火) 00:16:17.40 ID:T243DbtB.net
あれ……しかも、一個前に入れた内容が反映されるのは何故……

205 :名無しさん@お腹いっぱい。:2022/09/13(火) 00:20:36.49 ID:a5vZ4HJ6.net
>>198
確か()がアップで[]がダウンだっけ?
1回で10%上下とかスマホゲーのバフ計算かよw

206 :名無しさん@お腹いっぱい。:2022/09/13(火) 00:26:56.75 ID:T243DbtB.net
img2img alterantive test、まずは絵を置いてInterrogateする。
できたPromptを下のOriginal Promptに貼り付ける。
上のPromptを書き換えてGenerateする。

って手順なのか。これで思った通りの動作はする。色がすごいことになってるがw

207 :名無しさん@お腹いっぱい。:2022/09/13(火) 00:29:53.19 ID:T243DbtB.net
img2img alterantive testで髪型をいろいろ変えてみた。
https://i.imgur.com/oLmbrqg.png
https://i.imgur.com/imWdQtv.png
https://i.imgur.com/qZVUDJN.png

208 :名無しさん@お腹いっぱい。:2022/09/13(火) 00:52:31.66 ID:dYVHKN/X.net
1111最新にしたらTI制御難しくなったでござるの巻

209 :名無しさん@お腹いっぱい。:2022/09/13(火) 01:17:01.70 ID:sYJG0G48.net
>>131
Usernameんとこ、メールアドレス入れたりしてない?

210 :名無しさん@お腹いっぱい。:2022/09/13(火) 01:37:44.51 ID:WnNMyfXj.net
とりあえず1111とwaifuってのは入れた状態
あとなんか入れたほうが良いものってあるんですか?

211 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:10:40.01 ID:Dr02rmhk.net
優しい人たちのおかげで色々試せるわ、ありがとう
プログラミングは全然分かってませんw

212 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:14:15.86 ID:Dr02rmhk.net
初音ミクでちゃんと初音ミクが出てくるあたり調教する方法はあるんだよね
楽してやりたいな

213 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:28:16.88 ID:j/xx6iwA.net
Waifu版、ネガティブワードの力でアニメ調の顔がかなり安定してきた
結構広く使えそう

ネガティブワード:Blur,portrait_face,Photo_face


https://i.imgur.com/mXNTB1c.png

214 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:36:12.27 ID:/SkClZlQ.net
SDとWDが合体した2 in 1モデル
https://mega.nz/file/IwxQTQCb#tsfYZeHrd6U3fg5QCmBazEL-OjOmy1gmhvKAtp1YWFs
https://boards.4channel.org/g/thread/88569771#p88569916

215 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:37:29.94 ID:ArTjHPUb.net
色々考えて単語入れてたけどlexicaから適当にコピペしてワードサラダ的にランダムに入力したほうがいい絵出るな・・・
たまに奇跡の並びが発見できて楽しい

216 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:42:52.96 ID:Dr02rmhk.net
結局手とか足とかが苦手なのかな遠目で見るといいのに近づくと奇形も多い
手直ししたらすぐ使えそうだけど手直しができない

217 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:43:14.77 ID:/SkClZlQ.net
>>214
https://i.4cdn.org/g/1663000427789459.png
https://boards.4channel.org/g/thread/88566966#p88568918

218 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:43:16.73 ID:nAmu/odM.net
>>214
進化の速度がヤバい

219 :名無しさん@お腹いっぱい。:2022/09/13(火) 02:45:50.62 ID:Dr02rmhk.net
>>217
すごいな、どうやって作るんだよ

220 :名無しさん@お腹いっぱい。:2022/09/13(火) 03:03:07.21 ID:xknwixVp.net
しかしこのBLIPってやつはすごいな
https://github.com/salesforce/BLIP

221 :名無しさん@お腹いっぱい。:2022/09/13(火) 03:10:27.47 ID:JlwOAvNI.net
一緒にしちゃったらアニメ絵出しづらくならん?

222 :名無しさん@お腹いっぱい。:2022/09/13(火) 03:22:34.86 ID:gVUVjE63.net
4chanに貼ってあった参考画像
https://i.imgur.com/rAqto9C.jpg

223 :名無しさん@お腹いっぱい。:2022/09/13(火) 03:41:54.35 ID:Dr02rmhk.net
パーフェクトボディつってるだろ完璧な体だって言ってるだろ
それは奇形なんだよ…

224 :名無しさん@お腹いっぱい。:2022/09/13(火) 04:02:24.53 ID:ROvIcxRK.net
>>223
美乳とか入れても爆乳とそれ以上のものをお出してくるからな…
あえて俺は medium breasts と入れてる
それでも爆乳出して来たりするけど

225 :名無しさん@お腹いっぱい。:2022/09/13(火) 04:07:40.10 ID:JlwOAvNI.net
breastsって入ってるとそれだけで反応しちゃうAIくんよ

226 :名無しさん@お腹いっぱい。:2022/09/13(火) 04:35:39.81 ID:ArTjHPUb.net
ヤバいくらい雰囲気がいいイラスト無限生成プロンプト見つけてしまった
こんなんが5枚に1枚くらい入ってる
シチュエーションも無数にあるんで一生見てられる
https://i.imgur.com/dJwm4lq.jpg
https://i.imgur.com/IiVe4iO.jpg
https://i.imgur.com/XAx1S4l.jpg
https://i.imgur.com/ZMwdElk.jpg
https://i.imgur.com/iKDR5pD.jpg

227 :名無しさん@お腹いっぱい。:2022/09/13(火) 06:09:17.71 ID:mDfWA7XA.net
>>226
一番上とかすごすぎるな
普通に暦年の有名なイラストレーターみたいなクオリティじゃん

228 :名無しさん@お腹いっぱい。:2022/09/13(火) 06:10:15.00 ID:dYVHKN/X.net
WaifuとSDオリジナル半々ということはWaifuとはまた違った表現になるんだろうか
だれか試した感想頼む

229 :名無しさん@お腹いっぱい。:2022/09/13(火) 06:39:05.91 ID:x3XkC0xO.net
日本人「背が高い少女お願いします」
アメリケンAI「背が高い、、、195くらいか!?」

日本人とは感覚が違うからね

230 :名無しさん@お腹いっぱい。:2022/09/13(火) 06:50:28.02 ID:q9KWOZ+6.net
指定したポーズを取ると言うのがハードル高いなあ。
何の絵かと言うのは結構サクッと出せるけど、何をしている絵かって言うのが思ったより難しい…

231 :名無しさん@お腹いっぱい。:2022/09/13(火) 07:39:16.55 ID:x3XkC0xO.net
バチッとポーズを指定するっていうのは3DCGで十何年も前から出来る
最近のGANの強みは曖昧な言葉でポーズを指定出来る
もちろん出てくるポーズは曖昧なポーズである
適材適所ということやね

232 :名無しさん@お腹いっぱい。:2022/09/13(火) 07:39:53.41 ID:jdYILrRo.net
Waifuって美少女以外もいい感じに出せるの?
大人の女性とかイケメンとか、あと動物や風景とか

233 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:09:42.41 ID:V1LcYxUw.net
>>232
風景は普通
人間は大体何書いてもアニメ美少女が混ざってる感じでキモくなる
アニメ,漫画あたりをネガティブに入れれば一応普通のSDみたいに使えるな

234 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:16:18.01 ID:Hgh+fPIe.net
アニメ特化モデルなのにアニメ成分抜くのか

235 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:17:44.96 ID:jdYILrRo.net
>>233
なるほど、あくまでアニメ美少女特化なんだねありがとう
幅広く作りたいならまだノーマルSDでいいか

236 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:22:50.36 ID:Hgh+fPIe.net
アニメからややリアルよりアニメぐらい
>>214で半々モデルも出たっぽい

237 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:34:30.27 ID:x3XkC0xO.net
そんなんじゃまだまだだな
上司の「ドカッって来てバチバチーンからのビュビュビュッって来る妙齢の熟女だよ!」って指示に応えられなきゃ日本の会社では使えない

238 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:39:18.89 ID:q5zOkVJh.net
ドカッっとか、バチバチーン、みたいな言葉が具体的に何のイメージとつながっているかってのは、むしろAIが得意な気がする
SDやMJは学習してないと思うけど

239 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:41:51.86 ID:5ot6iVeK.net
colabの1111ってモデルオリジナルを引っ張ってくるのか。
トークン入れてるし、とっくの昔にアクセプトしてるのになんで403返ってくるってちょっと悩んじゃったw

>>232
waifuは端的に男女の扱いがヒドイw

https://imgur.com/a/hVk9jyA

seedは同じで、promptは"highschool student boy"か"highschool student girl"だけで出力。
他のイメージ系ワードなしだと、ここまで差がつく。

240 :名無しさん@お腹いっぱい。:2022/09/13(火) 08:52:12.90 ID:ZOt7Co/L.net
>>239
これは草
教材になった画像の美少女率と美少年率がこんな感じなんだろうなあ…

241 :名無しさん@お腹いっぱい。:2022/09/13(火) 09:21:19.84 ID:f4HgP/qZ.net
>>239
waifeでhighschool student girl だけ入れてぶん回したら
seed運次第でとんでもない美少女出てくることがあって呪文の探求の日々は一体?ってなるわ

242 :名無しさん@お腹いっぱい。:2022/09/13(火) 09:33:38.70 ID:f4HgP/qZ.net
余計なプロンプト入れずに運に任せたら低確率でガチな美少女出てくるから
顔だけ、体だけ別々にプロンプト利かせられたら革命が起こるだろうな
現状は体や背景指定するプロンプトのせいで顔が崩れてるわ

243 :名無しさん@お腹いっぱい。:2022/09/13(火) 09:36:14.06 ID:V8BQ0Z5S.net
短パンにショートカットの少女、とかで男の娘に出来るんじゃない

244 :名無しさん@お腹いっぱい。:2022/09/13(火) 09:37:50.30 ID:x3XkC0xO.net
プロンプトとseedが同じなら同じ絵が出てくるんだから世界中で似たようなプロンプトでGPU回しまくってるのは資源の無駄だよなー、と思う

245 :名無しさん@お腹いっぱい。:2022/09/13(火) 09:56:04.81 ID:/SkClZlQ.net
被写体と背景を別々に生成出来たらいいんだけどね

246 :名無しさん@お腹いっぱい。:2022/09/13(火) 10:04:33.67 ID:BL3zCaF9.net
>>241
そら広大な海の中から魚一匹捕まえるようなもんで
普段のPrompt探究は海じゃなく生け簀を見つける作業

247 :名無しさん@お腹いっぱい。:2022/09/13(火) 10:24:59.59 ID:2kk/h0le.net
>>245
同じこと考えてたけど、別々に作ってフォトショでいいんじゃないかという考え方も

248 :名無しさん@お腹いっぱい。:2022/09/13(火) 10:41:25.59 ID:f4HgP/qZ.net
1111版でSEEDやプロンプトその他の数値を全て同じにしても
同じ絵が出ないバグに悩んでるんだけど他の人は問題ないの?
多分このバグのせいでオカルトな意見が出たりしたんじゃないのかな

249 :名無しさん@お腹いっぱい。:2022/09/13(火) 11:04:20.04 ID:o0tbepg+.net
>>248
古い生成画像で試したけど同じものが出たよ
画像上げてくれたら試すよ

250 :名無しさん@お腹いっぱい。:2022/09/13(火) 11:07:53.35 ID:2kk/h0le.net
>>248
batch size入れるとsamplerによってうまくいってない模様
公式と違って1111氏は対応してるそうなんだけど
https://mevius.5ch.net/test/read.cgi/cg/1662332320/964
この人がDDIM限定かわからないって言ってるように、理屈はわからないけどeuler_aはダメみたい
LMSは大丈夫だった

251 :名無しさん@お腹いっぱい。:2022/09/13(火) 11:27:07.83 ID:2kk/h0le.net
具体的に書くと

「euler_aで」batch count 1 & batch size 3で3つ作る
pngファイル名、png chunkや保存txtのseedが100、101、102になったとする
(chunkとtxtにはbatch countが0、1、2と記載されてる)

で、全く同じ条件で再現しようとすると先頭の100はいけるけど、
seedの101、102はいわば嘘情報で、この2つのseed値はPCの藻屑でもう誰にもわからない

って感じ
とりあえずLMSは問題なかった
DDIMもかな、使わないので他は知らん

252 :名無しさん@お腹いっぱい。:2022/09/13(火) 11:34:27.53 ID:2kk/h0le.net
追記
Doggettx変更あってもなくても同じ
もしかしたら影響あるかもしれないので一応調査済み

253 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:17:19.20 ID:dSXCmapC.net
>>251
なるほど
手元で試してみたけどeuler aでもbat posから一枚目のseed推測して同じbatch sizeで実行したら同じの作れるっぽいね

254 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:20:49.99 ID:ZQFiQsYd.net
1111版で手動で環境構築してるとwebui.py起動時にGFPGANのエラーが出るようになったのでメモ

発生した現象:

Error setting up GFPGAN:
Traceback (most recent call last):
File "/content/stable-diffusion-webui/modules/gfpgan_model.py", line 66, in setup_gfpgan

解決法:

このissueの修正コミットにある通り
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/347

pipでGFPGANのリポジトリを指定する時に特定バージョンを指定することでエラーは出なくなった
git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379

255 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:30:11.92 ID:Hgh+fPIe.net
そろそろhlky版も安定して欲しいが

256 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:39:25.53 ID:2kk/h0le.net
>>253
逆算はまぁ・・
cfgやstepいじりたいのがバッチ8のケツだったら毎回無駄なの7つも作らされるという

257 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:44:19.38 ID:/SkClZlQ.net
CodeFormerあるからGFPGANもういらないし…

258 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:48:37.29 ID:2kk/h0le.net
CodeFormerの修正めっちゃ芋くない?
古い写真の欧米女性みたいになるから封印した

259 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:51:53.52 ID:/SkClZlQ.net
顔は好みの問題だけど仕上がりは上だろ

260 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:53:55.33 ID:Xb6kELUV.net
どっちか忘れたが鼻の下に人中が出たから
顔修整は使わんわ

261 :名無しさん@お腹いっぱい。:2022/09/13(火) 12:57:25.66 ID:+nG/qK5K.net
両方MAXでかけると
GFPGANはなんか極東アジア人っぽい感じ
CodeFormerは欧米人っぽい感じ という個人的な感想

262 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:30:20.72 ID:Hgh+fPIe.net
GFPGANはリアル用だから当たり前だけどアニメ系だと使いにくいというか使えない
Codeの方はどうなんだろ

263 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:34:50.35 ID:f4HgP/qZ.net
>>250
俺もeuler_aでバッチサイズありだった、やっぱりバグなんだな

264 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:37:39.15 ID:WnNMyfXj.net
複数のckptファイルを同じ場所に入れてそれぞれを使い分けながら起動することってできますか?
各所で説明されてる感じだとmodel.ckptに改名しなきゃ行けない感じなんですかね…?

265 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:44:01.40 ID:F+5A822q.net
>>264
AUTOMATIC1111ならできるよ
webui_user.batだったかの中身にオプション入れる

266 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:51:52.09 ID:5ot6iVeK.net
colabでも出来るよ。単にパイプの名前変えて複数読み込めばいいだけだから。
ただし、個別にckpt確保することになるので三つぐらいパイピングするとメモリ足んねーぞって怒られちゃうが。

267 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:54:12.71 ID:40UGkXIq.net
そろそろプロンプトのまとめが欲しい
みんなで共有して効率化を図ろうぜ

268 :名無しさん@お腹いっぱい。:2022/09/13(火) 13:59:20.06 ID:EQuE6MAE.net
リアルにしたいとき
unreal engine 5, facegen, true anatomy, screen-space ray tracing, screen-space ambient occlusion, screen-space reflection, depth of field, high detailed face,

269 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:03:58.78 ID:EQuE6MAE.net
>>268
https://i.imgur.com/WyPrApG.jpg

270 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:07:20.57 ID:5ot6iVeK.net
1girl kawaii of fantasic knightで魔法少女ちっくな画像を吐くwaifuはちょっと訓練されすぎだと思います。

271 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:10:27.21 ID:xknwixVp.net
>>268
それするとCGっぽくなるからそれはネガティブ指定の方がいいよ

272 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:12:28.81 ID:5ot6iVeK.net
ネガティブワード、本家にも実装されないかなあ。
やっぱCUIでぶん回したい。

273 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:18:29.51 ID:/SkClZlQ.net
>>262
どっちも写真・レンダ風以外のプロンプトで使うべきでない

274 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:56:28.44 ID:fK8laoSX.net
バッチサイズ2以上のシードの再現性の問題は解決が難しいみたい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/376
1で使うのが無難だね

275 :名無しさん@お腹いっぱい。:2022/09/13(火) 14:59:39.97 ID:/SkClZlQ.net
規制解除後AUTOMATIC1111版の議論が盛り上がる一方でhlky氏がスレに顔出さなくなってしまった
個人的には活発に競争することでお互いを高めあって欲しいんだけど

キャプチャソルバが別リポジトリにあるというだけでヴォルデモート版のURLをBAN対象にしていた4chan運営が悪いんだよね
というかBANされる度に状況説明するから却って広まった

276 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:05:17.34 ID:fi5oJJ1u.net
最新では変わってるかもだけど
1111のバッチカウント最大16だから、バッチサイズ盛りたくなっちゃうんだよね。ぶん回し環境だと
もしくは簡単に最大カウント直せたりするのかな

277 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:05:56.23 ID:a5vZ4HJ6.net
>>239
男女格差がヤベェw
別にwaifuの男女に限らずモンスターや怪物みたいな
学習データに無い事をさせようとすると一気に破たんするね
万能学習データとかは流石に無理そうな気がする

278 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:06:41.68 ID:o0tbepg+.net
>>276
ui-config.jsonの9行目を好きな値に変えればOK

279 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:07:35.67 ID:fi5oJJ1u.net
>>278
ありがとうー!

280 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:24:46.11 ID:f4HgP/qZ.net
一度プロンプトやseedが失われてしまうと二度と同じ絵を出せないのまさに呪文って気がする
思い描いていた空想上の未来のAIはいくらでも同じ絵出してくれそうだけど現実は違った

281 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:31:49.57 ID:Ffz4iYKI.net
お、いいじゃんこのプロンプト
って思ったらワンクリックでテンプレ的に保存出来る機能があれば便利なんだけどなぁ 1111様

あとInterrogateを使わない人達にとって生成ボタンの横にでっかく置かれると
間違って押してプロンプト全消しが頻発したりと邪魔なので、
小さくしたり位置を下の方にして頂けるとありがたいです 1111様


いつもありがとうございます1111様
こんなスレ見てないと思いますけど

282 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:39:01.84 ID:o0tbepg+.net
>>281
> ワンクリックでテンプレ的に保存出来る機能
Save prompt as styleボタン押すとプルダウンで簡単に選べるようになるよ
保存先はstyles.csv

283 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:39:22.00 ID:2kk/h0le.net
>>280
昔作ったのがまさにそれになったので1111でpng埋め込みにして
それ参照に慣れるためと管理が楽になるので設定txtはもう出してないわ
ここらがない(のかな?まだ)hlkyは使うに値しない

284 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:44:01.64 ID:Ffz4iYKI.net
>>282
ありがとうございます
ただのSAVEしか使わず見落としておりました


重ね重ねすみません1111様
Load prompt機能などありましたら助かります

285 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:45:04.59 ID:Ffz4iYKI.net
と思ったら、セーブしたプロンプトを読むこむ機能がありました
すみません1111様
良いお年を

286 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:47:01.65 ID:hlwlaZFe.net
生成する際に最初にひとつだけ日時.txtを作ってそこにパラメーターを書き込み、画像ファイル名に日時とパラメーターとプロンプトの一部を入れて、pngにも情報を入れている俺に死角はない

287 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:48:25.37 ID:f4HgP/qZ.net
ぶっちゃけ呪文の探求に膨大な時間を使うより
そこそこの呪文さえ用意したら後はバッチカウントを500とか1000にして
飯食ってるときとか寝てる間にぶん回す物量作戦が最強だったわ
極めて稀に奇跡の一枚が出てくる

288 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:50:07.39 ID:AOyet4s5.net
要望とか問題報告は、githubのissueに書けばいいよ

https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues

あんまりしょうもないことや、問題報告で情報不足(何をやって何のエラーが出たか書いてないとか)だと迷惑だけど、
普通の文章でこうすると便利だと思います、みたいに書けばいい

後、重複してないかのチェックはすべき、ぐらいかな

289 :名無しさん@お腹いっぱい。:2022/09/13(火) 15:59:12.29 ID:5ot6iVeK.net
呪文とCFGとSTEPをハッシュにしてフォルダ名にして、そこに呪文とSTEPとCFGをテキストで書き込んで、ファイル名にはseedをぶっ込む。
これで同じ呪文とCFGとSTEPの画像は全一つのフォルダに追加されて、どんな呪文かはフォルダ内のテキストとファイルのseedで再現可能。

ってCUIでは簡単だけど1111ではどうやればええんやろうか

290 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:01:58.82 ID:dSXCmapC.net
>>287
似たようなこと思ってたけど何百枚ってなると今度は選別が大変になってきた
これもAIにやってほしい()
手が写ってるのは除外するとか

291 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:06:57.25 ID:5ot6iVeK.net
ガチャは数だよ

292 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:12:48.61 ID:hlwlaZFe.net
>>289
その辺は主にprocessing.pyとimages.pyを弄れば自由に実装できる
GUI上で動的に設定を変えたいならshared.pyやui.py辺りも弄ることになるけど

293 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:18:36.84 ID:o0tbepg+.net
>>289
再現に関してはデフォルトでPNG内にプロンプトとかの情報が埋め込まれてる
PNG Infoタブで読み取る機能もあるから自分はこれで事足りてるかな

294 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:20:23.86 ID:xknwixVp.net
>>289
1111は出力された画像にシードとか入ってるから、画像ファイルだけあれば再現できる
1111のpng infoで読み取ってコピペ

295 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:41:04.58 ID:EjAURkVb.net
README!

296 :名無しさん@お腹いっぱい。:2022/09/13(火) 16:53:29.13 ID:5ot6iVeK.net
>>292,293,294
ありがとうございます!

だったら、画像全部一つのフォルダに突っ込んでから別でバッチ処理かけて分類すればいいか。
機能が多すぎて、どこをどうさわればどうなるかのさえ、まだ手探りw

297 :名無しさん@お腹いっぱい。:2022/09/13(火) 17:39:25.51 ID:dSXCmapC.net
やっぱり1111のcuiほしいよな
コード読むのだるいしseleniumでwebui動かすか
なんかバカみたいだけどw

298 :名無しさん@お腹いっぱい。:2022/09/13(火) 17:48:41.49 ID:P8TYfGum.net
>>297
1111はGUI上でコード書けるんだからそこに書けばいいだけじゃない?

299 :名無しさん@お腹いっぱい。:2022/09/13(火) 17:49:27.93 ID:o0tbepg+.net
CUIは毎回モデル読み込みから入るからめちゃくちゃ遅くなるしね

300 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:04:30.65 ID:dSXCmapC.net
>>298
GUI上ってscriptsフォルダのやつ?

301 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:09:03.05 ID:Hgh+fPIe.net
駐留タイプのCUIもできそうな気はするけど毎回入力するのめんどそう

302 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:09:31.72 ID:5ot6iVeK.net
GUIからエンジンにパラメータ送ってるわけだから、CUIから同じようにパラメータぶん投げるようにして回せるようにしてみようかな。

303 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:11:44.43 ID:5ot6iVeK.net
けど、毎回ロードしなおしってのはなんとかせんとだなあ。
そこをクリア出来たら、単にパラメータの多いだけのCUIと考えられるのかな? 今日インスコしたばっかりなんで、何がどうなってるか全然だから、ソースとリファ読むところからだな……
読んでるうちに仕様ごとがつっと変わりそうなのがアレだけど

304 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:21:28.15 ID:V1LcYxUw.net
ノートブック使えばいいだけじゃないの

305 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:23:37.27 ID:QqAzS5dp.net
>>300
起動時に、--allow-codeをつけるとscriptにcustome codeが選択可能になって任意のpythonが書ける

webui.bat --allow-code

・・・・はずだけど、今見たらCUSTOM CODEで何が書けるのかマニュアルが消えてて分からなくなってる
ごめん。今の仕様で何ができるかわからないわ・・・

306 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:33:13.26 ID:dSXCmapC.net
>>305
そんなのあったのか
サンクス見てみるわ

307 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:39:12.87 ID:WnNMyfXj.net
>>265
>>266
どうやればいいか教えてほしいです…

308 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:45:11.19 ID:Hgh+fPIe.net
batファイルを探してテキストで開く

309 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:45:29.76 ID:5ot6iVeK.net
>>307
colabの場合は単純明快で

pipe1 = StableDiffusionPipeline.from_pretrained( wifuのデータ読み込み )
pipe2 = StableDiffusionPipeline.from_pretrained( ノーマルのデータ読み込み )

ってそれぞれにパイプつないで、

image = pipe1(prompt, 各種オプション)["images"]
image = pipe2(prompt, 各種オプション)["images"]

って感じで使い分けるだけでおk。
あくまでも、デフォのSDで走らせる場合ね。

310 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:49:18.10 ID:sVUDy3TG.net
>>307
AUTOMATIC1111版なら

メモ帳を開く
そこにwebui-user.batをドラッグ&ドロップ
set COMMANDLINE_ARGS= の後ろに--ckpt sd-v1-4.ckpt
と指定する
--ckpt (ファイル名).ckpt みたいな感じ
VRAM使用量削減の文もあるならそのまま後ろに繋げる

set COMMANDLINE_ARGS=--ckpt sd-v1-4.ckpt --medvram --opt-split-attention
みたいに
そしてそれを上書き保存する

そして保存したbatの名前を適当にわかりやすいものにしてコピーして
またメモ帳で編集して
set COMMANDLINE_ARGS=--ckpt wd-v1-2-full-ema.ckpt --medvram --opt-split-attention
みたいに書く
それも保存する

どっちのbatを押して起動するかによってモデルが変わるようになる

※ただ、うちの環境だけかもしれないけども、model.ckptというファイルが存在しないとエラー吐くから注意

311 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:49:48.58 ID:QqAzS5dp.net
>>307
試してないけど、起動オプションに--ckptがあるので

webui.bat --ckpt weifu.ckpt

とかすればいい気がする。


shared.pyの中身見れば分かるけど、起動オプションの説明ページも見つからない。どこ言ったんだろうw どっかにあるのかな

312 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:49:51.60 ID:Hgh+fPIe.net
ローカルだとモデル指定した起動用bat組むのがわかりやすい気がする

313 :名無しさん@お腹いっぱい。:2022/09/13(火) 18:55:29.56 ID:f4HgP/qZ.net
waifeは何気に手も時々ちゃんと描けるようになってる気がする

314 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:01:26.05 ID:2kk/h0le.net
ID:WnNMyfXj
前スレの609だね

609 :名無しさん@お腹いっぱい。[sage] 投稿日:2022/09/09(金) 20:19:44.68 ID:L3GJdIaT
automatic1111版、最近起動オプション書くファイルが分離されて、
SD、WD、とりんさまの切り替えとかいい感じにできるようになった
https://i.imgur.com/41XCagC.png

315 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:18:19.28 ID:zg9YaASo.net
体の破綻をNGに
body broken up

316 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:24:36.56 ID:F+5A822q.net
今日の収穫 comiket cosplayer
それっぽいポーズの引きになってそれっぽいライティングが

317 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:26:47.80 ID:F+5A822q.net
途中で書き込み押しちゃったわ
それっぽいポーズになって背景がそれっぽい人混みになる

waifu1.2
https://i.imgur.com/Pb0OvTl.png
https://i.imgur.com/VrGglbP.png
https://i.imgur.com/GcTCK1b.png

318 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:44:33.50 ID:N+H9Mp9M.net
手も顔みたいに五指を認識して再描画する様な専用のAIが必要なんだろうな
マトモに出力されるのほぼ見ない

319 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:44:35.55 ID:2kk/h0le.net
>>315
MJで「perfect anatomical」とか入れてる人見て笑ってしまった
それが効いたら苦労はしねぇ

320 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:47:42.46 ID:Mbxe9zbX.net
>>317
確かにそれっぽくて面白いな
グロ注意
https://i.imgur.com/CzN6pJC.jpg

321 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:49:59.59 ID:r6w35lBF.net
>>320
キモオタまでしっかり再現されてて草

322 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:52:48.45 ID:F+5A822q.net
>>320
だからwaifuで画像お出ししたのに

323 :名無しさん@お腹いっぱい。:2022/09/13(火) 19:54:56.13 ID:Hgh+fPIe.net
そういえばここの人らの人に見せれるものになる打率って体感どれぐらいなんだろ
半分も行けば上級者ライン?

324 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:09:53.94 ID:6kTq54Ce.net
>>320
地獄じゃんw

325 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:12:09.96 ID:KhMwRs6q.net
>>320
現実とあまり変わらなくてわろた

326 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:14:16.25 ID:q9KWOZ+6.net
こうして報道映像は捏造されていくのだ……

327 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:19:16.14 ID:kQTaqo/Q.net
背景画で一番細部まで描写してくれる言葉ってなんなんだろ

328 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:19:54.07 ID:N+H9Mp9M.net
>>323
基本的に存在しないモノを出してるから1割り切ってるわ
大体どこかが破綻する

329 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:20:43.37 ID:q9KWOZ+6.net
意外とドラゴンがまともに出てこない。
素材結構あると思ったんだが。

330 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:22:23.35 ID:j/xx6iwA.net
waifu版、プロンプトcomicよりmangaの方がクオリティいいな
プロンプトにmanga、ネガティブにcomic入れて調整できるかな

331 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:24:11.88 ID:F+5A822q.net
>>330
Negativeにもカッコで強弱付けられるから調整してみるといいよ

332 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:34:56.33 ID:j/xx6iwA.net
カッコつけられるのか、それで試して見よう
サンキュー

333 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:47:46.76 ID:doGTWW97.net
>>315
これ、破壊するなのに妙に整うのなぜだ?

334 :名無しさん@お腹いっぱい。:2022/09/13(火) 20:58:33.94 ID:F+5A822q.net
>>319
でもNegativeに「bad poorly dessin body」と入れると効いてるような気がする
ポーズがシンプルになる気もする

335 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:09:15.78 ID:fi5oJJ1u.net
正しいプロポーションの画像素材が多いシチュエーションを思いつけるといいんだけどな

背景は後から付ければいいやと思って、「in white background」で画像作ってたことあるんだけど
肉体の造形が顕著によくなった(白背景のスタジオ写真が母集団に大量に入ったんだと思う)
ただ、ちょっとポーズが単調になるきらいがあったからやめちゃったんだけど、こういう発想で何回いい呪文を思いついたら多分劇的によくなる

336 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:21:30.29 ID:V1LcYxUw.net
結局上手い作家の名前いれるのが一番ということになる

337 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:21:31.23 ID:F+5A822q.net
>>335
anatomical chart!

338 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:33:35.53 ID:q9KWOZ+6.net
あれかな。デッサン人形みたいな3dモデルでimg2imgするのが1番手っ取り早いのかな

339 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:42:47.74 ID:Mbxe9zbX.net
daz studio(無料3dソフト)の人形を配置してスクリーンキャプチャしてimg2img。strength 0.7
どうせimg2imgで形崩れるから有料ポーズ買わなくてもポーズ合わせには使えるかもね
https://i.imgur.com/s8WGKRH.png
https://i.imgur.com/AgmwA50.jpg

340 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:45:45.07 ID:I1w2yo8U.net
>>339
これは良い

341 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:47:28.76 ID:6kTq54Ce.net
>>328
よく見ると99%以上が破綻してる
修正必須

342 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:47:33.78 ID:a5vZ4HJ6.net
>>329
どうやらdragonの単語で西洋の竜と東洋の龍が混在してるみたい
蛇状の東洋の龍に引っ張れて破たんする事が多いように感じる
これは学習データの未熟さだろうね

343 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:48:07.10 ID:q9KWOZ+6.net
一気に作るんじゃなくて、ボーンと構図を設定してそれを元に生成したら結構いい感じになりそうってことか。
腕が複数とか頭が複数も防げそうだし。
引きでの顔の蕩けは防げないけど。

344 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:49:17.65 ID:q9KWOZ+6.net
>>342
そんな感じだった。ドラゴンに襲われる村ってやったら日本昔ばなしみたいな平和なドラゴンが村から生えていたw

345 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:50:54.46 ID:Q7ak/h38.net
armpitsを入れると破綻しやすい腕や指が画面外に行って色気のある画像になりやすい

346 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:53:52.31 ID:X3tCSZ1v.net
ドラゴンじゃなくワイバーンなら西洋竜ぽくなるんだろうか
そのかわり小物感も出そうだけど

347 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:56:38.40 ID:lwM6de4x.net
胸像までならかなり打率高い
手足指が入ると・・

348 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:57:16.93 ID:JlwOAvNI.net
>>339
これ
パース付いてるような構図でもちゃんと認識してくれるかな?
写真だと角度ついて胴体が隠れてるような場合目茶苦茶になるんだよな

349 :名無しさん@お腹いっぱい。:2022/09/13(火) 21:57:33.75 ID:q9KWOZ+6.net
そっちの発想は無かった。ワイバーンとかだけでなく、神話のモンスターなんかもちょっと試して見る。

350 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:10:12.30 ID:/SkClZlQ.net
言うほど東西混同が問題だろうか

Bahamut
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512
https://i.imgur.com/2sRLTEd.jpg

Wyvern
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512
https://i.imgur.com/SR1J1Xw.jpg

Yamata no Orochi
Steps: 20, Sampler: Euler a, CFG scale: 7.5, Seed: 0, Size: 512x512
https://i.imgur.com/EzxbgaX.jpg

351 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
trading card illust of big dragon flying sky, dragon fire attacks village, greg rutkowski

なかなか打率の高い村を襲うドラゴン>>344の呪文を作れたぞ(ただしwaifu版環境)
頭の体操に面白いな

352 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:25:27.02 ID:Q7ak/h38.net
elder dragon
これで西洋竜になるよ

353 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:25:58.64 ID:q9KWOZ+6.net
>>351
センキュー

なんとなく見えて来た。
ドラゴンじゃ大雑把すぎるっぽい。
もっと具体的にトレーディングカードのドラゴンとかアイルランドのドラゴンとかファフニールとかピンポイントで指定する必要があるっぽい

あとワイバーンって何故か女さんがsan値直葬で登場するんだが…貴婦人とかいう意味あるのかな。

354 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:29:34.24 ID:F+5A822q.net
Negativeで使えるワード

bad/poorly 質が悪い
asymmetrical 非対称な 揃っていない
emotionless 感情の無い
broken 壊れた
mutated 変異した
extra 余計な

poorly asymmetrical drawn emotionless eyes をNegativeに入れると
質が悪く非対称に描かれた感情の無い目 から遠ざかるので
質が良く対称に描かれた感情のある目 になる
引きの画で目がブッ壊れる時に有効

355 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:29:42.40 ID:fi5oJJ1u.net
>>353
いえいえ
自分はトレーディングカードって宣言することで、絵のクオリティを上げつつ東洋龍を排除したけど
他の方みたいに種族を指定するいい方法もあるんですね
勉強になりました

356 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:32:05.69 ID:Mbxe9zbX.net
>>348
化け物率が跳ね上がるな
根気よくガチャ回して多少まともなの出たらそれを元にさらにガチャ回せばいけそうだけど大変だ
https://i.imgur.com/EnirL7F.jpg
https://i.imgur.com/uzWeUMp.png

357 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:32:21.22 ID:Q7ak/h38.net
d&d とか mtg 関連はかなり認識するはず
dragon, kamikawa
にすると東洋龍に偏る
ただニコボーとか入れるとカードそのものになりがち

358 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:41:37.12 ID:a5vZ4HJ6.net
>>350
学習先がビックリするほどMTGだw
ネガティブにカードとか単語入れるとフレーム排除できるのかな?
環境構築が済んだと思ったら学習データに苦労するとは思わなかった

359 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:47:46.33 ID:F+5A822q.net
>>356
試してみたけど輪郭以外ツルッツルなのが相当悪さしてるな
申し訳程度にでも適当な髪の毛と眼球と水着ぐらい着てると認識率上がると思う

360 :名無しさん@お腹いっぱい。:2022/09/13(火) 22:56:24.91 ID:fi5oJJ1u.net
>>354
100枚ぐらい回してみましたが、かなり効いてる気がします
thx

361 :名無しさん@お腹いっぱい。:2022/09/13(火) 23:08:52.13 ID:+nG/qK5K.net
しらんまにGFPGANのモデル1.4来てるなぁ
1111版で使うのに1.3にリネームしたら使えるみたいだ

362 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>359
目的の絵に近いCG作れるならよさそう
元画像に引っ張られて望む大きな変化を起こすのは難しそう
https://i.imgur.com/9BvHVL4.jpg
https://i.imgur.com/y5MG9u4.png

363 :名無しさん@お腹いっぱい。:2022/09/14(水) 00:32:10.94 ID:2sN3eqXo.net
元絵には似せない設定のほうが
ガチャ引いてて楽しい

364 :名無しさん@お腹いっぱい。:2022/09/14(水) 00:44:37.31 ID:82aFI8/C.net
trinart2のmodelも入れてみたけど、これはこれでwaifuとはまた違った趣があってよいですな。

365 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:01:54.33 ID:Ltg/09kC.net
ERNIE-ViLGもモデル公開してくれんかなぁ

366 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:10:56.90 ID:PPRJYMyI.net
>>362
3D人形をそのまま使うよりもボカシを入れたり
ベタ塗りしてアニメ寄りにした方がいいかもね

ペットの写真にボカシ加工入れてローポリ化した画像とか上げてる人が居た

367 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>353
ファイアードラゴンでドラゴンアクセサリをまとった女の人ばっかり出てきてどうしたことかと思ったら、人物画描く画家さんに引っ張られてたわw

368 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ファイヤー……ドラゴンさん?ってなった。
前2枚がwaifu版、後ろ2枚が本家版だったはず。
https://i.imgur.com/bzlRTQP.png
https://i.imgur.com/H7i9aQQ.png
https://i.imgur.com/3Mtyl5B.png
https://i.imgur.com/5FZr6JU.png

画家さん情報を削るとちゃんとファイアードラゴンになった。
https://imgur.com/RDLpaqC

369 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
このスレの人ってフィギィアにぶっかけとかしてそう
他にやる事ないの?(笑)

370 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
フィギュアコレクションしてそうはあるよなw

371 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
やめたれwww

372 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:38:33.15 ID:GmOT5bkd.net
>>370
海洋堂のフィギュアだから……(震え声)

373 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:50:00.01 ID:1ivR8tsz.net
あっちで雰囲気に合わせて鬱憤晴らして
こっちで素に返って敬語で虎視眈々と取り組んでるのはシュールw

374 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:52:25.95 ID:Q6tSDS0j.net
IDで演じ分けてるから全然被らないでしょ
伊達に技術持ってないし

375 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:55:52.42 ID:Ltg/09kC.net
>>368
モン娘のデザイン考えなくていいなコレ
こういうの大量に出してソコから良いのを元にして自分で描けばいいし

376 :名無しさん@お腹いっぱい。:2022/09/14(水) 01:58:31.64 ID:1ivR8tsz.net
>>374
まんさん怖い(´;ω;`)

377 :名無しさん@お腹いっぱい。:2022/09/14(水) 02:00:42.87 ID:yUOVIoLj.net
ビンビンですよ、神

378 :名無しさん@お腹いっぱい。:2022/09/14(水) 06:46:24.53 ID:kNMcE6pI.net
人間だったらアイディアと労力に限界があるが
アイディア出しだったらAIは優秀だな

379 :名無しさん@お腹いっぱい。:2022/09/14(水) 06:47:29.73 ID:aTjNWWQ0.net
waifuと呪文研究の進展にcodeformerもあるしでマジでかなりのイラスト出るようになってきたな
顔が駄目とか体が駄目とかどんどん過去のものになってる

380 :名無しさん@お腹いっぱい。:2022/09/14(水) 06:54:02.94 ID:JvjZUPik.net
画風とキャラの同一性をseed値に関係なく取れるようになったら色々できそうう

381 :名無しさん@お腹いっぱい。:2022/09/14(水) 06:54:55.56 ID:9NrCs8un.net
遅くてもいいからDDR4とかでも64GB積んだグラボが欲しくなる

382 :名無しさん@お腹いっぱい。:2022/09/14(水) 06:58:10.94 ID:aTjNWWQ0.net
ネガティブプロンプトまじで神だな打率めっちゃ上がる
通常プロンプトとはトークン数別で計算されるし
少ない副作用でプラスの効果だけあるワードが多い

383 :名無しさん@お腹いっぱい。:2022/09/14(水) 07:13:06.04 ID:JvjZUPik.net
>>214これ使って見た感じdanbooruタグ指定可能な要素はWaifu風味になって
そうでなければ元のSD準拠っぽい感じになった
ただdanbooruタグ内容と近そうな要素はWaifuに引っ張られた表現になってるかも

384 :名無しさん@お腹いっぱい。:2022/09/14(水) 07:31:05.44 ID:BOj2Pbun.net
あとは手さえなんとかなればギャルゲの立ち絵とCGくらいなら賄えそう
さすがに全部手隠しポーズは違和感が

385 :名無しさん@お腹いっぱい。:2022/09/14(水) 07:49:44.02 ID:TsXlqr9x.net
>>384
手は大人しく3Dモデルくっつけとけばええやろ

386 :名無しさん@お腹いっぱい。:2022/09/14(水) 07:52:45.53 ID:BOj2Pbun.net
https://github.com/KichangKim/DeepDanbooru
画像からdanbooruタグを推定する CLIPのdanbooru版だってさ

387 :名無しさん@お腹いっぱい。:2022/09/14(水) 08:03:39.75 ID:lbWo/Aow.net
>>386
これUsageどおりに大勢が実行しだしたらdanbooruの鯖の負荷とか大丈夫なんですかね?

388 :名無しさん@お腹いっぱい。:2022/09/14(水) 08:07:55.29 ID:BOj2Pbun.net
>>387
大丈夫じゃなさそうというか実行するのも個人のpcでは無理では?
デモサイトを使ってる

389 :名無しさん@お腹いっぱい。:2022/09/14(水) 08:14:39.46 ID:PPRJYMyI.net
>>384
恐らく部位特化型の学習モデルが出てきそう
学習の仕様上、数を覚える事が苦手みたい
握り拳とか状態で指の数が変わってしまうから難しそう

修正したい部位以外をマスクして特化モデルで再出力・・・
プラモにエアブラシをかけるマスキング作業みたいになりそう

390 :名無しさん@お腹いっぱい。:2022/09/14(水) 08:24:19.87 ID:82aFI8/C.net
>>389
今だと、手とか指だけ描かせてもすごいの錬成してくるからな。

391 :名無しさん@お腹いっぱい。:2022/09/14(水) 08:51:18.46 ID:2sN3eqXo.net
>>381
それより共有メモリーでも動くようにしてほしい

ガチャってる時は高速のほうがいいけど
採用した絵を高画質で作る時は遅くていいんだよ

392 :名無しさん@お腹いっぱい。:2022/09/14(水) 11:25:40.20 ID:WxNYdbZG.net
タスクマネージャに堂々と共有メモリー○○GB!って書いてあるけど
あれそもそもCUDAだとまともに使えなかったはず
ゲームする時にドライバがあふれたデータの退避場所にしてるぐらいで

できたとしてもbasujindalとかがやってる
処理を分割してVRAMとRAMの間を行ったりきたりさせる手法とほぼ変わらないし

393 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
GeforceもNVLinkで単一GPUとして動作するようにしれくれないかなとは思う
それが欲しけりゃA6000とか買えってことなんだろうけど

394 :名無しさん@お腹いっぱい。:2022/09/14(水) 11:48:47.97 ID:18H+xhA2.net
>>146
楽しくてちょこちょこまわしてる
わいもゆるふわ勢
でも皆の会話のレベルが高すぎて理解できんw

今日Dalle2の招待も来てることに気づいた
そっちも行ってみるわ

395 :名無しさん@お腹いっぱい。:2022/09/14(水) 12:03:50.74 ID:J2x1HuJz.net
https://www.unite.ai/three-challenges-ahead-for-stable-diffusion/
これ面白かった
みんながワイワイ言ってる問題をかなり突っ込んでる

396 :名無しさん@お腹いっぱい。:2022/09/14(水) 12:12:54.16 ID:JvjZUPik.net
諸問題の解決の糸口はあるから期待できるのか

397 :名無しさん@お腹いっぱい。:2022/09/14(水) 13:28:37.89 ID:VTicVBcK.net
>>146
似たようなもんだよ
ただ制限来た後は練習がてらに自分で後でimg2する為の絵描いててるけど

398 :名無しさん@お腹いっぱい。:2022/09/14(水) 13:29:39.31 ID:AGCrOEPd.net
>>395,396
こんな感じ?俺は解決の糸口がないように読んじゃったけど自信はない。

・SDは2017年のディープフェイク以来のオープンソースAIブーム
1.タイルベース(512x512制限)、及び顔
 ・ReadESRGANアップスケーリングや、512x512画像のつなぎ合わせ手法が試行されている。GOBIGのtxt2imghdは、メインブランチにまもなく提供される予定
 ・人間は顔に注目するが、AIには顔を特別扱うする仕組みがない。
  現時点では手動で修正が必要。一旦生成した後、顔のみimg2imgで生成し直して合成する、等
  https://www.unite.ai/wp-content/uploads/2022/09/Hendricks_0002.gif
  https://www.unite.ai/wp-content/uploads/2022/09/Hendricks_0003-1.gif
  顔の部分のみフォーカスして再作成・合成もできる
  https://ml8ygptwlcsq.i.optimole.com/fMKjlhs.QRSi~1ce64/w:auto/h:auto/q:mauto/https://www.unite.ai/wp-content/uploads/2022/09/connelly-eye.jpg

2.手足
 ・手足がおかしい問題はモデル1.5でも解消しない。
 ・学習元データには人体、人間行動の多くのラベルがある
  本来はこのような階層であるべき。 body>arm>hand>fingers>[sub digits + thumb]> [digit segment]>Fingernails
  しかしソース画像は「手」などで止まっているものが多い。(なので腕があれば手も高確率で表示される)
 ・この点について自動的なラベル付ができるアルゴリズムはない。更にアニメのように指が4本のキャラクターもいる
  方法1.トレーニングデータのラベル付けを適切に行う(極めて大量の人手がいる)
  方法2.GPT-3とDALLE-Eで行ったように指が3本とか5本とかのコンテンツを描画時にそれを除外してしまうこと
  (注)方法2は多分ホラーみたいな表示にならないように、ということで、要するに解決策は今のところないということ?

3.カスタマイズ
 ・モデルに高品質な画像を追加学習は大きな可能性がある。しかし30GB VRAMが必要なのは一般ユーザーには厳しい。
  また、追加学習はハードフォークになるため、公式モデルの進歩についていけないこともデメリット。
 ・Textual Inversionであればこの点問題はない。ただしどの程度効果的に使えるものかはまだ検証されているところだ。

399 :名無しさん@お腹いっぱい。:2022/09/14(水) 13:45:33.85 ID:mvHAlUyA.net
>>386
resnet(5年以上前の技術)で作られてるのかな
ちょっと古いから残念ながら期待できなさそう
同時期に出たyolo含めてこの数年の進化がヤバイから

400 :名無しさん@お腹いっぱい。:2022/09/14(水) 13:49:26.44 ID:im7aEn5P.net
>>389
それもAIに任せることになりそう
絵全体をザッと描いて部位特化モデルに修整を振り分けるAI

401 :名無しさん@お腹いっぱい。:2022/09/14(水) 13:53:45.01 ID:aTjNWWQ0.net
強力な呪文ほど消費トークンが多いことが分かって壁にぶつかりつつある
ガチで可愛い顔とか綺麗な髪出そうとするとシチュエーション指定するトークン数が残らん

402 :名無しさん@お腹いっぱい。:2022/09/14(水) 13:55:47.59 ID:GTxoRhEh.net
中身を理解してるわけじゃなく映像を組み替えて雰囲気出してるだけだからねぇ
人体もそうだけど、ボードゲームとか描かせると知ってる人間の目で見ると酷いどころじゃないよね、チェスでも将棋でも
回路図とか機械図面とか言い出したらきりがないけど

403 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:00:25.04 ID:GTxoRhEh.net
>>401
スペースやカンマをなくしたら?トークン数減りつつちゃんと認識してるはず
どうしても前後で混ざっちゃう単語だけ避けて、めっちゃ見にくくなるけどw
あったときと結果は変わっちゃうけど、ランダムseed起点でやってるならそれがどうしたって話だし

404 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:04:00.13 ID:+jwpreHM.net
>>402
> 中身を理解してるわけじゃなく映像を組み替えて

今のところ全く学習が不完全だけどこれは違うよ
特徴を理解して描画してるので、映像を組み替えてるわけじゃない

405 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:11:25.77 ID:tWBKSZJb.net
>>386
背景のない全身像だと的確なタグが出るね
あとdanbooruにある画像を入れると記入されてないタグが見つけられて便利

406 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
danbooruのタグって役に立ちそうであまり役立たないんだよな
少女漫画系だろうがアメリカンな画風だろうが1girlだし
あれ、英語で少女漫画風ってなんで言うんだろ

407 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
質問です。
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/
上のURLを参考にcolabで1111版導入したんだけど、
waifu使いたくて、四苦八苦している

プログラム初心者ながら、
#@title Normal 1.4 modelから始まるところの最後の行を
https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt
から
https://huggingface.co/hakurei/waifu-diffusion
書き換えてみたんだけど

最後のimport sysから始まる行で、
UnpicklingError: invalid load key, '<'.というエラーが出てしまった……

わかる方いたら、教えてください

408 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ギガジンに聞けよ

409 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:30:27.44 ID:mvHAlUyA.net
>>407
簡単にやるなら、普通にインストールしてwaifu抜きで動くようにする
で、その中にあるmodel.ckptファイルをwaifuからダウンロードしたやつで上書きする
waifu対応でやることはファイル名変更と上書きだけ

410 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:30:44.42 ID:lvFscRSM.net
>>406
アメリカにも少女漫画は存在したらしい
https://www.sjpl.org/blog/history-romance-comics-usa
例のComics Codeで潰されたみたいだけど

今現在で少女漫画=日本の少女漫画って認識しかないのでshojo mangaとしか

411 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:32:51.42 ID:wOad4Ono.net
>>407
waifuのcktpを代わりに突っ込まないとダメ。
model.cktpにリネームされてるから、waifuのcktpをリネームして上書きすればとりあえず動くはず

412 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:35:05.75 ID:FgF1ICeE.net
>>407
waifu-diffusionのページの

Original PyTorch Model Download Link

からwd-v1-2-full-ema.ckptをダウンロードしてmodel.ckptにリネームしてstable-diffusion-webuiディレクトリに置けばいいんやで。

413 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:37:52.06 ID:iISt9ryZ.net
>>410
ほー、勉強になります
検閲は文化を殺すんだなとつくづく
鳥取の件あるし他人事じゃないな

414 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:38:14.23 ID:ojC+NXoL.net
>>407
書き換えるURLが違う
WaifuのckptのURLなら「Original PyTorch Model Download Link」のリンク

415 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:41:08.56 ID:ZBK6gyg0.net
>>407
その行をこうすりゃ動くのでは

!wget --header={user_header} https://thisanimedoesnotexist.ai/downloads/wd-v1-2-full-ema.ckpt -O model.ckpt

試してないけど

416 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:46:35.98 ID:ZBK6gyg0.net
というかこれ毎回ckptダウンロードするからめっちゃ時間かかるね
自分のGoogle Driveに保存するバージョンのノートブックとか探したほうがいい気がする
俺はもうGoogle Colab使ってないから調べる気はしないけど

自前でGoogle Driveからコピーするようにしても改造するのも簡単だけど、ちょっとだけColabの勉強はいるね

417 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:51:39.17 ID:wOad4Ono.net
無料だとGoogledriveの容量15GBだから、なにげにキツいんだよね。
waifuのcktpぐらいだけならいいけど、とりさんまとかも置いておくとあっという間にあふれる。

418 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:52:48.45 ID:wOad4Ono.net
#@title Normal 1.4 model
#get a token from https://huggingface.co/settings/tokens
#user_token = "" #@param {type:"string"}
#user_header = f"\"Authorization: Bearer {user_token}\""
#!wget --header={user_header} https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt -O model.ckpt

!wget https://thisanimedoesnotexist.ai/downloads/wd-v1-2-full-ema.ckpt -O model.ckpt

トークンもなんもいらないので、ヘッダも削っておk。

419 :名無しさん@お腹いっぱい。:2022/09/14(水) 14:54:34.47 ID:caYuOgV0.net
>>418
いらんけど、削除する意味もない

420 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:01:17.21 ID:tsqH+USA.net
Tesla T4(15GB) だけど、>>415で、実行すると最後のwebui実行でRAM不足になってクラッシュするね

ローカルでもwaifu版使ったことないけど、RAM必要量多いのかな

421 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:02:48.02 ID:tWBKSZJb.net
4gb版のモデル使えばRAM足りるよ

422 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:10:14.26 ID:8W/y1oSw.net
たくさんのアドバイスありがとうございます!
無事、colabでwaifu版を動かすことが出来ました!!

423 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:14:17.52 ID:I6P2SSmx.net
いやいやクラッシュするのになんで動くんや
まあ動いたならいいよ

424 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:17:54.21 ID:vCMSN3bb.net
cktpも早い時は1分かからずダウンロード終わるけどな
速度が200MB/sくらい普通に出るし

425 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:38:48.60 ID:wOad4Ono.net
やっぱ、ネガティブワードは必須だw
ちょっとでも日本要素があったら、どっからか紛れ込みよる

ラノベの表紙風のってしただけで、五重塔とか富士山がが

426 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:41:37.13 ID:WxNYdbZG.net
full-emaは不要な学習用データが付いててそれごと一旦RAMに読み込んでから必要なところだけVRAMに送り込んでる
およそ7GBぐらい食うはず
意外とRAMが貧相なColabだと不足で落ちるかもね

単純に要らない部分をカットすればいいだけなんだけど
colabで動かしてる人少ないから解説とかは無い

427 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:43:57.46 ID:04dwwjD+.net
ネガティブって何個使えるんだろう
段々長大になってきて、トークンで言えば30個ぐらい書いてると思う

428 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:50:29.65 ID:9+1duJsR.net
とりんさまのモデルデータ、3種類あるうちどれを使えばいいの? 説明を読んでもわからない

429 :名無しさん@お腹いっぱい。:2022/09/14(水) 15:56:04.38 ID:WxNYdbZG.net
>>428
学習をどれだけ進めたかという違い
学習が進んでいるほど数字が大きい
どうも進めた方がいいという訳でもなく全部使ってみて好みで選べということらしい

430 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:02:33.82 ID:mvHAlUyA.net
>>426
前スレにカット方法あったはず

431 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:12:21.21 ID:T/p3zdS4.net
>>426
一番最後の行をpruneしたいモデルの相対パスに書き換えてpythonで実行
https://github.com/harubaru/waifu-diffusion/blob/main/scripts/prune.py

432 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:14:28.87 ID:LcZSn6ov.net
>>427
77

433 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:14:38.15 ID:I6P2SSmx.net
Colab proの初心者か

434 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:18:05.86 ID:04dwwjD+.net
>>432
ありがとう
まだしばらく安心やね

435 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:46:10.00 ID:wOad4Ono.net
これで初めてcolabとpython触ったw
未だにpythonの字下げルールの馴染めないw

436 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:50:52.48 ID:T/p3zdS4.net
>>431
一番最後の行の' '内か

437 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:52:14.28 ID:BOj2Pbun.net
colab初心者はまず設定→その他からコーギーモードを選択しとけ
powerレベルを上げるのも忘れるな

438 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:53:59.45 ID:md6fcuqO.net
>>310
返信遅くなってすいません出来ました

439 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:55:59.41 ID:48wWYYKP.net
>>435
もてはやされてるからどんなスーパー言語かと思ったら
インデントがスペース任せとか椅子から転げ落ちたわ、コピペ時にズレるがなって

440 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:56:05.40 ID:md6fcuqO.net
途中送信してしまった
>>310
ありがとうございました!
>>311
これはファイル名を書き換えるということなんですかね…?
拡張子がbatじゃなくなると起動できなくないですか?

あと皆さんってどういう感じでckptファイルを使い分けてる感じですか?

441 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:56:26.28 ID:T/p3zdS4.net
>>437
猫モード一択

442 :名無しさん@お腹いっぱい。:2022/09/14(水) 16:58:44.52 ID:md6fcuqO.net
>>314
実は前スレでこれ試してたんですが出来ず…
>>310の最後のmodel.ckptが無いとだめというのが原因かもしれません
というかこの場合ちゃんとmodelじゃない方で起動できてるんですかね…?

443 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:00:23.67 ID:T/p3zdS4.net
model.ckptはダミーでもいいから置いておかないとダメだね

444 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:02:40.29 ID:wOad4Ono.net
>>440
フォトリアルか絵画かで分けてる
ダンボールタグ突っ込まなかったら、海外の濃い絵が出てくるのでwaifuでも問題ない感じ

445 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:02:53.64 ID:T/p3zdS4.net
と思ったらチェックなくなってた
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/a0e819de90da4f93e7e1d8216dd9373a90851fd8

446 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:05:07.31 ID:md6fcuqO.net
>>443
書いてから思いつきましたがそれでも良いみたいですね
>>444
なるほど…!
フォトリアルってSD標準のってことですかね?
>>445
更新きたんですか?早い

447 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:05:38.03 ID:wOad4Ono.net
The Lord of the Rings学習しすぎぃ!
https://imgur.com/EWOLunJ

448 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:06:55.80 ID:wOad4Ono.net
>>446
うぃ。
動物系はSD1.4が良い感じにでるから。

449 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:23:11.16 ID:ojC+NXoL.net
>>431
EMA除去に関してはこういうコードもあるけどどう違うんだろう
https://zenn.dev/ddpn08/scraps/c065efc08867c5

.half()の副作用でEMAも落ちたりするんだろうか

450 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:25:05.97 ID:48wWYYKP.net
古い1.3のckptが残ってて、メモリ充分あるし7Gあるこっちのがいい場合があるのかも?って考えてたんだけど
https://www.reddit.com/r/StableDiffusion/comments/wv1.4ucan/everyones_drooling_over_14_but_i_find_13_better/
普通に4Gになった1.4の方がいいみたいだね

waifuのとサイズがほとんど同じって中身はどうなってるんだろう
7,525,253KB waifu
7,525,250KB 1.3
4,165,411KB 1.4

451 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:29:20.44 ID:XCoq+uDM.net
>>440
> これはファイル名を書き換えるということなんですかね…?
> 拡張子がbatじゃなくなると起動できなくないですか?

意味が分からないが、Automatic1111なのに、webui.batが存在しないなら、何か間違ってるよ

452 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:30:51.02 ID:WxNYdbZG.net
>>450
ニューラルネットワークの大きさが同じで値が変わってるだけだからサイズも変わらない
waifuも1.3もEMAを切り捨てると4GBぐらいになって1.4の一般配布版とほぼ同じファイルサイズになる
半精度に落とすと2GBぐらいで済むはず

EMAは学習を再開するためのセーブデータで画像を作るときには学習はしないので関係がない

453 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:36:13.86 ID:lbWo/Aow.net
>>435
>>439
普通のテキストエディタとか使うとたしかに苦行かもだけど
各言語専用のエディタとか拡張機能とか使いまくってるせいかあまり気になったことはないかな
PythonならintelliJとかVSCodeとかがおすすめ?

454 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:37:48.33 ID:Xuk/VOHt.net
PythonはVS Codeありきだな

455 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:41:11.86 ID:vCMSN3bb.net
Python最初見た時型宣言無しなのは草生え散らかしたわ
いまだに慣れない
というかIDE無しだと実質開発不可能だなこんなの

456 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:41:50.80 ID:48wWYYKP.net
>>452
ありがとう
> EMAは学習を再開するためのセーブデータで画像を作るときには学習はしないので関係がない
こういう都合なのか

457 :名無しさん@お腹いっぱい。:2022/09/14(水) 17:58:15.22 ID:Ltg/09kC.net
>>455
タイプセーフじゃない言語なんて腐る程あるじゃん

458 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:16:42.02 ID:vCMSN3bb.net
うん、でそれだと大規模なプロジェクトでは色々困るからということで厳格に型を決める言語がずっと人気だったわけでしょ?
結局Python3から型宣言できるようになったし

459 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:18:05.18 ID:wOad4Ono.net
ライブラリありきでルーズな感じは割とPerlに似てる気がする。

460 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:20:23.58 ID:md6fcuqO.net
>>448
なるほどです
>>451
"webui.bat --ckpt weifu.ckpt"
これはファイル名のことなのかなと
コマンドでしたかね?

461 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:22:37.31 ID:irBzp7Es.net
>>460
質問がシュールすぎるわ・・・

AIに文章書かせてからかってるのかね

462 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:25:30.09 ID:6ScT6pj4.net
上のスレチPython問答もAIに書かせたやり取りっぽいなw

463 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:27:23.39 ID:t9nt9SnE.net
AIを触りすぎてAIに近づいてしまった人達

464 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:31:48.75 ID:md6fcuqO.net
>>461
分からないことを分からないって言うのってむしろ人間っぽくないですかね
まあそれで言うと回答を持ちながら答えずに嘲笑するのも人間と言ったところでしょうか

465 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:36:21.21 ID:JvjZUPik.net
いつもの荒らしでしょ、スルースルー

>>460
https://ascii.jp/elem/000/001/793/1793563/
まずここら辺読んでコマンド指定の構造覚えて

466 :名無しさん@お腹いっぱい。:2022/09/14(水) 18:38:02.56 ID:npOZRUOT.net
ごめんね
基礎的な事わからない人が来る可能性を想像できなかったはずないのに
オーバーリアクションしつつ知識マウント取りたいっていう知性とは矛盾した人が居座っててごめんね

467 :名無しさん@お腹いっぱい。:2022/09/14(水) 19:14:42.08 ID:mvHAlUyA.net
真っ赤な嘘かもしれないけど俺の理解だとこうだな

ema(加重平均)が画像生成用で、no-ema(単純平均)が学習用
full_emaはemaとno-emaの両方のウェイトが入っていて
no_emaはemaだけ入ってる(意味不明)

で、SDは利用者がemaだけのmodel(no_ema)を使うこと前提にしてるから
v1-inference.yamlがuse_ema=Falseとなってる(意味不明)
これによりfullだったら自動でemaではない方(単純平均。学習用)を使うし、no_emaだったらema(加重平均。画像生成用)になる(頭がこんがらがる)
(SDのreadme参照)
つまりfullをインストールしたら、画像生成用ではなく学習用のデータでSDが動くことになる
ちなみにfullの方(学習用データでの画像生成の方)がVRAM消費量は少ないみたい

use_ema=True(画像生成用ウエイト使った状態。no_emaを入れた状態に等しいはず)
https://i.imgur.com/DWXPXF1.jpg

use_ema=False(学習用ウエイト使った状態。fullを入れるた状態に等しい)
https://i.imgur.com/OAQa5ZL.jpg

468 :名無しさん@お腹いっぱい。:2022/09/14(水) 19:27:08.64 ID:+/8TcnvG.net
真っ赤な嘘かもしれないなら書かんでくれ
意味不明とか言うならまず自分の中でその疑問を消化してくれ

469 :名無しさん@お腹いっぱい。:2022/09/14(水) 19:29:52.81 ID:Pn77v6w9.net
実はこのスレにいるのは、ひろゆきとAIとお前だけなんだ

470 :名無しさん@お腹いっぱい。:2022/09/14(水) 19:37:33.12 ID:W0VY9/S/.net
>>209
それでしたー!!
自分で入力はしてないんですが、アカウント削除を選ぶとすでに入力状態で開いてたので
疑問には思わずそのままやってました

ありがとうございました

471 :名無しさん@お腹いっぱい。:2022/09/14(水) 19:47:59.46 ID:04dwwjD+.net
すごいスピードで知識が上書きされてく世界だから
もしかしたら間違ってるかも知れないことでも、そのことを断って書けばええんや
仮に間違ってたら知ってる人が訂正してくれたり、興味がある人が検証してくれる
そういう姿勢で臨んだ方がみんなの知識のレベルは上がる

知識が固定してたり、停滞してるジャンルとは違う発想を持たないと

472 :名無しさん@お腹いっぱい。:2022/09/14(水) 19:52:01.67 ID:WtU7t32O.net
>>197
私もminiconda環境だったのでこれすごい助かった。

hlky版の--optimized-turboみたいなのどうやるのかと思ったが
shared.py参考に--opt-split-attention付ける感じにした。
あとwebui-user.batに
call C:\ProgramData\miniconda3\Scripts\activate.bat "auto1111"
を追加するとダブルクリックだけで起動できるね。

473 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:00:11.37 ID:9+1duJsR.net
>>429
ありがとうございます
ひとまず数が一番大きいので試してみます

474 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:00:41.18 ID:ojC+NXoL.net
>>197は参考にしない方が良いよ・・・
本来はwebui-user.batでPYTHONパスを指定していればそれだけで解決するはずだったものと思う

475 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:03:41.81 ID:HlPwHtrB.net
>>474
conda環境なんだからcreateして分けるのが普通だよ

そもそもminicondaいらねってならともかくhlkyがminiconda前提なんだからしょうがない

476 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:05:40.97 ID:ojC+NXoL.net
>>475
1111版はvenv使ってるからcondaと二重に管理されてることになってるのよ

477 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:10:57.39 ID:HlPwHtrB.net
>>476
まあ今はそうなっていて、Baseのままでも動くとは思うけど、わざわざ切らずにBaseに入れる理由がない
元々はvenvなかったしね

478 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:20:48.95 ID:82aFI8/C.net
1111版にlinux用のインストーラが付いたけど、READMEのmanual installのセクションは特に変わってないから今まで通りのインストールでええかな……

ちゅーか、通常の更新時はgit pullするだけで大丈夫よね?

479 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:26:32.65 ID:wgHSpbpB.net
よく見るとmanual installが微妙に変わってたり
requirments.txtの中身変わってることあるから油断できない
テキトーに更新したらtxt2imgは動くけどimg2imgだけエラーになったこともある

480 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:28:01.35 ID:tWBKSZJb.net
condaとvenvの両用は想定されてないからやめとけってだけでは
というかcondaでも手動でインストールすればpython3.9で動くので、>>197は何かしら入れ忘れていると思われる

481 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:28:56.13 ID:JvjZUPik.net
割と半日単位で新しい情報でてくるからついていけるだろうか君のいない世界のスピードに(やる夫AA)みたいな状態になること多い

482 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:31:48.40 ID:+lxu3qHH.net
>>197のやり方はシンプルなんだし、
気に入らなきゃcondaの環境消せばいいんだし。

483 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:33:10.48 ID:82aFI8/C.net
>>479
直近だとBLIPが追加されたときかな……

484 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:34:50.23 ID:ojC+NXoL.net
初回起動時にpython -m venvの1行を実行するためだけにconda環境切ってるのが無駄に感じるんだよね
2回目の起動からは結局conda環境無視してvenv/Scripts/python.exe使うわけだし

1111版のPythonのバージョンで動かないケースは典型的には2系の古いPythonが立ち上がってvenvが無いというエラー。
なら set PYTHON=C:\Users\XXX\miniconda3\python.exe って書くだけで万事解決させた方がスマートな気がするんだよね

485 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:35:35.95 ID:+/8TcnvG.net
>>478
オートインストールと合わせるためにSD本体の下にwebui入れる構成からwebuiの中にSD本体入れるようにした
っていう割ととんでもない変更が書かれてるけど
それ既に対応してるならgit pullでいいのでは

486 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:35:50.54 ID:82aFI8/C.net
まあ、コンテナ作っちゃえば無問題なのよ

487 :名無しさん@お腹いっぱい。:2022/09/14(水) 20:49:04.32 ID:9B+MqbTl.net
mimicのこれもう見た?
つーかSDローカルとかimg2imgとかWaifuとかやってんのに
今更mimicって感じだけど
何周も遅れてるよね日本のTwitterって

https://twitter.com/illustmimic/status/1569986787547975682?s=46&t=YgjXBChBpV1cGv5Lc5uUzQ
(deleted an unsolicited ad)

488 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>487
大多数は褒めてるが規制が強すぎて使われないサービスになる
透かしもAIで消せる
全員で足引っ張って海外に遅れを取ってサービス終了

489 :名無しさん@お腹いっぱい。:2022/09/14(水) 21:07:06.02 ID:2WsC6UCI.net
>>487
規制関係なくサービス自体できることがなく、使いようがないからどうでもいい
文句行った奴らは責任もって使えよ、って感じだが、まあスレチ

490 :名無しさん@お腹いっぱい。:2022/09/14(水) 21:28:44.08 ID:I61YbTdQ.net
mimicってこのスレでいいのかな?
絵描きじゃないとダメ、か・・それじゃ商売にならないと思うが
描ける人は顔だけとか自分で描いた方が早いでしょうに

491 :名無しさん@お腹いっぱい。:2022/09/14(水) 21:36:04.67 ID:ULzTXZsf.net
規制がどうとか規約がどうとかはスレチに決まってるだろ

492 :名無しさん@お腹いっぱい。:2022/09/14(水) 21:38:26.31 ID:GhNhAF5e.net
SD1.5って、どの辺が賢くなってるのかな。
どうも指やら手やらはまだ無理っぽいが。
顔が増えるのは何とかなってるのかな…

493 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
mimicは技術内容でもないし↓だろ
ttps://mevius.5ch.net/test/read.cgi/illustrator/1662093183/

次スレでは最低でもワッチョイありにしてほしいわ

494 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ColabでノーマルSD動かして、生成した画像をGoogleドライブに保存してるんだけど、
その時にGoogleドライブ上のファイル詳細の「説明」部分にプロンプトを入れて一緒に保存しておきたい
Colab上の記述でこの「説明」に書き込む方法とかわかる人いる?

495 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ワッチョイあると失速するからやだ

496 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
それIPアドレス変えてるやつがスレ伸ばしてるということだぞ

497 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>494
メタデータ保存するところで'EXIF:ImageDescription'かな?の行を追加すればいい
場所は前スレにあったはず
ただし'EXIF:ImageDescription'じゃないかもしれない。その場合はexiftoolでメタデータ書き込まれてる画像を開いてみれば名前分かると思う
あと日本語プロンプトは文字化けするかも。explorerの仕様がおかしかった気がする(win7の頃はおかしかった。今はしらない)

498 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
開発者
「手の問題は難しい。それは1.5でも全くと言っていいほど解決されていない。
なぜなら漫画やアニメや映画に登場するようなキャラクター達の3本や4本指の手を人間の手と同じ様に捉えている。
『人間の手』を作るのであれば、そういった画像を全てデータから消す必要がある。
また、親指や人差し指、中指といった、手の中でも指が独立して動くという概念の学習が完璧に行えていない。
手という人体の中でも屈指の複雑な動きを行える部位について、AIが自ら完璧に描画出来る将来がいつになるかは未定だ」

499 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
4chでNFSW特化モデルの開発始まってた

500 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
Stable Diffusionで動画を作るDeforum Stable Diffusionのlocal版を動かしてみた。
使い方がまだよくわからんので、とりあえずexample実行してみただけだが。
https://i.imgur.com/sFVz7UG.mp4

https://github.com/HelixNGC7293/DeforumStableDiffusionLocal

501 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
https://twitter.com/kohya_ss/status/1569540208391245824
Textual Inversionって設定練れば結構良い所までいけるのか?
あんま興味持ってなかったけど面白そう
(deleted an unsolicited ad)

502 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:24:28.78 ID:+/8TcnvG.net
ツイート見てて「waifuにmarisa_kirisameって入れてもまともに出てこない!text encoderがうまく解釈できてないのだ!(ドヤァ」ってのがあったが
kirisame_marisaなんだよなdanbooru式は
みんなも気をつけなよ

>>501
そのツイートの通り、学習させたいものだけをピュアに渡すと成功しやすい印象
背景がくっついてきてたり、あれもこれもと欲張ると謎の概念ができあがる

503 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:24:30.22 ID:GhNhAF5e.net
3dのモデルデータ使ってポーズ集学習させたら、アシュラマンは回避できるようになるかな。
ついでにこのポーズ取れってpromptで強めに言えるようになるし。

504 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:26:05.95 ID:GhNhAF5e.net
kawaiiの破壊力はなんなんだろうか。
waifuならこれ突っ込んでおけば問答無用で目が大きくなる。

505 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:31:03.36 ID:5Ra3qY/o.net
>>497
ありがとう
exifってエクスプローラのプロパティから詳細開いたら見られるやつのことで合ってる?
Googleドライブの「説明」に何か書き込んだやつをDLして、エクスプローラ上でプロパティ開いても、書いてた「説明」はそこに反映されてなかったわ
逆に、エクスプローラ上のプロパティの「コメント」に何か書き込んだやつをGoogleドライブにアップしても「説明」には反映されてない(再度DLしたらプロパティの「コメント」には残ってた)
Googleドライブのファイルの「説明」はEXIFとは別枠のデータな気がしてきた

でもとりあえずどこかにプロンプト保存できればいいわけだから、EXIFとかに書き込むのは参考にできそう
1111版とかは使ってないからメタデータ何も書き込んだりしてない状態だけど、何か試してみるわ

506 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:33:53.48 ID:GhNhAF5e.net
>>505
Googleドライブの説明はドライブのファイルidに紐付いた別データでファイルとは別の場所に入ってるから落としたら見えないよ。

507 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:38:03.49 ID:5Ra3qY/o.net
>>506
ありがとう、そもそも画像自体についてるデータじゃなくてGoogleドライブ上限定のデータってことか
とりあえずGoogleドライブから落とさない前提として、その説明部分にColabから書き込むことってできるのかな
さっきからググってみてはいるんだけどうまく探せない

508 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:38:14.37 ID:GhNhAF5e.net
prompt保存はPNGメタとか色々と試したけど、結局はpromptのMD5のハッシュとって、それを画像とprompt保存したtextファイルに保存が1番楽だった。
同じpromptで作成した画像はハッシュで簡単にフィルタリング出来るし。txtの中に書いてあるから確認も楽だし。

509 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:39:15.52 ID:fE8Fzlyh.net
質問です
ここ( https://huggingface.co/sd-concepts-library )のColab使って学習させてるんですが、
Train!に
safety_checker=StableDiffusionSafetyChecker.from_pretrained("CompVis/stable-diffusion-safety-checker"), という文があるため
学習データに肌色や血の表現が多いと学習がうまくいかないとかありますか?

文自体をコメントアウトし検証できるかと思いましたが、コメントアウトすると次のaccelerateで学習(3000step)したあとの処理でエラーが発生します。

510 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:39:17.26 ID:ojC+NXoL.net
>>494 SDと同時に動かしてないけどColabからこれで更新できたのは確認
from pydrive.auth import GoogleAuth
from pydrive.drive import GoogleDrive
from google.colab import auth
from oauth2client.client import GoogleCredentials

auth.authenticate_user()
gauth = GoogleAuth()
gauth.credentials = GoogleCredentials.get_application_default()
g_drive = GoogleDrive(gauth)

file = g_drive.ListFile({'q': 'title = "XXXXXXXX.png"'}).GetList()[0]
file['description'] = 'prompt prompt prompt'
file.Upload()

511 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:39:40.19 ID:GhNhAF5e.net
>>507
colabじゃなくてGASではできるんで、APIは持ってると思ってるけど、ファイル名じゃなくてファイルidがいるんだよあ…
colabからfile id見えるのかな?

512 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:40:40.38 ID:GhNhAF5e.net
>>510
おお素晴らしい

513 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>509
それ学習した具合を見るときのサンプル作成時にフィルタかかってるだけじゃない?
途中経過のサンプル見れない可能性があってもいいなら何もしなくていいよ

どうしても外したいにしてもコメントアウトしただけじゃダメでバイパスしなきゃいけない

514 :名無しさん@お腹いっぱい。:2022/09/14(水) 22:59:04.02 ID:5Ra3qY/o.net
>>510
ありがとう!!
こういうの自分で組めるようになりたいわ

このまま実行してみたら、file=g_drive.ListFile~の行で、
「auth.py」の「LoadClientConfigFile(self,client_config_file」で「client_secrets.json」が無いってエラー出ちゃった
何かimportできてないとかなのかな…?
わからんけど希望は見えた気がする

>>511もありがとうね

515 :名無しさん@お腹いっぱい。:2022/09/14(水) 23:12:29.02 ID:ojC+NXoL.net
>>514
実行すると途中でGoogleアカウント認証の画面が出てくるはずだけどそれが上手くいかなかった時のエラーのようだね

ちなみにこのあたり参考にガチャガチャやったよ
https://qiita.com/Hyperion13fleet/items/14a4f9ff1a41a3ab0301
https://note.nkmk.me/python-pydrive-folder/

516 :名無しさん@お腹いっぱい。:2022/09/14(水) 23:47:00.73 ID:9mENp48J.net
>>487
一応試したいことがあったんだけど作り上げる前にサービス停止されて拍子抜け

517 :名無しさん@お腹いっぱい。:2022/09/14(水) 23:47:15.73 ID:1DGQ90Zl.net
25%高速化させる方法が提案されたらしい

Making stable diffusion 25% faster using TensorRT
https://www.photoroom.com/tech/stable-diffusion-25-percent-faster-and-save-seconds/

518 :名無しさん@お腹いっぱい。:2022/09/15(木) 00:02:19.30 ID:vsPNjS97.net
>>515
Googleアカウント認証画面は出てきたし、許可を押したはずなんだけど、なんかうまいこといかなかったのか
色々ググってGoogleCloudのAPIの認証情報を作成してjsonファイルをダウンロードしたりもしてみたけど、それを無理やりリネームしてカレントディレクトリに置いてみてもなんか認証エラーが出る…
明日また試してみるわ

519 :名無しさん@お腹いっぱい。:2022/09/15(木) 00:18:48.86 ID:hhrVNXxj.net
25%高速化とかオンボログラボでも問題ないレベルになりそう

520 :名無しさん@お腹いっぱい。:2022/09/15(木) 00:20:48.08 ID:NEt3tqB9.net
Tensorコアに合わせて最適化してくれるnvidiaのツールキット使うって話だから
恩恵受けるのは20xx以降では

521 :名無しさん@お腹いっぱい。:2022/09/15(木) 00:25:10.77 ID:6Av+Kijs.net
なんか8月末に言ってたより予定ゆっくりじゃない?

522 :名無しさん@お腹いっぱい。:2022/09/15(木) 01:01:56.26 ID:QTHdFms5.net
v1.5は完成してるはずなのになぜ配布されないんだ?

523 :名無しさん@お腹いっぱい。:2022/09/15(木) 01:10:19.05 ID:g5lMTqhL.net
完成後1~2週間ぐらいデバックしたりする言ってたやん

>>499
これ試して見たけどまだ今段階だと中学生の落書き以下みたいなクオリティにしかならないので学習進むまで様子見やね

524 :名無しさん@お腹いっぱい。:2022/09/15(木) 01:32:11.29 ID:9mBTaPVe.net
ttps://twitter.com/EMostaque/status/1567744932625915912
1.5は9月25日説
(deleted an unsolicited ad)

525 :名無しさん@お腹いっぱい。:2022/09/15(木) 02:11:36.68 ID:QB8eY+Zm.net
もう素材フルAI生成のエロゲ開発始まってるみたいだな
SD公開から展開速すぎて凄い

526 :名無しさん@お腹いっぱい。:2022/09/15(木) 02:26:58.97 ID:I4J75l0v.net
シーンごとに相手が変わるエロゲかな
同じ人物のポーズや服変えてくの難しすぎる

527 :名無しさん@お腹いっぱい。:2022/09/15(木) 02:42:41.00 ID:C+I93d5r.net
キャラはTexutual inversionで出すんじゃないかなぁ

528 :名無しさん@お腹いっぱい。:2022/09/15(木) 02:52:43.45 ID:XPuhpCPR.net
外に射精すの選択肢選んだら女の子にちんちん生えたりしそう

529 :名無しさん@お腹いっぱい。:2022/09/15(木) 04:07:11.12 ID:I4J75l0v.net
doll ←これを状況に応じてネガティブもしくはプロンプトに入れるのもいいな。どうやってもCGっぽいのがネガティブで消せた

現実的に考えると顔アップでキャラ作って、img2imgで表情バリエーション用意し
実写挿入写真とかのimg2imgでポーズ調えて、フォトショで顔をコピペする感じかな
SDへのこだわりある程度捨てないと作業量増えたり、別人どころか化け物になる

530 :名無しさん@お腹いっぱい。:2022/09/15(木) 06:40:52.39 ID:IEe6NApw.net
>>522,523
https://signal.diamond.jp/articles/-/1407
> 私は「無料のものなど何もない」と考えています。
(中略)
> 私たちはすべてをオープンソース化しますが、最新版はまずAPI経由で提供します。
> 8月31日にAPI経由で(クローズドに)提供開始したバージョン1.5は前バージョンよりも優れています。
> それを数週間後に世界に向けてリリースするのです。今後もこのようにして改善を繰り返していきます。

有料サービスとオープンソースの差異化じゃないかな

後、Discordで開発者達にプレッシャーを与えないように調整していると言ってたから、
日本語版とか追加学習モデルを作ってるパートーナーに先行提供して開発期間を確保してる、
とかもひょっとしてあるのかも

531 :名無しさん@お腹いっぱい。:2022/09/15(木) 06:59:36.18 ID:KBGJsFLQ.net
waifuまだまだ奥が深いわ
使い方が分かってきたらさらにいい絵を引きの構図でも出せるようになってきた
もう大半の人間の絵師はキャラ絵でも敵わんわ

532 :名無しさん@お腹いっぱい。:2022/09/15(木) 09:52:07.62 ID:XBL1xLID.net
>>531
いや、まだAIで作ったキャラクターをAIで再現しなおかつそのキャラクターに剣を持たせて戦う構図とかは書けないから絵師の仕事は無くならんやろ 一発書いて終わりの仕事は知らんが

533 :名無しさん@お腹いっぱい。:2022/09/15(木) 09:56:18.31 ID:8bjJN7C4.net
同じキャラや舞台なんかの引き継ぎ生成が出来ないから、今のところはまだまだ使い捨ての画像生成に限られるのがネックかな。

534 :名無しさん@お腹いっぱい。:2022/09/15(木) 09:56:48.86 ID:KBGJsFLQ.net
それは単にそういう用途に特化したAIが研究されてないだけの話で
差し替えとかコラの類は本来AIが物凄く得意としている分野だよ
動画で特定の人物だけ別人に差し替えとか服装チェンジとか簡単に出来るんだから

535 :名無しさん@お腹いっぱい。:2022/09/15(木) 10:02:22.85 ID:C3UwT8/L.net
ガチャって言われるようにわざとランダム性を持たせてるから
同じ服、髪型のキャラを違う角度で描いてくれ、というのに弱い。

536 :名無しさん@お腹いっぱい。:2022/09/15(木) 10:14:45.13 ID:XBL1xLID.net
>>534
まだ出来てもないAIの話だして絵師は敵わない言われてもなあ
その得意分野とか言ってるAI出来てから絵師はオワコンとか言おうや

537 :名無しさん@お腹いっぱい。:2022/09/15(木) 10:32:17.59 ID:8bjJN7C4.net
人間は五本指に決まってるだろう! と学習させようとするとコストが跳ね上がっちゃうのね……
1.5ではせめて顔崩れが無くなってることを祈ろう。

538 :名無しさん@お腹いっぱい。:2022/09/15(木) 11:20:46.32 ID:Lv7m9E+b.net
思ったより大したことないね
手はマトモに描けないし、ポーズは同じようなのばっかり
今後に期待

539 :名無しさん@お腹いっぱい。:2022/09/15(木) 11:25:03.82 ID:MIH0nyTw.net
何より思った通りのポーズや構図にならないのが痛い
やっぱ当分の間おもちゃだわ
i2iでも難しい

540 :名無しさん@お腹いっぱい。:2022/09/15(木) 11:32:27.15 ID:8LqRVU00.net
使えるところから使えばOK...なのだが、今回の件は人類の探究心を必要以上に刺激してしまった

541 :名無しさん@お腹いっぱい。:2022/09/15(木) 11:35:39.71 ID:8bjJN7C4.net
まあ、これからだよ。
肝心のdiffuserだってver1にもなってないんだから。
今はプラグインがポコポコ出来てるので、全部SDってやるんじゃなくて要所要所でSDが仕事してる感じになると思うよ。
3Dだって大昔のPOV-RAYなんかも同じ感じだった。

542 :名無しさん@お腹いっぱい。:2022/09/15(木) 11:41:02.36 ID:cbCsXzv+.net
アニメとかゲームっぽい人間を描かせようとするとwaifuでもなかなか難しいけど風景とか物を描かせると綺麗だし面白い発想の物が出て来たりする
というか多分そっちが想定された主な使い方だよね
人間も顔ドアップなら同人ゲームの顔グラとかには使えそうなのがたまに描けるし悪くない

543 :名無しさん@お腹いっぱい。:2022/09/15(木) 12:02:37.00 ID:orG2PjJM.net
特定の絵柄、特定のキャラを保持したままは難しい
とはいえできてる人もいるので謎

544 :名無しさん@お腹いっぱい。:2022/09/15(木) 12:27:34.62 ID:6NzGzMxl.net
スペルミスによりうまく伝わらなかったプロンプトで綺麗な画像が生まれるとちょっと悔しいです

545 :名無しさん@お腹いっぱい。:2022/09/15(木) 12:45:37.75 ID:19DcYz0g.net
連続性って点だと3Dモデルの自動生成に期待したい
各部位をパーツごとに生成してくれればという前提条件付きだけどカメラアングル決めてパーツ並べる→既存のimg2imgにぶっこんで整えて貰う手法が取れる

546 :名無しさん@お腹いっぱい。:2022/09/15(木) 12:45:51.91 ID:dd99ALQk.net
画像合成って元々こういう感じだからね

https://i.gzn.jp/img/2021/01/06/openai-dall-e/03.png

547 :名無しさん@お腹いっぱい。:2022/09/15(木) 12:50:36.15 ID:RoCrGH8l.net
80.lv/articles/a-new-gan-based-system-for-interactive-3d-face-editing/
画像から3Dモデルを作って、髪型、表情、メガネ、服などを編集できる

まあそういうAIをあるよな、と思ったらソースコードも公開されてる

https://github.com/MrTornado24/IDE-3D

動作環境とか書いてないけどコンシューマ用のGeforceでも動くもんなのかな?

548 :名無しさん@お腹いっぱい。:2022/09/15(木) 12:56:26.85 ID:hy88/bHT.net
txt2imgとimg2imgを使うなどしてキャラクターデザインを作り、背景と人物を描いた別の絵の
人間のところにそのキャラクターをポーズを合わせてはめ込むなんかは今でもすぐできそうよね

牛乳を注ぐ女の代わりに初音ミクが牛乳を注いでるみたいなの

Stable Diffusionでもうまくやればできそう?

549 :名無しさん@お腹いっぱい。:2022/09/15(木) 13:05:45.79 ID:19DcYz0g.net
>>529
そのワードwaifuで入れてたけど韓国の整形顔が人形判定されてるのかたまに貫通してきたからネガティブに追加でKorean_faceって入れてる

550 :名無しさん@お腹いっぱい。:2022/09/15(木) 13:23:02.46 ID:MIH0nyTw.net
デザイナーが困っている時に適当にAIからアイデア拝借ってのは普通にありそう

551 :名無しさん@お腹いっぱい。:2022/09/15(木) 13:37:59.98 ID:5H6zgX2u.net
Stable Diffusion webUIをローカルで使っててRealESRGANも入れたのですが、--tileのオプションてUI上から設定できますか?

552 :名無しさん@お腹いっぱい。:2022/09/15(木) 13:40:33.94 ID:I4J75l0v.net
>>547
うちの環境だとenvironment.ymlにある依存関係解決できなくてインストールできないな
environment.yml編集して
ninja>=1.10.2
pillow=9.2.0
imageio>=2.13.5
でインストール始まった(終わってないから動作は試せてない)

553 :名無しさん@お腹いっぱい。:2022/09/15(木) 14:24:13.05 ID:RoCrGH8l.net
>>552
ありがとう。同じエラーで一旦それで解消しました。
けど、pytorch3dが0.0.1がインストールされてエラーになりますね。
少し調べると解決方法はありそうですが、一旦中断

話変わって
Stable Diffusion Conceptualizer というtextual inversionのギャラリーみたいなものが公開されてますね。

https://huggingface.co/spaces/sd-concepts-library/stable-diffusion-conceptualizer

texual inversionのembeddingがたくさん公開されていて、例えば<poolrooms>というプール背景なら
a girl standing in the <poolrooms>

とかのプロンプトでそれを使った絵が作成されます。

ローカル版でもオンラインのtexutual inversionをブラウズして使う、とか誰か作りそう

554 :名無しさん@お腹いっぱい。:2022/09/15(木) 14:30:45.35 ID:S1OKJhyi.net
>>513

ありがとうございます!

555 :名無しさん@お腹いっぱい。:2022/09/15(木) 14:48:05.26 ID:ZOj5KzAv.net
>>550
>>1
> イラストのアイデア出しはもちろん
みんなそういう使い方するだろうって想定はされてた、人間の思考ってすぐ手癖に陥るからねぇ

556 :名無しさん@お腹いっぱい。:2022/09/15(木) 15:22:03.90 ID:OuxjBt7Q.net
新しいアウトペインティングツールが出たみたい
ぱっと見精度はまずまずってところか
https://www.reddit.com/r/StableDiffusion/comments/xelydv/stablediffusioninfinity_outpainting_with

557 :名無しさん@お腹いっぱい。:2022/09/15(木) 15:46:51.11 ID:46aVkrGi.net
>>548
AI自体の仕様の問題として顔や手を正確に認識できずぐちゃぐちゃになるから、そう簡単にはできない
おそらく数千枚ガチャ回して微妙にいい感じかな?ってのが出るぐらいだろう

558 :名無しさん@お腹いっぱい。:2022/09/15(木) 16:30:24.18 ID:hy88/bHT.net
>>546
いいねー。アイデア出しのパートナーとして理想的な使い方

559 :名無しさん@お腹いっぱい。:2022/09/15(木) 16:36:02.91 ID:hy88/bHT.net
>>557
手の問題はStable Diffusionだと次バージョンでも厳しいってインタビューで言ってたね
ディープフェイクの映像は顔だけ差し替えるからうまくいくんだろうな
今は無理でも原理的に解決できない問題ではないだろうからそのうち克服されるといいな

560 :名無しさん@お腹いっぱい。:2022/09/15(木) 16:37:41.94 ID:jpNwDX9Z.net
2021/1/6の画像だけどね・・
https://gigazine.net/news/20210106-openai-dall-e/
スレタイからすら消えちゃったDALLEさん
2のサービスまだ金払ってる人いるのかなぁ、今後どうするんだろう

561 :名無しさん@お腹いっぱい。:2022/09/15(木) 16:53:06.11 ID:8bjJN7C4.net
学習深度のコスト問題がネックになってるから、この辺は時間の問題で解決するんじゃないかなあ。
ネガティブプロンプトみたいに、サブプロンプトで人体とかやったら人体構造の学習を呼び出してきて意地でもクリーチャー化を避けるみたいな

562 :名無しさん@お腹いっぱい。:2022/09/15(木) 17:09:40.19 ID:ls8A43Pc.net
背景画を作ってるけど、stablediffusionは絵的にちょっと単調かな
midjourneyのような絵画的表現が強くなってくれないかな

563 :名無しさん@お腹いっぱい。:2022/09/15(木) 17:17:04.37 ID:8bjJN7C4.net
風景画書いてもらってると、なぜかやたらと文字を入れたがったり映画のポスターみたいに顔を空に浮かべたがったりする時があるんだよな。
非現実系はとくにその傾向強いけど、やっぱりポスターとかそういうのを学習してるからだろうか。

564 :名無しさん@お腹いっぱい。:2022/09/15(木) 17:20:51.44 ID:RoCrGH8l.net
Midjourneyはどういう仕組みなのか何も公開してないんだよね(多分)
汎用AI画像生成というより、Midjourneyという作家として今後も活躍するのかもしれないなw

>>563
ラクダを学習すると背景は砂漠に、牛を学習すると背景は草原に

みたいな感じで概念が混線してんだろうね
特にイラストの学習は不完全ってことだろうな。まあ元データに文字入りのものが入ってる時点で雑にも程があるって感じだけど

565 :名無しさん@お腹いっぱい。:2022/09/15(木) 17:21:17.46 ID:jpNwDX9Z.net
SDが単調じゃなく、MJのデフォが--s 2500で勝手に色が付けられてる
具体的に何やってるかは知らんけど、初期出力4枚のうち必ずぶっとんだのが混じるようにして
単純な指定で初心者に早々にガッカリさせず、fastでガチャを回させるのに誘導するうまい商用サービス
もしかしたらdiscord上でガチャ回されてるような他人の有用コードをこっそり混ぜ込んでるまである
指定はできても、指定しなければ結果からはseed見えないしね

dalle2はそこら考えずに生のままお出ししてきたので、簡単操作ではいい絵が出てこず、初心者にすぐ飽きられた

566 :名無しさん@お腹いっぱい。:2022/09/15(木) 17:42:42.11 ID:I4J75l0v.net
>>562
こういうのって主観の問題だから分からないけど
MJ的にしたければ直球で midjourney, fantasy 指定すればいいんじゃない?
https://i.imgur.com/VHzRz3T.jpg
https://i.imgur.com/p2Me3jH.png

567 :名無しさん@お腹いっぱい。:2022/09/15(木) 18:25:16.19 ID:LQTVMIbe.net
適当なTIの学習済みデータを入れてみたけど絵柄のコピーの精度がかなり高くて驚く
構図は固定されちゃうけど背景とか服装に関する指示は割と通るな
https://huggingface.co/sd-concepts-library/hitokomoru-style
https://i.imgur.com/di1arlh.png
https://i.imgur.com/HXmSpps.png

568 :名無しさん@お腹いっぱい。:2022/09/15(木) 18:27:06.10 ID:orG2PjJM.net
SDはモデル色々あるし選択肢はかなり広い

569 :名無しさん@お腹いっぱい。:2022/09/15(木) 18:30:34.39 ID:8bjJN7C4.net
構図だけの学習と絵柄だけの学習をマージしたら、案外現状でもサクッと期待値満たしそうな雰囲気あるな

570 :名無しさん@お腹いっぱい。:2022/09/15(木) 18:34:10.96 ID:orG2PjJM.net
技術難度と話題の少なさからTIとdreamboothは騒がれてないけど
なんかの折で認識広がってmimicみたく燃えるってことにならないといいけど

あとアニメ系TI学習失敗しっぱなしなのでノウハウ欲しい

571 :名無しさん@お腹いっぱい。:2022/09/15(木) 18:52:57.95 ID:ZyZW1HNo.net
mimicが燃えた理由が正にその難度の低さと日本語でわかりやすい且つ簡単に人の絵柄をコピーできるって話題性だったからなあ
そのレベルのWEB上サービスが出てこない限りは騒がれることはないでしょ
twitterにいるのはただでさえ若い女性とか子供ばっかりだし

572 :名無しさん@お腹いっぱい。:2022/09/15(木) 18:54:52.76 ID:8bjJN7C4.net
Webアプリにさえしなけりゃ、日本ではほとんど炎上しない気がするw

573 :名無しさん@お腹いっぱい。:2022/09/15(木) 19:13:27.03 ID:RoCrGH8l.net
○ストーリーDALLE-E
https://github.com/adymaharana/storydalle
※事前学習モデルと生成の方法は近日公開予定

・最近特定のテキストから画像生成は可能となったが、これらのモデルは、ストーリーの視覚化などには適していない。
・したがって、ストーリーの継続のタスクを提案する。
 このタスクでは、生成された視覚的なストーリーがソース画像に基づいて調整され、新しいキャラクターによる物語へのより良い一般化が可能になる。
(中略)
・事前トレーニング済みのテキストから画像への合成モデルを、ストーリーの継続などの複雑でリソースの少ないタスクに適応できる
 しかし、事前学習モデルは、複数のキャラクターを含む物語を理解するのに苦労している

---
ストーリー生成とまでは期待しないけど、とりあえず同じキャラクターを継続的に登場させることはできるのかな?
Geforceで動くようなものじゃないかもだけど、StablityAIがGeforceで動くバージョンを作ってくれることに期待。


>>570-572
重要な話だけど、こっちの話題かな
https://mevius.5ch.net/test/read.cgi/cg/1663123507/

574 :名無しさん@お腹いっぱい。:2022/09/15(木) 19:22:06.41 ID:5L5obeAR.net
>>573
キャラクターが一人なら、破綻なく連作絵を吐けるかもみたいな試みが上手くいきつつある感じか

575 :名無しさん@お腹いっぱい。:2022/09/15(木) 19:45:11.31 ID:JtpHWLcG.net
>>573
ストーリの視覚化か。すごいな。
複数のキャラの認識を引き継げるようにしたいけど、流石に厳しいのね。

しかし、進捗早えなあ。
まだほんの2ヶ月も経ってないのに。

576 :名無しさん@お腹いっぱい。:2022/09/15(木) 19:49:00.57 ID:QB8eY+Zm.net
>>566
プロンプトにmidjourneyは意味ないでしょ
時期的に考えて学習データにはmidjourneyの絵が存在しないだろうし

577 :名無しさん@お腹いっぱい。:2022/09/15(木) 19:54:03.36 ID:jpNwDX9Z.net
MJプロンプトはまだまだ先の話だね
deviantARTのトップ絵がMJ作品だらけで、いつかウロボロスになるって話題が面白かった
https://gigazine.net/news/20220914-online-art-communities-banning-ai-images/
https://pbs.twimg.com/media/FcAYlx4XwAAJpJB.jpg

578 :名無しさん@お腹いっぱい。:2022/09/15(木) 20:02:48.88 ID:QB8eY+Zm.net
pixivもいずれそうなるかもな
しかしAIがAIの絵を学習し続けると収束するのか発散するのかは気になるな

579 :名無しさん@お腹いっぱい。:2022/09/15(木) 20:04:05.83 ID:JtpHWLcG.net
image2imageで2つの絵を似たような感じに寄せていくってのは結構有効だけど、試行回数が半端なくなるな……
画像のキャラと画像のキャラを取り込みつつ、自由な構図ってのはやっぱ随分先なのかな
なんか、今の速さ見てると案外年内にはサクッと出来そうな気もするんだけど

580 :名無しさん@お腹いっぱい。:2022/09/15(木) 20:04:59.60 ID:JtpHWLcG.net
>>578
たぶん、ユーザーのタグによるバイアスで収斂していくだろうから進化の系統樹みたいになるんじゃない?

581 :名無しさん@お腹いっぱい。:2022/09/15(木) 20:12:16.75 ID:7WQc8bGP.net
>>573
ストーリーと言うとキャッチ―に聞こえるけど
結局dreambooth辺りとやってることはそう変わらない気もする

582 :名無しさん@お腹いっぱい。:2022/09/15(木) 20:34:17.92 ID:orG2PjJM.net
AIがAIの成果物学習はAIそれぞれが特性違ったら面白いサイクルにはなりそう
自身が吐いたもの再学習だと一定に収束したあと爆散する

583 :名無しさん@お腹いっぱい。:2022/09/15(木) 20:57:27.26 ID:oiAkKwyP.net
オセロAI作るのに、AI同士戦わせたらルール無用でゲームにならないから強くなることもないってのと同じだぞ
ルールをスコアとして埋め込んで人が望む方向に学習させるからオセロAIは強くなるし
画像生成も人が望む方向にやるから爆散しない
学習データが汚染されてAI生成のゴミ画像だらけになってもそんな質の悪いデータセットは使わないと人やAIに判定させて、人が望む方向にもってく

584 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:12:22.15 ID:NEt3tqB9.net
繰り返すか繰り返さないかって何がトリガーなんだろう
https://i.imgur.com/eCkKgfY.png
https://i.imgur.com/kHsPXoY.png

585 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:19:29.52 ID:jpNwDX9Z.net
>>584
512超えサイズの時に、AIの視野的(?)に顔がちょうど見えなくなった瞬間に
そこに顔っぽい何かを見出して、それをまるで雹が核にするように起点にして製造してしまうっぽい?

586 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:23:40.69 ID:JtpHWLcG.net
人体はクリーチャーになるけど、建築物は騙し絵みたいになるな。
柱が自然に壁とか空に溶け込んでたり、壁が気が付いたら廊下になってたりとか

587 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:41:31.07 ID:96Xq15wK.net
promptで顔パーツにめっちゃ制限かけて、CFG Scaleがっつり上げるとすごいクリーチャー率上がるよねw

588 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:43:14.97 ID:QB8eY+Zm.net
>>584
そのシードで類似度が高かった特徴空間が全身図系かバストアップ系かの違いじゃないの?
プロンプトにthighとか入れとけば腰下から顔が生えるのは減らせるんじゃないかな

589 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:47:11.37 ID:NEt3tqB9.net
>>588
なるほど、バストアップ描こうとして狂ってるのか
構図縛ってやってみるわ

590 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:49:23.71 ID:oiAkKwyP.net
>>584
ネガティブに帽子いれたら顔消えそう
https://i.imgur.com/qPX6oZi.png

591 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:51:23.89 ID:JtpHWLcG.net
胸元とか襟の辺りの曲線を髪の生え際とでも思ってるのか、その下に顔が生えることが多い
あと袖口とか。

592 :名無しさん@お腹いっぱい。:2022/09/15(木) 21:51:46.44 ID:C+I93d5r.net
こんなのあったよ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-scripts-from-users

593 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:33:54.62 ID:9ldkoB5t.net
風景に人を描きたくない場合、
No one's here, て入れたり
ネガティブにhuman, people, て入れてみてるけど微妙

594 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:35:14.92 ID:1TuFS9Ib.net
>>584
なんかこの絵柄そのまんまの人の絵を何処かで見たことがあるような・・・。

595 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:41:01.70 ID:mJZkjAtF.net
>>594
1枚目は甘城なつき
ホロライブのがうるぐらの人

596 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:48:04.95 ID:NEt3tqB9.net
この画像illustrated by greg rutkowskiなんだわ
waifu使った上でネガティブで強力にリアル要素引っこ抜いてるけど

597 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:50:13.41 ID:mJZkjAtF.net
gregさんなんでも描かされすぎやろ・・・wwww

598 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:58:16.10 ID:oiAkKwyP.net
>>593
unmannedは?

599 :名無しさん@お腹いっぱい。:2022/09/15(木) 22:59:13.31 ID:5L5obeAR.net
昨日か一昨日にこのスレで出た
ドラゴンが村を襲う呪文考えたときもそうなんだけど
何やるんでもとりあえず「by ぐれっぐ」やしな。この界隈は

600 :名無しさん@お腹いっぱい。:2022/09/15(木) 23:00:39.87 ID:oiAkKwyP.net
その人の作品も何もかも全く知らないのに名前だけ広まる異様な状況

601 :名無しさん@お腹いっぱい。:2022/09/15(木) 23:05:25.92 ID:JtpHWLcG.net
ほとんど宣言文のノリで使われるグレッグさん。そのうち、!pip install Greg_rutjowski ってなる日も近い。

602 :名無しさん@お腹いっぱい。:2022/09/15(木) 23:08:17.04 ID:QB8eY+Zm.net
AI界のいらすとや

603 :名無しさん@お腹いっぱい。:2022/09/15(木) 23:09:34.52 ID:mJZkjAtF.net
しかもSD産の画像だと画像のメタデータの中にプロンプトテキストが記入されてるからデータとしてgregさんを含んでる画像データが大量に生産されてるという

604 :名無しさん@お腹いっぱい。:2022/09/15(木) 23:36:55.96 ID:O0Upb/nG.net
Stable Diffusion界のHello world「illustrated by greg rutkowski」

605 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:07:14.70 ID:Dz6ZeIFR.net
エロwaifuモデル作ってるの学生さんなんだな。やはり若者がエロにかける情熱は一味違う

606 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:17:29.78 ID:kwnwzZsv.net
>>598
ありがとうごいます
入れてみたけど人が出たり出なかったり
makoto shinkaiが悪さしてるんだと思ってきました

607 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:24:20.96 ID:tklBIHgz.net
>>594
1000人ぐらいいそうな絵柄だ

608 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:36:06.55 ID:zit6cnZH.net
シンプルな絵柄だし日本だけでも10万人はいると思う

609 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:36:58.42 ID:ZdJynPrT.net
イリュージョンさん家にもたくさんいそう

610 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:39:06.03 ID:G+D7wC5p.net
絵柄っていうより、3DCGモデルで作ったアニメ絵みたいな感じ
非常にまねされやすいタイプのCG顔

611 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:44:24.76 ID:ZdJynPrT.net
アニメ系厚塗りは言ってみれば違う人間が描いていても破綻しづらく量産しやすい効率特化の果てに生まれてきたわけだから、まあみんな似通ってくるのは当然といえば当然なわけで。
SDさんも厚塗り放り込んどくと結構安定する

612 :名無しさん@お腹いっぱい。:2022/09/16(金) 00:48:49.20 ID:7AkfYTUK.net
>>368でモンスターが人に化ける原因をprompt matrixで調べてみた。

'd & d character' と 'alphonse mucha' が原因だったよw

https://i.imgur.com/yrdmcYy.jpg

613 :612:[ここ壊れてます] .net
ああ…… 'jeremy mann' と 'artstation' もそこそこ人化の原因になってるか?

614 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
まさに、「どっかにこの絵柄で描いてる人居るよね」を目標にシンプルで維持されやすいテンプレートプロンプトを作ってるところなんで
その評価は狙い通りではある

本日の収穫 schematics(設計図)
十分に強いプロンプトに隠し味的に混ぜると書き込みの線が細くなり全体的に若干フラットになる
弱いプロンプトだと謎の設計図に化ける

無し https://i.imgur.com/rmpTxXr.png
schematics https://i.imgur.com/n17KN55.png

615 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
bold outline入れたくなる

616 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>614
設計図に化ける場合は [schematics] でいけるんじゃね?

617 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
waifuでは線の細い少女小説のヒーロー系イケメンを出すのがかなりムズイ。
ショタに振れるかオヤジに振れるか、体育会系のイカツイ兄ちゃんになってしまう。

618 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
中国のあの画像生成AIなら原神や崩壊3rd食わせまくってるみたいだからイケメンも作りやすいかも

619 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ああ!>>612はtrinart2_step95000を使ってるから、>>368のsd-v1-4やwd-v1-2-full-emaとはまた少し絵の雰囲気が違ってるかも

620 :名無しさん@お腹いっぱい。:2022/09/16(金) 01:28:21.08 ID:G+D7wC5p.net
どっかに画像張られてたけど、waifuで男子を召喚しても非モテ眼鏡男子みたいなのが出てくるだけだしな
男女格差が極大の世界やで

621 :名無しさん@お腹いっぱい。:2022/09/16(金) 01:57:02.67 ID:lucPjt6t.net
>>584
negativeにextra headって入れても意味ない?

622 :名無しさん@お腹いっぱい。:2022/09/16(金) 02:02:41.95 ID:lucPjt6t.net
新機能プロンプト変形
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#prompt-editing

623 :名無しさん@お腹いっぱい。:2022/09/16(金) 02:15:19.99 ID:8CiemT4/.net
stepで変えるのは扱い難しそう。ちょっとずつ変化したバリエーション画像をたくさん生成の方がいいな

624 :名無しさん@お腹いっぱい。:2022/09/16(金) 02:27:53.72 ID:7AkfYTUK.net
prompt editingはどこで実行するんだろう。txt2imgのpromptに a [fantasy:cyberpunk:16] landscape って入れるのは違うようだし。

625 :名無しさん@お腹いっぱい。:2022/09/16(金) 02:39:04.27 ID:8CiemT4/.net
exampleの[fantasy:cyberpunk:16]はミスなんじゃないかな(正しくは小数点?)
プロンプトに[fantasy:cyberpunk:0.16]って書いて、step100で回すと1枚出力される
その1枚を出力する過程で100ステップまわるけど
1から16ステップはfantasy、17~100はcyberpunkって入力されたことにして処理するんじゃない?
試してないから実際は知らない

626 :名無しさん@お腹いっぱい。:2022/09/16(金) 02:48:27.55 ID:Dz6ZeIFR.net
プロンプト変形はアニメーションフレーム作るのに有用そう

627 :名無しさん@お腹いっぱい。:2022/09/16(金) 02:57:49.94 ID:7AkfYTUK.net
わかった!1枚ずつ描けってことだな!
seed値固定して
a [fantasy:cyberpunk:0.0] landscape
https://i.imgur.com/slx6lGB.png
a [fantasy:cyberpunk:0.2] landscape
https://i.imgur.com/Y8W4zBb.png
a [fantasy:cyberpunk:0.2] landscape
https://i.imgur.com/pei57CQ.png
以下略!

628 :627:2022/09/16(金) 02:59:33.00 ID:7AkfYTUK.net
あ、最後のは

a [fantasy:cyberpunk:0.4] landscape

です。

629 :名無しさん@お腹いっぱい。:2022/09/16(金) 03:03:13.34 ID:7AkfYTUK.net
なんか、1.0を指定すると最初の絵に戻っちゃいますね。
a [fantasy:cyberpunk:0.99] landscape
https://imgur.com/di8QZdi

630 :名無しさん@お腹いっぱい。:2022/09/16(金) 03:06:06.57 ID:7AkfYTUK.net
あ、そうか。100ステップだから0から始まったら最後は99なのか。

631 :名無しさん@お腹いっぱい。:2022/09/16(金) 03:09:58.39 ID:7AkfYTUK.net
犬猫ハイブリッド
a portrait of [dog:cat0.5]
https://imgur.com/ULUvFYb.png

632 :名無しさん@お腹いっぱい。:2022/09/16(金) 03:16:35.73 ID:7AkfYTUK.net
プロンプト間違った。
a portrait of [dog:cat:0.99]
https://imgur.com/I32n8yT.png
a portrait of [dog:cat:0.0]
https://imgur.com/7ESeXRB.png
a portrait of [dog:cat:0.2] あたりでちょうど半々に混ざった感じになった。
https://imgur.com/MYvmwj3.png

633 :名無しさん@お腹いっぱい。:2022/09/16(金) 04:53:26.28 ID:18wervgK.net
Emadさんによると新モデルが出るらしいな

634 :名無しさん@お腹いっぱい。:2022/09/16(金) 06:06:00.75 ID:EIpY/OlL.net
先月もう直ぐ出るって言ってたやつ?

635 :名無しさん@お腹いっぱい。:2022/09/16(金) 06:49:34.57 ID:u4tc8Ccp.net
anime modelは結局無かったことになった?

636 :名無しさん@お腹いっぱい。:2022/09/16(金) 07:00:40.63 ID:u4tc8Ccp.net
背景がフォトバッシュと称するただのトレスが当たり前になったみたいに
キャラ絵もAIの絵にちょっと加筆して自作主張するAIバッシュが当たり前になっていくんだろうな
今でもツイッターの有名絵師は背景は写真、CG、キャラ絵は3Dトレスな人が大量にいるし

637 :名無しさん@お腹いっぱい。:2022/09/16(金) 07:15:16.01 ID:eHAlc869.net
自分の絵に組み込みたいんだが現状手ごろなオプションがKrita pulginしかないのがな
クリスタとブラウザでいちいち画像やりとりするとか面倒すぎるし

638 :名無しさん@お腹いっぱい。:2022/09/16(金) 07:27:05.20 ID:X+GbgQ3+.net
もうすぐ出る新しいCLIPで文章の理解の精度が上がるっぽい
https://twitter.com/emostaque/status/1570514379149574144
(deleted an unsolicited ad)

639 :名無しさん@お腹いっぱい。:2022/09/16(金) 07:31:02.99 ID:kwnwzZsv.net
アーティストを複数人入れてて、最後にHokusai入れてるけど
Hokusai感が強すぎ…
ちょっとだけHokusai、というか複数アーティストの比率って決められます?

640 :名無しさん@お腹いっぱい。:2022/09/16(金) 07:32:41.83 ID:7AkfYTUK.net
>>639
1111版なら、xxxx, yyyy, [[hokusai]] とかでいいんじゃない?

641 :名無しさん@お腹いっぱい。:2022/09/16(金) 07:42:16.65 ID:7AkfYTUK.net
>>639
あとは画家2人なら、1111版についたばかりのprompt editingで
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.0]
https://imgur.com/RhkT1e7.png
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.3]
https://imgur.com/tpZ5dQ6.png
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.6]
https://imgur.com/8NA18FG.png
portrait of a pretty girl, [greg rutkowski:alphonse mucha:0.99]
https://imgur.com/ubkbna1.png
とか

642 :名無しさん@お腹いっぱい。:2022/09/16(金) 08:19:17.49 ID:kwnwzZsv.net
>>641
詳しくありがとうございます!
あとでやってみます!

643 :名無しさん@お腹いっぱい。:2022/09/16(金) 08:42:02.58 ID:lALpe0Io.net
>>638
言語―画像に使ってるCLIPが高精度版リリース、は分かるけど、
学習時の精度向上で今後リリースされるモデル2.0とかが良くなるのか、
同梱されてるCLIP更新で現時点のモデル1.4でも画像生成の精度が良くなるのかどっちなのかニワカすぎてわからない

○CLIP Vit-Hリリース
・ViTとは:Vitsion Transformer。それまでの画像認識に多く使われてきたCNNとは違い、Transformerベース。未知の画像(=zero shot)を分類できる。初めてシマウマを見て縞模様の馬の一種と判断するようなこと。
・OpenCLIP(StableDiffusion、DALL-E2に含まれている)のよりよいバージョンがリリースされた。
・L/14=ロスワイトマン氏による学習、H/14,G/14=Romain Beaumnt氏による学習(パラメータ違い)
 (ViT-Gはzero shotではViT-Hより悪いが、学習時間が短く、一部の検索タスクでは非常に上手く機能する)
・一般に利用可能なCLIPはViT L/14 336で、61.6%。今回のViT Hは73.4%で+11.8%もよい

(参考)CLIP以外の方式として最も優れているのは、BASIC、COCA(zero shot 86%程度)

○今後
・CLIPがスケールすることが証明されたので
・多言語で機能するテキストエンコーダーへの変更(multilingual-CLIP等)
・小さいCLIPから大きなCLIPからへの知識抽出による学習時間の短出
・オーディオ(CLAP)

https://github.com/mlfoundations/open_clip
https://laion.ai/blog/large-openclip/

644 :名無しさん@お腹いっぱい。:2022/09/16(金) 08:59:23.57 ID:jOFDJ6xl.net
>>643
CLIPには二種類の役割がある
画像を入力されてそれを特徴分布に分解する機能と
テキストで特徴分布に入出力する機能

StableDiffusionではCLIPを使ってテキストから特徴分布に直してそれを元にdiffusionをかけてるので
精度が良くなるということはプロンプトの理解が良くなるということに等しい

645 :名無しさん@お腹いっぱい。:2022/09/16(金) 09:05:15.05 ID:lALpe0Io.net
>>643
DiscordでEmadさんが答えてた

・新しいCLIP(ViT-H)はV3。プロンプトの理解がより良くなる

Q V3の前にV2はあるの?
A ある。1024ネイティブで2倍の速度になる

Q 今回のCLIPを差し替えるだけでよくなるの?それともモデルの再学習が必要?
A MidjourneyのようにCLIPガイドを使ってないので、再学習が必要

646 :名無しさん@お腹いっぱい。:2022/09/16(金) 09:13:29.26 ID:QU/5L1vL.net
waifu diffusionで作ったミク
https://i.imgur.com/gsH2qCf.jpg

647 :名無しさん@お腹いっぱい。:2022/09/16(金) 09:26:35.32 ID:7AkfYTUK.net
prompt editingの説明をきちんと読んでみたんだが、whenに整数を入れる場合はその数字を1/100した小数を入れた時と同じになるんかね。
a [fantasy:cyberpunk:0] landscape
https://imgur.com/HlMRv7z.png
a [fantasy:cyberpunk:0.99] landscape
https://imgur.com/RbDnbzj.png
a [fantasy:cyberpunk:99] landscape
https://imgur.com/AIK5bfu.png
a [fantasy:cyberpunk:0.24] landscape
https://imgur.com/MxFgThc
a [fantasy:cyberpunk:24] landscape
https://imgur.com/aydopa6.png

1を入れたときに0と同じに見えたのは、実際は0.01を入力したことになってたからか。

648 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ローカル版1111、1070Tiだとアカンやろ……って敬遠してたけど。
512x512なら、1.6it/sくらいは出るんだな。

649 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
waifuは元データが海賊版だから使いません!って騒いでるやついるけど
そもそもSDに大量の転載画像が含まれてることはどうお考えなんだろうか?

AI画像生成を辞めるなら分かるんだが、SDはOKというのは矛盾してね?

650 :647:[ここ壊れてます] .net
実際の処理が小数=>整数なのか整数=>小数なのかは知らんケド。

651 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
んでもステップ数なんだから、小数=>整数なのかな……

652 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>649
スレチ。こっちにレスしたので続きはこちらで
https://mevius.5ch.net/test/read.cgi/cg/1663123507/

653 :名無しさん@お腹いっぱい。:2022/09/16(金) 11:44:30.48 ID:8CiemT4/.net
ざっと見た感じ
整数ならそれを変化するステップ数そのものとして処理
少数ならその値x1回の生成に必要なステップ数を変化するステップ数として処理
だから画像生成が100stepの場合は整数と少数で等しい挙動だけど、それ以外は異なる(場合もある)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/dc769e097c878927fcd222cd855eb794726e922b

654 :名無しさん@お腹いっぱい。:2022/09/16(金) 11:55:29.72 ID:jOFDJ6xl.net
pull requestの例にも示されてるけど
ブロックでできた四角い物体と
ブロックでできた丸い物体は
そもそもとして概念が結構違うので四角いと丸いを入れ替えるとブロックの模様や画角とかも一緒に変わってしまう

それを、ブロックでできた丸い物体を作らせておいて、後半のステップで四角い物体にプロンプトを入れ替えることで
既に作られているブロックの模様とかを引き継いで四角く加工できると

使い方によっては特定のキャラの顔維持とかに使えそうではある

655 :名無しさん@お腹いっぱい。:2022/09/16(金) 12:05:45.92 ID:gP4di/cF.net
textual inversionも似たようなことやってたな

656 :名無しさん@お腹いっぱい。:2022/09/16(金) 12:50:43.87 ID:jg7F6bwY.net
>>653
ああ、このステップ数ってひょっとしてSampling Stepsで設定してる値のことなのか。
俺がたまたま100に設定してたので同じ結果になったんだなぁ……

657 :名無しさん@お腹いっぱい。:2022/09/16(金) 13:07:45.23 ID:tm2hAUgA.net
>>594
AI関係なしに、最近めっちゃ増殖した絵柄w

658 :名無しさん@お腹いっぱい。:2022/09/16(金) 13:18:22.93 ID:GJbifGtd.net
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/544
めちゃくちゃなバグ見つかって草
https://i.imgur.com/d72LhH7.jpg

659 :名無しさん@お腹いっぱい。:2022/09/16(金) 13:37:47.84 ID:JXmAZkJt.net
1111版の最大bachcountの値変更するbatのオプション引数はなんじゃろ

660 :名無しさん@お腹いっぱい。:2022/09/16(金) 13:42:06.35 ID:8CiemT4/.net
ui-config.jsonを編集

661 :名無しさん@お腹いっぱい。:2022/09/16(金) 14:01:55.36 ID:JXmAZkJt.net
>>660
今そっちなんだ、㌧㌧

662 :名無しさん@お腹いっぱい。:2022/09/16(金) 14:45:58.47 ID:lucPjt6t.net
バッチサイズ変えると出力結果も変わっちゃうんだな
もうやらないように1に固定しとこ

663 :名無しさん@お腹いっぱい。:2022/09/16(金) 15:08:49.56 ID:jg7F6bwY.net
>>662
>>250-251情報によると1111版では euler_a の場合だけダメらしいで。

664 :名無しさん@お腹いっぱい。:2022/09/16(金) 15:40:39.09 ID:8CiemT4/.net
prompt editingは動画用途は無理だ
やり方悪いのかもしれないけど動画にできるほどの数のフレーム生成できないな

665 :名無しさん@お腹いっぱい。:2022/09/16(金) 16:11:33.28 ID:lucPjt6t.net
と思ったらもしかして治った?
Make K-diffusion samplers produce same images in a batch as when making a single image
って項目が設定に追加された

666 :名無しさん@お腹いっぱい。:2022/09/16(金) 16:16:46.81 ID:lucPjt6t.net
微妙に治ってなかった…
countを2、sizeも2だと
4枚のうち後半の2枚は違うのが出る

667 :名無しさん@お腹いっぱい。:2022/09/16(金) 16:24:46.64 ID:lucPjt6t.net
そもそもbatch size上げるためにmedvramやらsplit attentionやら有効にした時点で出力が微妙に変わるのか

668 :名無しさん@お腹いっぱい。:2022/09/16(金) 18:51:09.13 ID:LIN+pC0U.net
だからeuler_aでしょ?>>663の通り
ram云々はたぶん関係なかったはず
lmsでやってみてどうなるか

669 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
euler a用で組み立てた呪文だと
他のやつだとかなり出てくる画像の雰囲気が変わっちゃうんだよね。塗りからして違う
主要な何個かのサンプラの中では、突出して違う絵が出てくる

670 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
バッチサイズで増やした2枚目以降のseedは実装に依る
ということは1111が更新されたらパラメータ再現しても同じ画像できなくなる可能性があるんだろう
完全に罠だわ

671 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>667
残念ながら不動小数点演算は計算の順序が変わると結果が変わってしまう
((((a+b)+c)+d)≠((a+b)+(c+d))
普通ならばそれは大きな影響を与えないのだが
拡散モデルの場合には微小な値の差が最終的にはそれなりに大きな影響を与える

672 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
euler大好きマンなんでバッチは使わないことにしてる
良くて1.5~2割スピードアップくらいなんで・・いや使いたいんだけど、はよ治して

673 :名無しさん@お腹いっぱい。:2022/09/16(金) 20:21:44.65 ID:9eAZoGjK.net
微妙な呪文でもeular aにするだけで映えちゃったりするからな。厄介な代物だとわかってるけどつい使ってしまう。

674 :名無しさん@お腹いっぱい。:2022/09/16(金) 23:34:48.41 ID:ATv5OjaU.net
LAIONが進めてるのがCLIP Guided StableDiffusionってヤツか
普通なら備え付けのCLIPのテキストエンコーダーでプロンプトを一回エンコードして流し込んで終わり(後はサンプラーがそこに近付けていくだけ)なのを
逐次どんな画像になってるかをもっと賢いCLIPに見せて注文通りになってるか確認して補正しつつ進めていく方式

学習やり直し無しでプロンプトの理解と反映が向上するけど
waifuみたいな特殊環境への適応は監督役のCLIPも知ってないといけないので怪しそう

675 :名無しさん@お腹いっぱい。:2022/09/17(土) 00:33:54.24 ID:fhummQ7c.net
outpaintingのColabo環境

stablediffusion_infinity_colab.ipynb - Colaboratory
https://colab.research.google.com/github/lkwq007/stablediffusion-infinity/blob/master/stablediffusion_infinity_colab.ipynb

676 :名無しさん@お腹いっぱい。:2022/09/17(土) 00:49:44.60 ID:irljJ+xn.net
それ昨日あたり書き込みあったやつだな
https://github.com/lkwq007/stablediffusion-infinity
ローカルだとトラブルだらけだったけど動かす方法きた
https://github.com/lkwq007/stablediffusion-infinity/issues/12

677 :名無しさん@お腹いっぱい。:2022/09/17(土) 01:24:32.84 ID:TSNOtRCT.net
waifuってdanbooruの学習データが入る分、他の情報が圧迫されてたりするのかな?

678 :名無しさん@お腹いっぱい。:2022/09/17(土) 01:58:03.81 ID:S+9DsKqG.net
これ試してみてほしい

(((intricate human hands fingers))) in positive

((((mutated hands and fingers)))) in negative

https://boards.4channel.org/g/thread/88636024#p88636398

679 :名無しさん@お腹いっぱい。:2022/09/17(土) 02:12:35.46 ID:irljJ+xn.net
うん。まぁわかってた。そううまくはいかないよな・・・
https://i.imgur.com/J3Fveha.jpg

680 :sage:2022/09/17(土) 02:21:33.93 ID:gisD6INd.net
1111のローカル環境更新したら、SD upscaleで黒ずんだ画像が出力されるようになっちった……

681 :名無しさん@お腹いっぱい。:2022/09/17(土) 02:25:17.98 ID:S+9DsKqG.net
>>679
元レス見ればわかると思うけどプロンプトに組み込むものだから…

682 :名無しさん@お腹いっぱい。:2022/09/17(土) 02:31:00.19 ID:9xb+QeLZ.net
>>679
グロ

683 :名無しさん@お腹いっぱい。:2022/09/17(土) 02:38:03.79 ID:TSNOtRCT.net
1111で急に眼がダブってうまくいかないようになったなぁってRestore facesにこっそりチェック入ってやがんの・・

684 :名無しさん@お腹いっぱい。:2022/09/17(土) 02:53:48.01 ID:gisD6INd.net
>>678
結構いけるのかもしれない。
https://imgur.com/JX0LDKN.png

685 :名無しさん@お腹いっぱい。:2022/09/17(土) 03:00:22.31 ID:gisD6INd.net
勝率はそんな高くないけど、時々普通の手が出てくるなw

686 :名無しさん@お腹いっぱい。:2022/09/17(土) 03:06:24.85 ID:gisD6INd.net
40回回してみた結果
https://imgur.com/IGErQUq.png
https://imgur.com/d2ULpkp.png
https://imgur.com/DVNxTdc.png
https://imgur.com/f7xIrPh.png

687 :名無しさん@お腹いっぱい。:2022/09/17(土) 03:32:28.61 ID:temo01D7.net
おかしな形の手を学習しまくって、ネガティブリストではじくっていうのが現実的な解決策なのかもな

688 :名無しさん@お腹いっぱい。:2022/09/17(土) 04:15:32.26 ID:KjrACo7F.net
Emadのおっさん、新しいモデルがスーンスーンといつも言ってるけど、結局何か出てるの?

689 :名無しさん@お腹いっぱい。:2022/09/17(土) 04:20:58.70 ID:VyttaNVF.net
>>686
プロンプトに加えてimg2とか部分的に加筆してガイドを用意したり
部分指定で再出力すれば5本指行けるのでは?
これってプロンプトのみでこの結果だよね?

690 :名無しさん@お腹いっぱい。:2022/09/17(土) 04:34:31.38 ID:5+jy8cuK.net
nekodrawがぶっちゃけあまり期待できなさそうなんだけど
他にクリスタプラグイン開発してる人いないのかな...海外ではマイナーなのか?

691 :名無しさん@お腹いっぱい。:2022/09/17(土) 04:45:54.39 ID:LSAA3btS.net
>>688
soon→もうすぐ(DreamStudioで)β版
β終わって問題なければ→一般公開

692 :名無しさん@お腹いっぱい。:2022/09/17(土) 06:27:28.68 ID:YkJUXC4x.net
>>687

midjourneyでは50%ぐらい進んでいて腕の数多いなぁと思っていたら0%から書き直しになったことある

693 :名無しさん@お腹いっぱい。:2022/09/17(土) 07:38:40.79 ID:FxoRaI6I.net
久し振りにwin版のartroom起動したら、ネガティブプロンプト使えるようになってた
これもう、colabとかでも標準になるんじゃ

694 :名無しさん@お腹いっぱい。:2022/09/17(土) 08:06:39.23 ID:gisD6INd.net
>>689
txt2imgでプロンプト打って、>>678追加しただけよ。

695 :名無しさん@お腹いっぱい。:2022/09/17(土) 09:48:33.36 ID:qZCWMipK.net
何でトークン数の制限がこんなに厳しいんだろ
トークンが多いと上手く入力元の画像ノイズに変換できないのか?

696 :名無しさん@お腹いっぱい。:2022/09/17(土) 11:36:06.69 ID:FxoRaI6I.net
でっかいキャンバスに下絵の画像を読み込んで、512x512の範囲でimage 2imageを自分で選びながら貼り付けてでっかくするってできたら構図もポーズも解決するんだが…
ダリではそっち系に進んでる感じだけどSDには来ないかな。

697 :名無しさん@お腹いっぱい。:2022/09/17(土) 11:48:13.44 ID:TSNOtRCT.net
>>695
カンマやスペースが数に入る仕組みがよくわからん
まさか(((abc)))
の()で6個とか数えてないよね・・逆に除外されてるならカンマスペースも除外できるのでは?って

698 :名無しさん@お腹いっぱい。:2022/09/17(土) 12:49:10.05 ID:iASfaGPL.net
>>697 トークンってのは用意した辞書に載っている言葉の最小単位だからclipの辞書に(と((と(((が別に用意されていない限り
原理的には()が全部で6個あるなら6トークンなんじゃ?
試してないけど

699 :名無しさん@お腹いっぱい。:2022/09/17(土) 12:50:04.68 ID:V1qfrlT9.net
>>697
数えてるんだなあ

700 :名無しさん@お腹いっぱい。:2022/09/17(土) 13:01:39.76 ID:LSAA3btS.net
強調のカッコ類はトークン化前にスクリプトで処理されてる、はず

701 :名無しさん@お腹いっぱい。:2022/09/17(土) 13:12:13.93 ID:gisD6INd.net
たしか、 ( が1個出てくると1回UP調整かけて、 ) が1個出てくると1回DOWN調整かけるとかになってた気がする。
なので、閉じ括弧が足りないと最後までUP調整がかかったまま実行される。

702 :名無しさん@お腹いっぱい。:2022/09/17(土) 13:23:51.24 ID:TVh2YxVL.net
最大2倍高速化させる手法が新たに提案された
https://github.com/huggingface/diffusers/pull/532

1111版での議論ではwindowsでの実装で手こずってるっぽい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/576

703 :名無しさん@お腹いっぱい。:2022/09/17(土) 13:49:02.20 ID:FxoRaI6I.net
GPU周りでコンフリクト起こしてて、うまいことパッケージングまでもってけないっぽいね。
この辺、やっぱ環境依存が強いというか。

704 :名無しさん@お腹いっぱい。:2022/09/17(土) 13:54:49.04 ID:Ugl6jIw0.net
1111の()[]は事前処理されてるのでトークン数に入らない
簡単な確認は(((((((...((((((girl))))))...)))))みたいに大量に囲んでも長すぎwarningが出ないから大丈夫
後直接sd_hijack.pyも確認した

ただそのソース見てて小さな問題に気が付いたんだけど
制御がかかってるトークンをハッシュ値にして重み制御してたから
例えばこんな画像を
A hen laying eggs, sunny-side-up fried eggs, on the table
https://imgur.com/tVbuh7W

詰まれてる卵だけ強調したくても後ろのeggsにも掛かっちゃうね
A hen laying (((((eggs))))), sunny-side-up fried eggs, on the table
https://imgur.com/A9IJxa3

705 :名無しさん@お腹いっぱい。:2022/09/17(土) 13:57:51.68 ID:FxoRaI6I.net
後の方はネガティブで括って打ち消せないかな? 両方のエッグが相殺されるだけかな?

706 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:29:06.07 ID:irljJ+xn.net
トークンをハッシュ値っていってるから
やるならthree fried egg(単数形などほかの単語にして無理やりトークン変える)
みたいなかんじじゃないのかな

707 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:32:06.01 ID:FxoRaI6I.net
fried-eggsみたいにしちゃえばトークンは変わるのかな?

708 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:39:55.22 ID:QmQnjm34.net
トークンの一覧欲しい感ある

709 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:39:57.24 ID:Ugl6jIw0.net
>>705
やってみた
A hen laying (((((eggs))))), sunny-side-up fried [[[[[eggs]]]]], on the table
https://imgur.com/hCERByG
なんか思ってたんと違う

なので今度は後ろだけ減らしてみた
積まれてる卵が減って目玉焼きの上にフライドチキンが現れて面積が減った
A hen laying eggs, sunny-side-up fried [[[[[eggs]]]]], on the table
https://imgur.com/yJ7qyLK
この辺はもうCLIPさんに聞くしか制御できないかな

>>706
そのアイデアで後ろの「,」を一緒に囲んでみた
https://imgur.com/undefined
A hen laying (((((eggs, ))))) sunny-side-up fried eggs, on the table
見事期待通りの画像になった!

710 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:41:33.22 ID:QmQnjm34.net
最後画像だけURL間違ってるぽい

711 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:41:34.62 ID:Ugl6jIw0.net
最後だけ張り直し
https://imgur.com/DYh6ibR

712 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:42:27.00 ID:TSNOtRCT.net
すげー・・そんなやり方が

713 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:48:43.30 ID:FxoRaI6I.net
下手に減算とか考えちゃダメなのか。こういう括り方のコツも結構重要だよね…

714 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:49:56.48 ID:FxoRaI6I.net
しかしフライドチキンはどっから湧いてきたんだろうか…
卵を強調したら育ったのかな?

715 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:54:25.52 ID:QmQnjm34.net
フライドエッグ…なるほど唐揚げね!
みたいな謎連想ゲーム的なことありそう

716 :名無しさん@お腹いっぱい。:2022/09/17(土) 14:56:12.57 ID:Ugl6jIw0.net
>>706
コード見間違ってて
トークン直接じゃなくて括ってる文字列から取得するident値を使ってた
なので一文字でも違えばいいみたい
トークン分割後に同じ文字列になった場合両方に影響が出る
多分覚えてても役に立たない豆知識

717 :名無しさん@お腹いっぱい。:2022/09/17(土) 15:04:53.46 ID:TSNOtRCT.net
SDだけじゃなくMJでもよくあったけど
black hair girl in white bikiniで黒いビキニになりまくるアレなんとかしてほしい
どこがどこに掛かってるのか

718 :名無しさん@お腹いっぱい。:2022/09/17(土) 15:11:36.68 ID:5s8z+e/m.net
black wingsって書いて黒い翼が出たことない
みんな黒髪になる

719 :名無しさん@お腹いっぱい。:2022/09/17(土) 15:12:28.42 ID:FxoRaI6I.net
そんな構造になってないはずなんだけど、どうも連想ゲームしてる感じはあるんだよなあ。
黒ビキニってのを学習しすぎて、ビキニといえば黒ですね! 白? 間違いでしょう。みたいなw

720 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
祝mimic復活

721 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
たぶんだけど、潜在変数に人間が望んだ特徴の分類が入ってなくて、
ビキニ(着る物)と黒(色の名前)で分類されて欲しいのに、両者のベクトル距離が近くなってる
とかじゃないかなって予想
アーティスト名で構図から人間の有無からと絵そのものが変わっちゃうのもたぶん同じ理屈じゃないかな

声質変換とかTTSとかでその辺うまく分類してくれないかって苦労した気がする
でもVQ-VAEの登場で、情報量を大きく制限することによって声質に関係しない発音情報のみを取り出せるようになった
おかげで声質と、発音記号に特徴を分解できるようになった

まぁSDで同じ理屈が通るかというと、わからんけど
あとただでさえモデルでかいから計算コスト高いモデルは採用できないって問題もあるか

722 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
-で括ったら一つの意味で他のトークンには関わらないみたいなこともできるようになると助かるね。

723 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
一方、mimicはいまだこんなレベルの話をしていた
https://news.yahoo.co.jp/articles/6584873f0b324f4e87a721437c7f54df0e38357f

724 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
white bikiniだと「white」と「bikini」ってふたつの単語があると考えちゃうからな
bikini is whiteにしてやると「ビキニは白」ってなってくれる
でもbikini color is whiteだと「ビキニ」と「色が白」のふたつになることある

girl at bearch, bikini is white, hair is black
https://i.imgur.com/ndp7kWL.png
あれ。ビーチはrいらなかったかな。どうでもいいけど

725 :名無しさん@お腹いっぱい。:2022/09/17(土) 16:03:41.09 ID:TSNOtRCT.net
>>724
それは黒髪より前に白ビキニ置いてるからでは?前優先ってやつ
girl at bearch, hair is black, bikini is white
https://i.imgur.com/Ymk4Ke1.png

関係ないけどimgurにchunk付きで上げても消えちゃうんだね
PNGサイズ同じだから再圧縮してないのに

726 :名無しさん@お腹いっぱい。:2022/09/17(土) 16:06:06.42 ID:FxoRaI6I.net
昔、写真のタグとかexifに連絡先乗っける売春が流行ったらしいので、それの影響かもねw

727 :名無しさん@お腹いっぱい。:2022/09/17(土) 16:16:09.43 ID:gisD6INd.net
>>678の呪文をちゃんと絵を出すつもりのpromptに追加して100回回してみた。
https://imgur.com/undefined.jpg
握りこぶしでごまかされてる感がないでもないが、まあまあの成績ではなかろうか。

728 :727:2022/09/17(土) 16:17:34.22 ID:gisD6INd.net
あれ、URLコピペしそこなってるな……
こちらが正しい。
https://i.imgur.com/NFrIhUD.jpg

729 :名無しさん@お腹いっぱい。:2022/09/17(土) 16:24:33.65 ID:TSYh0sGm.net
みんな飽きて来てるよなw

730 :名無しさん@お腹いっぱい。:2022/09/17(土) 16:27:43.78 ID:TSNOtRCT.net
お巡りさーん>>728

731 :名無しさん@お腹いっぱい。:2022/09/17(土) 16:32:34.94 ID:TSNOtRCT.net
ロリ白レオタードをミュシャに合わせるとか禁じ手中の禁じ手だろ・・
というかこんな体綺麗に出るのか、やっぱ体操種目だから全身の学習画像が豊富なのかな

732 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>696
それはこれじゃない?

画像生成AI「Stable Diffusion」のアウトペインティング機能で画像をどんどん拡張できる「stablediffusion-infinity」 - GIGAZINE
https://gigazine.net/news/20220916-stablediffusion-infinity-outpainting-stable-diffusion-canvas/

733 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>728
>686もややあやしかったが性癖についてはどうこう言わない、が>728はプロンプトを知りたい
人体が破綻していなくていいし手もなかなか
筋肉質なのは指定したからじゃなくて、体操選手だから自然にそうなるのかな

734 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>733
Prompt: full body of <主題>, (((intricate human hands fingers))), modern style, by greg rutkowski and alphonse mucha, d & d character, gradient white to gold, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers)))), (((portrait)))

ですね。たまたま体操選手を主題に入れただけなんやで……。
modelはtrinart2_step60000.ckptを使用

735 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
やっぱ結構凄いことやってるよね・・間単には出ない絵
852なんて目じゃない

736 :名無しさん@お腹いっぱい。:2022/09/17(土) 17:14:59.21 ID:61LG6kYr.net
隙あらばGreg Rutkowski

737 :名無しさん@お腹いっぱい。:2022/09/17(土) 17:18:21.61 ID:FxoRaI6I.net
>>732
早速回してきた! 概ね、期待した感じのUIだったけど、ちょっと意外な落とし穴もあった。
顔の周辺を繋げて貰おうとすると、「肌色成分が多いのはいけないと思います!」って言われて、真っ黒にされるw
これはチェックをはずさんとダメだわw

あとは動画ほど綺麗なつなぎ目にはならない。雑コラっぽい感じだけど、多分、調整でなんとかなりそう。

元画像
https://imgur.com/EBLiADe

拡張しようと頑張った画像
https://imgur.com/SbagXpN

肌色成分が多いところは容赦無く墨塗られるw これは改善可能。
つなぎ目はやっぱりちょっと怪しい。promptとCFGやSTEPで改善出来るかな?

けど、成熟したら、かなり使えそうだわ。

738 :名無しさん@お腹いっぱい。:2022/09/17(土) 17:20:45.07 ID:gisD6INd.net
グレッグさん、アルフォンスさん、ジェレミーさんは入れておけば間違いない。
このプロンプト、<主題>に fire dragon とか入れてもミュシャとD&Dキャラクターの力で人化するから楽しい。

739 :名無しさん@お腹いっぱい。:2022/09/17(土) 17:40:37.54 ID:M8rQZk0S.net
>>734
デフォルトのckptでさっそくやってみた。手はひと目見てダメというのはないみたい
主題はteenage witch girl

https://i.imgur.com/P49Pb7w.jpg

740 :名無しさん@お腹いっぱい。:2022/09/17(土) 17:55:25.83 ID:M8rQZk0S.net
>>737
自分もやってみた

オリジナル https://i.imgur.com/lO5Ea6W.png
800x600に拡張 https://i.imgur.com/yK1W5Zu.png

左下がやや不自然だけど全体的には悪くない…が足を伸ばすところはもうちょっとがんばってほしかった
出てきたのをアンドゥできないのがつらい
あと枠の移動が重いのも(Chrome使用)つらい。「Outpaint」の左にあるキャンバスのアイコンをクリックしてから画像をドラッグすると全体をスクロールできるんだけど、これも動作がきわめて緩慢なので忍耐力が試される
この画像じゃないけどやっと残り1つだ、となってからNSFWで黒塗りにされると悲しい。肌色どころか人体ですらない風景だったのに

741 :名無しさん@お腹いっぱい。:2022/09/17(土) 17:57:29.91 ID:/39sqDGz.net
1111のoutpaintingとの違いとかってある感じ?

742 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:05:18.68 ID:M8rQZk0S.net
>>741
それなんだけど、UIは確かに拡張したいところを指定して実行、となっているけど
出てきた画像を却下してもう一度お願い、というのができないと1111版のOutpaintingと結局は同じかなと思った

1111版に「Outpainting mk2」が来てる。試してみよう試してみてね

743 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:09:49.06 ID:S+9DsKqG.net
Greg Rutkowski氏インタビュー
https://www.technologyreview.com/2022/09/16/1059598/this-artist-is-dominating-ai-generated-art-and-hes-not-happy-about-it/

744 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:10:25.19 ID:veIMvaIF.net
最新版の1111を入れてやるかーと思ったら三分前にまた更新されてて草

モデルが選択できるようになった?

745 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:14:52.07 ID:QxQOngCB.net
https://lexica.art/で単語検索しても全く関係ない絵しか出ないのなんなんだろ
プロンプト見ても検索した単語が使われてない

746 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:20:13.95 ID:1VWd1k5m.net
>>745
検索バーの右の調整ボタン押すとプロンプト検索か、意味検索的なやつかで選択できるよ
画像の類似検索ができるようになった都合で新しい検索方法がデフォルトになってる

747 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:22:56.60 ID:/39sqDGz.net
>>742
なるほどな、ありがとう
新しいアウトペインティング試してみるか~

748 :名無しさん@お腹いっぱい。:2022/09/17(土) 18:26:22.41 ID:QxQOngCB.net
>>746
そんな変更があったのか!
ありがとうございます

749 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
これが
https://imgur.com/CrC2YPQ.png
こうなって
https://imgur.com/zjQZCUo.png
こうなって
https://imgur.com/TbaLYC5.png
こうだ!
https://imgur.com/xUILCvX.png

最後、よくわからんのが湧いて出たけどすごいんじゃねMk2!

750 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>692
MJ]は課金ガチャだから、明らかにおかしい画像をはじく仕組みが強めに働いてるんだろね

751 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
Mark2、ステップ数をやたらでかくしないとまともな結果にならないんだけど
そういうものなのか?

752 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
アウトペインティングはつなぎ目を自動修正できないのかなぁ

753 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>709
中々面白い検証ありがとう
「,」は文章の意味とか、単語の関連性に断絶を与えるトークンなので、()で強調しまくると断絶がよく効くような感じやね

754 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>749
おお、いいね。まだ帰れないから試せないけど、やり方は以前と同じ?

755 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
アウトペインティングすげーって思ったけど
肌色成分が公官庁の開示文書みたく黒塗りになっちゃうのか
1111先生に頑張ってもらうしかないな

756 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ときに昨夜から1111版でSD upscaleすると絵が黒ずむんですけどなんなんすかね……
https://imgur.com/S0981wQ.png

757 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>754
拡張サイズの入力はできなくて、方向をチェックすると勝手に拡張されるようになってる。
値の設定はscriptからoutpaintink mk2を選ぶと

Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8

と書いてある。

758 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>749
メチャクチャでワラタ

759 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>756
それ以前に男の骨格だな

760 :名無しさん@お腹いっぱい。:2022/09/17(土) 19:09:39.82 ID:cNDz5EKc.net
>>759
胸板の感じも男で草…

761 :名無しさん@お腹いっぱい。:2022/09/17(土) 19:26:01.31 ID:5WCb9Mfb.net
アウトペインティングは人物をどこまで自然に拡張できるかを最も重視してる
人物がいい感じに拡張できるなら背景はまあどうでもいいわ

762 :名無しさん@お腹いっぱい。:2022/09/17(土) 19:37:47.48 ID:gisD6INd.net
>>757
あれ、ちゃんと拡張するピクセル数とかMask blurを入力する場所あるな?
さっきはなんで見逃してたんだろう。
なので、Poor man'sと変わらない。

↓この2つが増えてるけど、まだ調べてないので何なのかわからぬ。
Fall-off exponent (lower=higher detail)
Color variation

763 :名無しさん@お腹いっぱい。:2022/09/17(土) 19:40:43.86 ID:gisD6INd.net
顔もつま先もちゃんと生えてワロタ
ついでに右足のつま先まで余計に生成されてしまったw
https://imgur.com/9eec1md.png

https://imgur.com/eNi75VX.png

764 :名無しさん@お腹いっぱい。:2022/09/17(土) 19:59:14.67 ID:gisD6INd.net
Fall-off exponent (lower=higher detail)
これは、拡張する部分をどのくらい細かく描き込むかの設定か。1からぐいっと下げたらめっちゃ描き込みされたw
https://imgur.com/LkGesQL.png

Color variation
これは、元の絵の色からどのくらい変化を許すかの設定か。
数値大きくしたら顔が真っ赤になったw
https://imgur.com/gmDvh5Y.png

拡張するサイズが大きすぎると、追加するパーツもでかくなる傾向がある……気がする。
↑顔でかくね?

765 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:24:01.73 ID:S+9DsKqG.net
モデル比較作ったら切り替え早くてびっくりした

766 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:43:40.99 ID:b68cdcR2.net
自分ではまだ試してないけど、OutpaintしたいならKritaのPlugin使うのどうかな
1111から作ってるぽいしレイヤーになるから取り消しもできるような

767 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:47:53.74 ID:gisD6INd.net
>>756
わかった!Settingsで "Apply color correction to img2img results to match original colors." にチェックが入ってるとこんななるんだ(うちの環境では)!

768 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:51:45.69 ID:S+9DsKqG.net
>>728,734
4chanに貼ったらかなり好評だった…

769 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:53:47.68 ID:gisD6INd.net
SD upscaleもちゃんと動くようになったところで

これが
https://imgur.com/cDGS9iP.png

こうなって
https://imgur.com/DkUCBwc.png

こう!
https://imgur.com/qhiFckD.png

outpaintingしゅごい……

770 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:55:54.07 ID:gisD6INd.net
>>768
おぉう……

771 :名無しさん@お腹いっぱい。:2022/09/17(土) 20:58:15.89 ID:TSNOtRCT.net
ID:gisD6INd
色々ありがとう、参考になる
mk2デフォで拡張したらノイズしか出なくてなんのことやらだった

>>757
>値の設定はscriptからoutpaintink mk2を選ぶと
>Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8
>と書いてある。

赤字にしてくれたら気づくのに・・

772 :名無しさん@お腹いっぱい。:2022/09/17(土) 21:12:25.39 ID:FxoRaI6I.net
何気に顔まで補正かかって美人になってるw

773 :名無しさん@お腹いっぱい。:2022/09/17(土) 21:14:31.97 ID:gisD6INd.net
SD upscaleはプロンプト使って描き直しするから、最初顔とか小さくてつぶれ気味になっててもきれいになるんよ。

774 :名無しさん@お腹いっぱい。:2022/09/17(土) 21:21:33.15 ID:gisD6INd.net
もちろんseed値ガチャを回す必要はある……

775 :名無しさん@お腹いっぱい。:2022/09/17(土) 21:23:47.75 ID:S+9DsKqG.net
モデル切り替え便利すぎる!

776 :名無しさん@お腹いっぱい。:2022/09/17(土) 21:26:14.76 ID:5WCb9Mfb.net
4chanにこのスレのリンク張っててわろた

777 :名無しさん@お腹いっぱい。:2022/09/17(土) 21:39:02.48 ID:1VWd1k5m.net
使いやすい4chanビューアとかってある?
向こうの情報も追いたいんだけど見にくい

778 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:06:14.63 ID:VyttaNVF.net
>>704 >>709
辺りはテンプレ入りしてもいいレベルだな
Outpaintの進化も早すぎて1スレ消化し終わるころには別物すぎるだろ・・・

779 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:20:51.14 ID:iHoUBdMF.net
初心者すぎる質問で申し訳ないんだが…
1111のcolab版を使おうと思うんだけど
ckptファイルは毎回ダウンロードが必要なのかな?

780 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:24:21.41 ID:FxoRaI6I.net
colabは接続解除する度に全部消えちゃう仕様なので原則必要。
ただドライブに放り込んでおいて、そっからcolabのフォルダにコピーするのもあり。
けど、その手間はやっぱ必要。
全部ドライブにインストールするってのもてだとは思うけど。

781 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:30:58.87 ID:AC7QemqI.net
>>779
古いけどこれはgdriveのckpt使ってる
こんな感じでgdriveのパス指定して起動させればよいのでは?
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd

782 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:31:56.58 ID:HGMxSSYv.net
ドライブにmodelとnotebookと同じ階層に入れておいてドライブにマウントしてディレクトリ移動じゃ駄目なの

783 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:36:52.89 ID:QxQOngCB.net
1111のアウトペインティングMK2やってみたけど、やっぱツギハギみたいになるなぁ…
kritaのアウトペインティングもそうだったけど…
この「そうじゃないんだよ…」感を払拭出来るアウトペインティングの実装には結構時間かかるんかな

784 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:37:55.62 ID:ekTauQtw.net
>>780-782
なるほど、マウントか
調べて試してみます。ありがとう

785 :名無しさん@お腹いっぱい。:2022/09/17(土) 22:37:57.09 ID:Oxh2/A3E.net
ここ2,3日あんまり熱心に見てなかったけど、モデルはこんな感じかな?
(学習枚数=クオリティではないと思うけど一応書いておいた)

○オリジナル モデル 1.4
 LAION-2B-en 23億枚学習 ※詳細は公式参照

○とりんさま: 1.4ベース + アニメ・漫画系 8万枚追加学習(v1) + 1万枚追加学習(v2)
 https://huggingface.co/naclbit/trinart_stable_diffusion_v2
 モデルを入れ替えるだけでOK

○waifu: 1.4ベース + Danbooruイラスト 5.6枚追加学習
 https://huggingface.co/hakurei/waifu-diffusion
 モデルを入れ替えるだけでOK


○日本語版: モデルは1.4とは関係なくゼロから学習されたもの。コードも別のものが必要
 https://github.com/rinnakk/japanese-stable-diffusion

 stable diffusionのコード(ただし日本語のトークナイザ)で1億枚学習

 コードを StableDiffusionPipeline → JapaneseStableDiffusionPipeline に修正すれば動く??

786 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:15:31.47 ID:FxoRaI6I.net
TI集。もう300超えたってw

https://huggingface.co/sd-concepts-library?sort_models=downloads#models

787 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:16:34.95 ID:RXPB+LSI.net
outpainting mk2、同じprompt、同じseed与えてもなんか変

rightだけうまくいってるように見える
https://imgur.com/a/GYANwxm

788 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:22:11.09 ID:dVaFNesF.net
特定の絵師のイラスト6枚でTIしてみた
TIの設定はまだ模索中だけど生成にあたってはプロンプトを目的の絵柄に寄せた上でTIした単語を重ねると良い感じ
この場合プロンプトにloliを入れた上でTIを重ねると絵柄がかなり似た
TIなしとTIあり
https://i.imgur.com/HhEw96m.png
https://i.imgur.com/EdnadSD.png
https://i.imgur.com/YneUHpB.png
https://i.imgur.com/Gqfzj2Z.png

789 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:22:41.10 ID:kyAaDbkd.net
sdくん、ケモミミに花つめこむのやめて、、

>>785
ここに含めるかは微妙だけどオリジナルとwaifuの合いの子>>214もある

790 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:27:42.05 ID:gisD6INd.net
>>787
右がうまくいくseed、左がうまくいくseed、両方がうまくいくseedといろいろあるんじゃね?

>>788
TIもそのうちやってみたい……うちのGPUは3060だけど

791 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:32:12.84 ID:gisD6INd.net
なお、両方がうまくいくことはまれなので、片方ずつseedガチャ回すのが吉

792 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:32:17.06 ID:dT6lb33U.net
>>728
こういうのlatex(ラテックス素材)とかやると良いよ

793 :名無しさん@お腹いっぱい。:2022/09/17(土) 23:33:31.28 ID:dT6lb33U.net
エロ技術はこっちでも広めてくれ

Midjourney】AIエロ画像情報交換【StableDiffusion
https://mercury.bbspink.com/test/read.cgi/erocg/1662132381/

794 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:14:34.56 ID:Kjglj+xt.net
×やると良いよ
○できればやってください

×広めてくれ
○是非こちらにいらしてください

795 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:16:08.41 ID:zc8A7EjE.net
>>792
女子体操はエロじゃないノデ。健全だよ?

translucent bodysuit とかがいいですヨ。
https://imgur.com/8F4CwYp.png

796 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:17:12.37 ID:hONnfc8o.net
とんりさまはv2は3つあるからそれぞれどう違うかは情報欲しい

797 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:18:14.94 ID:+fkiRLHE.net
シースルーじゃなくてトランスルーセントなのか!

798 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:20:14.44 ID:Kjglj+xt.net
wetも入れるんだ!

799 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:24:22.81 ID:zc8A7EjE.net
see-through でもいけるヨ!

800 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:28:37.78 ID:+2pQJ5Nn.net
このスレの魔術師のおかげで4chanも賑わってるよ

801 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:36:04.12 ID:+fkiRLHE.net
以前やったやつ、左手が右手になってたの気が付かなかった
https://i.imgur.com/PI9GWNL.jpg

Glamour body shape, big boobs, huge tits, big breasts, light Brown hair, Wear glasses,
16 years old, kawaii japanese girl, Pink powder is sprayed directly on the naked body
so that it becomes the shape of a one-piece dress,Wearing a pink latex miniskirt,
both Hands behind the neck, show both armpits, stand in future city,

802 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:40:24.38 ID:Kjglj+xt.net
あっちから輸入じゃなく、こっちの人が輸出してるの?

803 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:44:17.78 ID:rwK6kaP7.net
しかし改めてスレ見ると美少女画像率高いな
たまにはイケメンを生成する呪文も研究してあげて

804 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:54:05.74 ID:zc8A7EjE.net
ヨシ、向こうに書いておいたぞ。

805 :名無しさん@お腹いっぱい。:2022/09/18(日) 00:54:28.20 ID:+fkiRLHE.net
乳袋の生成に難儀したの覚えてるわ

806 :名無しさん@お腹いっぱい。:2022/09/18(日) 01:07:00.20 ID:hONnfc8o.net
>>788
ベースモデルはWaifu?とりんさま?

807 :名無しさん@お腹いっぱい。:2022/09/18(日) 01:15:53.11 ID:AwBLCkvw.net
>>802
入れたり出したり、貿易しているのです
まあそもそも4chan自体日本文化と日本の某掲示板をリスペクトしてる人が作った掲示板だしな、日本との繋がりはまあまあ深い

808 :名無しさん@お腹いっぱい。:2022/09/18(日) 01:18:20.61 ID:1Obv8XFB.net
>>806
Waifu

https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb

このcolabを使って学習
what_to_teach=style, Initializer_token=girl, training _rate=7e-04, train_steps=10000
学習元の画像は髪の色とかのバリエーションがついた同じ絵柄の絵を顔付近だけクロップして512x512に揃えて用意するのがコツらしい
今はここから更にステップ数を上げても効果があるか試してる

809 :名無しさん@お腹いっぱい。:2022/09/18(日) 01:44:43.70 ID:04hwITED.net
>>803
face photo of 24 year old japanese good looking actor, (((((((草なぎ剛))))))), SMAP
Negative prompt: korean
Steps: 80, Sampler: Euler, CFG scale: 7, Seed: 2228362882, Size: 512x512

https://imgur.com/a/yAKazy6

810 :名無しさん@お腹いっぱい。:2022/09/18(日) 01:47:55.32 ID:R5jx9mbg.net


811 :名無しさん@お腹いっぱい。:2022/09/18(日) 02:17:28.49 ID:+2pQJ5Nn.net


812 :名無しさん@お腹いっぱい。:2022/09/18(日) 02:21:28.84 ID:jJHVyJsT.net


813 :名無しさん@お腹いっぱい。:2022/09/18(日) 02:23:23.54 ID:3Q4OSkCq.net
Textual Inversion でゴンさんを学習させたら、1単語入れるだけで全部ゴンさんのオーラになってしまうようになったが、
hatsune_miku, [background:gonsan:0.4]
みたいなプロンプトなら無理やり抑制できんこともないな。

https://i.imgur.com/3wPh3j4.png
https://i.imgur.com/4k539Md.png
https://i.imgur.com/30iKrPt.png

814 :名無しさん@お腹いっぱい。:2022/09/18(日) 02:38:30.38 ID:zc8A7EjE.net
お兄ちゃんセット
https://i.imgur.com/Td91sbR.png
https://i.imgur.com/sCqJPXb.png
https://i.imgur.com/I9Yfotx.png

griffinが男性名だからか、お兄ちゃん多めになるんだけど、なぜか女の人も混ざるんだよね。

815 :名無しさん@お腹いっぱい。:2022/09/18(日) 02:42:08.54 ID:zc8A7EjE.net
月って言ってるのに建物のこっち側に出現させるSDちゃんバカかわいい……

816 :名無しさん@お腹いっぱい。:2022/09/18(日) 05:04:42.71 ID:iy9wmgZ9.net
機能追加が早すぎてちょっと離れてるとフォローアップめんどくさいな
解説youtuberとかいればいいのに

817 :名無しさん@お腹いっぱい。:2022/09/18(日) 06:11:00.22 ID:B4J0fiOy.net
今ならお前がなるチャンスだぞ

818 :名無しさん@お腹いっぱい。:2022/09/18(日) 08:13:32.59 ID:Qtr57YVi.net
既出かもしれんが
9月26日にWaifu Diffusion v1.3がリリースされるみたい
(discord情報)

- モデルをどのようにプロンプトするかという点で、はるかに優れた柔軟性を持っています。
- より多様な出力が可能
- 高解像度画像の顔や細かいディテールをよりよく捉えるために、微調整されたVAE。

819 :名無しさん@お腹いっぱい。:2022/09/18(日) 08:42:23.38 ID:rwK6kaP7.net
>>809,814
やるじゃん
全然見ないだけでちゃんと生成できるんだなあ

820 :名無しさん@お腹いっぱい。:2022/09/18(日) 08:58:04.53 ID:hONnfc8o.net
モデル非公開だけどとりんさまキャラクター版は認識キャラ広いからWaifuもそこらへん強くなってるといいけど

821 :名無しさん@お腹いっぱい。:2022/09/18(日) 09:19:47.96 ID:Bs5hqJRM.net
>>818
たのしみやね

822 :名無しさん@お腹いっぱい。:2022/09/18(日) 09:57:45.12 ID:qh69b+/S.net
>>808
placeholderplaceholder_token とか空欄のままなのか?
デフォ3000ステップなのに1万回にするとか念入りだな

これでwaifu用の差分トレデータを作って同時に読み込ませて使うって事だよな?
画像はURLでしか指定できないのか?トレ用の画像や生成トデータは全てclab内だよね?

823 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:10:51.49 ID:bQNGWScl.net
Docker版のSD-Webui

GitHub - AbdBarho/stable-diffusion-webui-docker: Easy Docker setup for Stable Diffusion with user-friendly UI
https://github.com/AbdBarho/stable-diffusion-webui-docker

824 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:18:22.72 ID:bQNGWScl.net
Midjourneyで三国志の武将に自撮りさせる|あずみの
https://note.com/lectin/n/n1f4a14f80bb4

面白い。MidjourneyはStable Diffusionよりいい絵を出してくる確率が高いのかな

825 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:19:33.89 ID:bQNGWScl.net
↑Midjourneyはいい絵を出してくる確率がStable Diffusionより高いのかな、という意味です

826 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:19:47.58 ID:pA/Ty5iZ.net
一般的に言って学習は回数増やせばいいってもんでもない
特にデータ数が少ない場合は過学習になって学習させたデータそのものに寄り過ぎるから

827 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:29:04.18 ID:qh69b+/S.net
トレーニング時や生成時のステップ数は似た感じだよな
回数増やし過ぎても奇形に化ける事もあるし・・・

要素の少ない数枚のサンプル画像でステップ数抑えるのが一番良さそう
トークン縛りとか一気にアレコレさせるのには不向きだよね

828 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:31:00.60 ID:1Obv8XFB.net
>>822
画像の枚数増やしたり学習率上げたりすれば上手くいくのかもしれないけど自分の場合は3000だと良い結果が得られなかった
取り敢えず画像はimgurにアップしてurl指定してる
生成データはbinファイルでcolab内に出力されるからダウンロードして1111版で読み込み

829 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:33:02.80 ID:o6kglf5O.net
>>825
絵になる調整はしているらしい

830 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:36:19.32 ID:qh69b+/S.net
>>828
サンクス、3000では足りなかったのか・・・萌えは奥が深い
ローカルの画像を投げられないのが少し不便だね

トレーニングもローカルで出来たら良いのに
・・・と思ったらGPUの消耗が画像生成の比じゃないか

831 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:38:17.22 ID:YIi8903f.net
ネガティブpromptやっぱ良いな。バーズアイの鳥さんも綺麗に消えるしw

832 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:41:33.31 ID:qh69b+/S.net
Midjourneyは極端に崩れない様にテンプレみたいなのがあるとは聞いた
SDはオープンソースでトレーニングも大手企業じゃないからジャンク感が出る事があるね

>>828
ネット経由だとエロ目的のピーッのトレーニングは無理か?!
流石に一時的とはいえ無修正をアップロードはなぁ・・・

833 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:43:10.22 ID:1Obv8XFB.net
>>830
メモリが最低12GBと聞いてcolab pro入っちゃったよ
あとplaceholder_tokenは<絵師の名前-style>でやってる
1111番はプロンプトに<学習済みデータのファイル名>を入れてデータを呼び出せるけどplaceholder_tokenはそれとは別に内部で使われる名称っぽい
同じplaceholder_tokenを持つデータがいるとファイル名が違ってても使用時に混ざる

834 :名無しさん@お腹いっぱい。:2022/09/18(日) 10:44:56.67 ID:kKX8smLc.net
○SDをPytorchからTensorflow(keras)にコンバートしたバージョン。(モデルもコンバート済)
https://twitter.com/divamgupta/status/1571234504320208897

M1 Macだと4倍高速になり必要メモリも少なくなる、らしい。
Geforceだとどうなのかが気になる(試すの面倒くさい)

○Blender用テクスチャ生成アドオン deam-texutres
https://github.com/carson-katri/dream-textures/tree/0.0.4

開発者はM1 Macで開発/検証したらしいけど、Windowsでも普通に以下の3ステップで使えるようになる
・zipインストール
・プリファレンス>Dream TexturesからInstall dependencies
・model.ckptを配置

シェーダーエディターからダイレクトにプロンプトでテクスチャ追加できる&シームレス化どうかを随時切り替えできるのは便利
512x512のテクスチャ生成で、Max VRAM 3.35Gとかになる。なんでこんな少ないんだろう
(deleted an unsolicited ad)

835 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
1111版をcolab上で使ってるがweb uiが不調。生成する枚数増やすと反応なくなる

836 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>833
これマジ?全部*でやってたわ

837 :名無しさん@お腹いっぱい。:2022/09/18(日) 11:51:36.86 ID:gUv8HSGB.net
1111の最新版はバグがあって動作不安定になるな

838 :名無しさん@お腹いっぱい。:2022/09/18(日) 12:05:28.87 ID:zc8A7EjE.net
そういえば1111版でmodel切り替えたときに、出力した画像がどのmodel使ってるかの情報はpngファイルに書き込まれてるん?
うちは自前でwebui起動したときに使うmodelで出力先ディレクトリを切り替えてmodelごとに保存先分けてるんだけど、実行時model切り替えを使うのどうしたものか。

839 :名無しさん@お腹いっぱい。:2022/09/18(日) 12:12:13.69 ID:hONnfc8o.net
>>838
作ってる人とコンタクト取れるわけだしissueにそういうリクエスト投げるのも手よ

840 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
SettingsでAdd model hash to generation informationにチェックが入ってれば
Images filename patternをいじればファイル名のモデルのハッシュ値を含めることも可能

841 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>834
最適化版やろうとしたけど環境構築うまいくかなかった
だるいな

842 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
通し番号がファイル名の先頭に来るから、tag名でディレクトリ作るわけにはいかないんかなこれは。
まあ、現行の運用でいいか。

843 :名無しさん@お腹いっぱい。:2022/09/18(日) 13:40:32.57 ID:bQNGWScl.net
>>838
> 自前でwebui起動したときに使うmodelで出力先ディレクトリを切り替えてmodelごとに保存先分けてる

これどうやってますか? 起動時にそういうオプションがあるのかな
起動のたびにsettingsの各欄を書き換えるのは大変だなあと思っていました

844 :名無しさん@お腹いっぱい。:2022/09/18(日) 13:47:43.05 ID:zc8A7EjE.net
>>843
うちはsingularity(dockerと似たようなもの)のイメージを作ってあって、インスタンスを起動するときにインスタンス内にバインドするディレクトリとmodelファイルの組み合わせでシェルスクリプトを複数作ってます。

845 :名無しさん@お腹いっぱい。:2022/09/18(日) 13:52:32.28 ID:zc8A7EjE.net
標準のディレクトリ・modelファイルをシンボリックリンクで作っておいて、起動するたびにシンボリックリンクを作り直せば同じような感じになる……かな?

846 :名無しさん@お腹いっぱい。:2022/09/18(日) 13:54:07.01 ID:OrwZma0l.net
>>825
MJでgirlだのpencilだの「だけ」入れてもやたら絵画的な絵が出るのでわかると思うが
内容に絵に合わせて勝手にあれこれ調整や修飾を付け加えてる疑惑がある
もちろん働きアリとしてのユーザーを引き留める目的で

引きの人物が自動的に後ろ向きの肘曲げポーズになる「潰れた顔&手隠し」実装は有名
https://www.cnn.co.jp/storage/2022/09/07/7d644ce9d7add9ccf5cb25d4d40ae69c/t/768/432/d/thtre-dopra-spatial-ai-generated-art-super-169.jpg
こんな絵ばっかでしょ?お釈迦様の手の上

847 :名無しさん@お腹いっぱい。:2022/09/18(日) 13:57:36.49 ID:gUv8HSGB.net
実行速度最適化のmodule.pyの修正が1111の最新版だとぶつかって
上手く動作しなくなってるっぽい、何か情報ある?

848 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:07:51.05 ID:CCHXknGq.net
>>834
waifuやとりんさまが使えればなぁ

849 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:13:10.17 ID:3Q4OSkCq.net
>>843
outputsフォルダを、今から使おうとしてるモデル用のoutputsフォルダのショートカットにしちゃえばいいのでは?

: 既存のショートカット削除
rmdir outputs
: ショートカット作成
mklink /j outputs outputs_モデル名

みたいなコマンドをwebui-user.batの最初の方に追記する。

850 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:15:12.18 ID:3Q4OSkCq.net
無料colabでTextual Inversion学習させたら、数時間でGPU制限に行ってしまった。
このGPU割り当てられない制限ってどういうタイミングで解除されるの?まえになったときはいつの間にか解除されてたけど。

851 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:17:18.45 ID:0ZFyhUYN.net
>>847
repositories/stable-diffusion/ldm/modules/ を更新するやつなら問題なく動いてるよ
1111のバージョンは今日の13:44版

852 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:25:45.87 ID:GULQm3WX.net
>>850
無料でチマチマやっとるクチで色々見てみたが
無料のcolab制限解除は時間幅が広すぎて何とも言えん
6時間とか言ってる所もあれば12時間と言ってる所も見かける
因みに俺は15日の17時半くらいに制限食らって昨日丸一日は制限で使えなかったわ

853 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:28:16.58 ID:GULQm3WX.net
>>852に追記すると、今試しに繋いでみたらまだ制限掛かってら…

854 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:31:09.19 ID:OrwZma0l.net
無料colabを初心者に勧めてくる奴自身は大抵有料使ってるという齟齬
GPU制限もそうだけど、裏に回しても動くって有料verを際立たせるために
いちいちcaptcha出してくるいやらしさがうざくてやってられん

855 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:33:41.64 ID:YIi8903f.net
colabのキャプチャは有料版でも出てくるよ。
しかもセルのソース触ってる真っ最中にw

無料の制限解除タイミングは非公開だからいつ解除かはさっぱりわかんない。
どっからでも遊べる利便性があるから、まあ月1000円ぐらいはアリかなって感じ。
流石にpro+まで行く気にはなれないけど。

856 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:34:32.65 ID:1Obv8XFB.net
>>788
この後更にいくつかの設定で試した
参考にする画像によって最適な設定は変わるかもしれないけど現時点だと
Initializer_token=girl, training _rate=8e-04, train_steps=10000
が1番元絵の特徴を捉えてる
15000ステップは過学習気味でダメ
10000ステップが多過ぎる可能性もなくはない

857 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:36:05.78 ID:fZS1O981.net
そういえば、有料版colabのGPU総量制?移行はもう来週か。無料版は使いものにならなくなる覚悟をしておいたほうがいいな。

858 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:39:57.40 ID:B4J0fiOy.net
いいタイミングだしRTX 4090買っちゃお

859 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:45:07.59 ID:zc8A7EjE.net
3090Tiは……って思ったけど、ちょっと前に最安20万切ったのに今はクッソ高いのなw

860 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:45:50.29 ID:gFtrZh0V.net
少なくとも12GB以上のは欲しくなるな
普通に使う分には8GBでもさほど困らなくなったが、新しいことをやろうとすると制限に引っかかることも多い

861 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:46:27.33 ID:SAsm3Obn.net
>>857
どうなんだろうね
需要が増えて設備を増やすなら、余剰時間も増えるわけで、無料が使いやすくなる可能性もありそうな気がする

単に無料でやりたい人だけ増えたならそうならないけどw

862 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:48:10.60 ID:iy9wmgZ9.net
4090性能リークによるとcudaコア数は3090の1.5倍だけどメモリは据え置き24GBか
SDユーザーとしてはメモリ欲しかったとこだよな

863 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:53:10.95 ID:OrwZma0l.net
VRAMはバッチで大量同時生成やるのでもない限りそんな要らんような・・
最底辺512超えは整合性取れてなくて繰り返しになるの明らかなんで

864 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:53:48.12 ID:id8j4srk.net
>>833
ロードしてる箇所を見た限り、ptファイルに記録されてるplace holder token の情報は推論時には使ってないようにしか見えないんだが
当然だけどロードした時にplace holder tokenが同じだとそこを書き換えてしまうっていう動作もしてない

まぁざっと見ただけだから、ソースの読み間違いもあるかもしれんので
該当箇所のコードがどこか教えてくれ

865 :名無しさん@お腹いっぱい。:2022/09/18(日) 14:58:06.03 ID:gUv8HSGB.net
>>851
全部最新版にしたら直った
それにしてもツールの使い方熟練するといくらでもよい絵出せるな
直したい部分だけガチャするのも簡単だし絵を手で描くのがどんどんアホらしくなっていく…

866 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:00:22.06 ID:iy9wmgZ9.net
>>863
生成のときはいらんね
バッチサイズ2でtextual inversion回すのに30GBくらい必要

867 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:03:31.54 ID:Bs5hqJRM.net
共有メモリーにも対応してくれたら
PCIe5.0+DDR5ならそこそこ動いてくれそうな気もするが

868 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:05:39.23 ID:hONnfc8o.net
共有メモリだと転送の都合で云々なんだろうけど

それより今日はなにかモデルでた?

869 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:10:34.40 ID:+2pQJ5Nn.net
trinart2_step60000.ckpt
https://i.4cdn.org/g/1663481261083231.jpg

trinart2_step95000.ckpt
https://i.4cdn.org/g/1663481189839740.jpg

trinart2_step115000.ckpt
https://i.4cdn.org/g/1663481095051579.jpg

Cardcaptor Sakura, detailed face, beautiful face, by greg rutkowski and alphonse mucha, d & d character, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration, artstation hq
Negative prompt: ((((mutated hands and fingers))))
Steps: 20, Sampler: Euler a, CFG scale: 12, Seed: 0, Size: 512x512

870 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:20:55.35 ID:zc8A7EjE.net
>>869
ひょっとしてstep違いのモデル間でseed値同じにするとそこそこ似た絵が出てくるんだ?
最初に使った感じで115000はちょっと癖が強いんかなと思ったけど、やっぱりそんな感じがするな。

871 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:52:18.52 ID:hONnfc8o.net
>>869
乙乙

872 :名無しさん@お腹いっぱい。:2022/09/18(日) 15:58:10.00 ID:YIi8903f.net
ふと思ったんだけど、黒い髪の白いけど黒いビキニ。

black hair girl in [(white bikini)]

ってネガティブとポジティブで括って、無理矢理1つのトークンにしちゃえば混ざらないんじゃないだろうか。

873 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:05:58.87 ID:OrwZma0l.net
>>869
negativeだけにmutated云々だと、結果として手と指を見せなくなるだけのような・・

874 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:06:48.82 ID:5XcX3qoD.net
今PC使えないから検証はしてないけど
black hair (((girl,))) the girl wearing white bikini
こういうのに類する作戦の方が上手く行きそうな感じはする

875 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:10:35.65 ID:EbBxwAbM.net
こんなのは?
[black:10] hair girl in white bikini
白ビキニが負けやすいなら先にしっかり描いてもらってから黒髪にする感じ
総ステップ数や追加タイミングは色々試さなきゃ駄目だろうけど

876 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:16:43.23 ID:OrwZma0l.net
>>724-725の通り、色は先に書いた方が有利らしい

877 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:29:36.42 ID:5XcX3qoD.net
>>869
60000はちょっと弱くて、ミュシャとかにさくらがやや負けしてる感じがするけど下二つの評価は難しいな
115の方がより学習が強化されてるのか、アニメ絵独特の顔の縦横比(目のあたりの高さの横比率に注目)になってるのが印象的

878 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:30:16.50 ID:73Wj9gAM.net
>>846
MJとSDのプロンプトの出力例を紹介してるAI Artというサイトがあるが
それを見るとMJはまずカラーパレットに強力な補正がかかってる(青緑とオレンジ)
あとMJは人物も西洋人風の綺麗な顔が出るように補正されてる

879 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:40:01.73 ID:OrwZma0l.net
>>878
MJが加味してくる色はほんと凄いよね、絵画に占めるファクター考えると
MJでAI絵晒して自分の手柄みたいにイキってる人がいかに身の程知らずかわかる

880 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:41:29.37 ID:gUv8HSGB.net
google colabはいくら何でもコスパ良すぎたから
これからAI関連で乱用されまくってどんどん制限厳しくなっていくでしょ
既にそのあおりでAI使う各種WEBサービスが有料化や使用制限のテスト始めてる
colabに規制してたサービス多すぎだからな

881 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:48:45.10 ID:13PBiOaq.net
これからはAIお絵かき用にゲーミングPCが売れるわけだな

882 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:55:14.68 ID:zc8A7EjE.net
>>734 のpromptの<主題>に griffin を入れると >>814 のお兄ちゃんが出る(たぶん、griffinが男性名のため)のですが、こんな感じでたまにお姉ちゃんも出るわけですよ。
https://imgur.com/elE8mAM.png

そこでちょっとprompt matrixにかけてみました。
https://imgur.com/DMJbXfq.jpg

やはりミュシャ先生か……
あと、これ作ってて気が付いたのですが、urbanは本来は普通の都市の絵が出ますね。
これが古都風景に変わってるのもミュシャ先生のせい……

そこでミュシャ成分を打ち消すnegative promptを探してみました。
negative promptにこのくらい追加すると、背景が普通の都市になります。
((antique)), ((ancient)), ((former))
https://imgur.com/mWpE4Qf.png

ただまあ、ミュシャ風味がほぼなくなるので、普通に名前を抜くのと同じ……
いや、けっこうまだミュシャ成分残ってるのかしら?
https://imgur.com/RThYTSl.png

883 :名無しさん@お腹いっぱい。:2022/09/18(日) 16:57:40.02 ID:zc8A7EjE.net
あと、なにげにミュシャ先生とD&Dキャラのコラボがかわいいと思いました。
一番上の力こぶ作ってる子がいいw

884 :名無しさん@お腹いっぱい。:2022/09/18(日) 17:01:33.92 ID:5XcX3qoD.net
ミュシャの扱いのもう一つの難しさって下あごなんですよね
下あごの形見ると、これはミュシャ先生の香りって分かる絵が非常に多い

885 :名無しさん@お腹いっぱい。:2022/09/18(日) 17:01:55.07 ID:/OLF1UZ2.net
ほんとだ、D&Dかわいいなw
呪文にも入れられるAkihiko Yoshidaっぽい

昔アニメみたいな輪郭黒い主線出す方法ない?って聞いてた人に無反応だったけど
まんまミュシャ先生なんだよねぇ

886 :名無しさん@お腹いっぱい。:2022/09/18(日) 17:02:12.36 ID:bQNGWScl.net
>>844
ありがとうございます。なるほど、そういう方法があるんですか
普通にディレクトリ内にセットアップしたのだと無理っぽいですね

>>845
ありがとうございます
Windowsだとリンクのことを勉強しなくても生きていけると思っていましたが…
今回は>840の方法を使うことにします

887 :名無しさん@お腹いっぱい。:2022/09/18(日) 17:28:56.13 ID:Bs5hqJRM.net
>>881
使用ツール SD2.0 + AI画像修正サービス
みたいな絵師が出てくるのかな

888 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:09:19.61 ID:a3GaWs3f.net
SDで顔だけ作って動画はvtuber御用達のGAN使うのが手っ取り早いな
手軽すぎてcg+img2imgとかばからしくなる
大きく動かすとすぐ破綻するけど
https://i.imgur.com/WiVTbMp.mp4
https://i.imgur.com/OEapXxV.mp4

889 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:11:28.97 ID:R5jx9mbg.net
中世風の柄とかが欲しい時に加えるとインスタントに便利なミュシャ先生
illustrated by greg rutkowski and alphonse mucha

https://i.imgur.com/lHjg4Jb.png
https://i.imgur.com/QrWSsEK.png
https://i.imgur.com/nSGTZfd.png
https://i.imgur.com/Mo6iAAJ.png
https://i.imgur.com/c4g9aRD.png
https://i.imgur.com/sxnyhuk.png

890 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:18:16.06 ID:NijCaszS.net
1111って色んな機能実装されてるけど、
複数バッチ生成出来ない低性能グラボ用に1枚生成✕10回とかのバッチ機能はありそうでないんやね
そういう機能あると家おらん時に便利なんやけど

891 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:20:33.96 ID:R5jx9mbg.net
batchcountが生成処理を何回するか
batchsizeが生成処理で同時に何枚作るかでしょ?

892 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:21:10.90 ID:id8j4srk.net
>>890
Batch Count

893 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:27:03.06 ID:NijCaszS.net
>>891>>892
あれそうやったん?!
Colab使ってた時にバッチカウントは一度に横に複数生成、
バッチサイズは一度に縦に複数生成、って機能やと思って
ローカルやとメモリ足らんくて使ってなかった

894 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:29:57.65 ID:/OLF1UZ2.net
次に、なんで最大たった16枚なの?が来ると予想して先回り>>276

895 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:30:50.66 ID:NijCaszS.net
ほんまに連続で生成できた(笑)
灯台下暗しやわ
あんがとみなさん
コンフィギュレーションいじったら上限変えられそうやし安心してスーパー行けます

896 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:36:44.38 ID:+2pQJ5Nn.net
batch sizeは罠なのでなくてもいいくらいの機能
てかなんだこいつ

897 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:40:30.82 ID:/OLF1UZ2.net
>>896
並列処理でちょっと早くなる
まだeulerの誤seed問題抱えたままなのかな?

898 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:43:35.18 ID:/tpFVdmC.net
1111で生成に使ったpromptの保存先ってどこでしたっけ?

899 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:44:57.57 ID:pA/Ty5iZ.net
学習の際はバッチサイズ上げないと遅くて話にならん
出力の際は元々早いから無くてもあんまり困らないね

900 :名無しさん@お腹いっぱい。:2022/09/18(日) 18:51:59.43 ID:/OLF1UZ2.net
>>898
txtなら画像と一緒に出力されたはず
settingsのチェック入ってないのでは?
> Create a text file next to every image with generation parameters.

PNG内保存もあるからチェック入れとくと後で泣かなくて済む
> Save text information about generation parameters as chunks to png files

901 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:01:23.49 ID:gUv8HSGB.net
一度生成した絵からimg2imgで同じキャラの別ポーズ出そうとしたら
物凄く粘り強く微調整しながらリトライしなきゃ無理だけど
冷静に考えたらそれでも手描きより桁違いに早いから同キャラ動かすのも現時点で可能なんだな
服装大きく変えるとかは顔も一緒に変わるからきついが

902 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:07:56.52 ID:/tpFVdmC.net
>>900
チェック入れてませんでした
別のUI使ってる時に設定してたのですが、1111に移ってから設定し忘れてたようです

903 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:11:14.17 ID:pA/Ty5iZ.net
一つのキャラから差分を作り出すみたいなのはいずれmimicみたいな専用のAIが出るだろうな
SDにはちょっと向いていない作業な気がするし

904 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:22:34.43 ID:YIi8903f.net
story機能は1.6ぐらいで来るかな……

905 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:31:26.33 ID:xbt73biT.net
Textual Inversionの学習データをシェアします。
https://anonfiles.com/I8986d8cy2/0918_7z
24個ほどbinファイルが含まれます。
研究のために使ってください。
NSFWを含みます。
コンセプトライブラリには上げてません。

906 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:45:15.35 ID:04hwITED.net
学習モデルって言ってウイルス撒くやつ絶対出てくるよね

907 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:52:51.50 ID:TlNDna8P.net
モデルじゃでないだろ

908 :名無しさん@お腹いっぱい。:2022/09/18(日) 19:56:08.66 ID:RrhFpxY2.net
model.ckpt                        .exe

909 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:08:54.83 ID:+2pQJ5Nn.net
任意コード実行できるらしいけど
https://www.youtube.com/watch?v=2ethDz9KnLk

910 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:18:23.69 ID:Bs5hqJRM.net
定期的に蓮コラとかのグロ画像を吐き出すモデルとかw

911 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:21:15.38 ID:jtYbkl+H.net
>>909
それはpickleの脆弱性ですね

Automatic1111では(少なくとも直接は)pickleは使ってない
hlkyでは使ってる
コード追ってないけどckptやTexutual Inversionみたいに第3者のデータロードするところで使ってるのかな?

912 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:25:44.05 ID:jtYbkl+H.net
あ、多分だけどhlkyはTexutual Inversionの処理中に使ってる
なので、悪意があればどんなコードでもTexutual Inversionのbinファイルに入れて、実行させることができる。簡単に。

かなり危険だね

913 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:26:26.09 ID:iy9wmgZ9.net
人柱待ちと思ったけど
こんな訳わからんの開く情弱はさすがにいなかったか

914 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:29:42.36 ID:/68wjNaM.net
colabならセーフ

915 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:33:53.14 ID:xbt73biT.net
訳わからんのですまんかったな
見なかったことにしてくれ
ライブラリがエロ禁止だしこうするしかなかったんや

916 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:35:45.81 ID:RrhFpxY2.net
いやまぁ、李下になんたらw
片山祐輔がまんまこのパターンだったのは有名なので
https://livedoor.blogimg.jp/zeropasoakita/imgs/c/d/cd33d99f.jpg

917 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:41:29.44 ID:jtYbkl+H.net
ウィルス配布は普通に犯罪なので、こんな簡単にIPアドレスたどれるサイトで配布なんてしないと思うけど
どうだろう

手間を掛けて配布してくれたのをウイルス扱いとか気分が悪いだろうから、安全な方法で配布できるようにならないもんかな

918 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:46:14.18 ID:zc8A7EjE.net
前半をグレッグ先生とartstation hq、後半をミュシャ先生とD&Dキャラが担当
https://imgur.com/totT2jG.png
前半をミュシャ先生とD&Dキャラ、後半をグレッグ先生とartstation hqが担当
https://imgur.com/tZtodBa.png
ミュシャ先生が強すぎるので、3割までにしていただいた。
https://imgur.com/ulCqM5y.png
2割までにしていただいた。
https://imgur.com/Fjf82md.png
一番最後のプロンプトはこちら
prompt:
full body of griffin, (((intricate human hands fingers))), modern style, [greg rutkowski:0.2], [alphonse mucha::0.2], [d & d character::0.2], [artstation hq:0.2], gradient white to gold, in front of an urban background, digital painting, concept art, smooth, sharp focus illustration
negative prompt: ((((mutated hands and fingers)))), (((portrait)))
prompt editing楽しいな!

919 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:48:12.38 ID:R5jx9mbg.net
実際のところembeddingsの小さいbinファイルもckptファイルと同じで
中身は圧縮されたpickleファイルなんで、変なのを読み込むとローカルでPythonの何かしらのコードが実行されるようになってる
特にtorch使ってこういうファイルをロードする時に何の対策もない
4chanあたりに無害化か検出かするコードが転がってたはずだけどどっか行った

920 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:49:00.02 ID:YIi8903f.net
重み付けとネガティブでかなりピンポイントで描いて欲しいところを指示できるようになってきてるね。
1111ありがたや。

921 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:51:38.04 ID:RrhFpxY2.net
ちなみに片山はtorに海外串組み合わせた上でレス代行利用ね
当時の2chの代行スレはtorも海外串も素通しというか、そのための代行だったので

922 :名無しさん@お腹いっぱい。:2022/09/18(日) 20:57:07.38 ID:o6kglf5O.net
>>889
スカートで格好良いのはvictorian(ビクトリア朝風)とか時代入れるのもありかと

923 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:07:48.65 ID:R5jx9mbg.net
>>911
AUTOMATIC1111でもembeddingsの読み込みのところとかでtorch.load()を使っててコイツがpickleを単純に取り込んでそのまま展開してる
なんで自分で事前に中身を見ないと今のところどのフォーク使ってもやられる

924 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:17:39.66 ID:Bs5hqJRM.net
そろそろウイルス埋め込むバカが現れるかもしれないな
地味にAIを憎んでるやつ多いしな

マイニング専用PC作ったみたいに
AI作業専用PC作ったほうが良さそうか

925 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:23:25.90 ID:YIi8903f.net
まあ、gitとかfaceとかで展開してないのは触らない方が良いかなって感じで
あとはcolabあたりで様子見るか。

926 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:26:57.56 ID:R5jx9mbg.net
現状はモデル配布もTIの学習結果の配布もほぼexeを配布してるに等しい状況
野良配布が危ないのはもちろんだが、huggingfaceでもコードが紛れてるかの確認なんてされてない

なのでどうしても使いたいなら中身をpickletoolsあたりで確認するか、colabで動かすのをおすすめするよ
4chanの昔のスレで案内されてた対策ツールが引っ張ってこれればそれをお勧めできたんだが

927 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:34:39.85 ID:iy9wmgZ9.net
EmadがじつはAIアンチ過激派でSD1.5に爆弾仕込んでたら面白い

928 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:50:23.21 ID:+2pQJ5Nn.net
実在の人物とかは[]で括るときれいになったりするのか
https://i.4cdn.org/g/1663505297949032.png
https://boards.4channel.org/g/thread/88672124#p88673549

929 :名無しさん@お腹いっぱい。:2022/09/18(日) 21:57:23.78 ID:jtYbkl+H.net
>>924
Dockerにするのがシンプルでいい気がする

sandboxieとかサンドボックス化ソフトで、プログラム別にアクセスできるリソースを制限するとかもできるけど

930 :名無しさん@お腹いっぱい。:2022/09/18(日) 22:53:36.30 ID:5XcX3qoD.net
1111の最新って、大規模画像のオプション--optなくなったんか
地味に痛てえ

931 :名無しさん@お腹いっぱい。:2022/09/18(日) 22:56:35.59 ID:+2pQJ5Nn.net
更新されてないだけ?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Troubleshooting

932 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:02:30.09 ID:96DA7HV0.net
geforceが当たり前な雰囲気だけど、radeonで動かしてる人いる?
使用感知りたい

933 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:24:58.98 ID:FHuRcgpF.net
M1 MAXがコスパ的にもサイツヨ

934 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:30:34.99 ID:cACGjife.net
M1 Max桁違いに遅いから使いたくはないけど中古で割と高く売れるからそういう意味じゃコスパいいかも
Web系開発99%、ゲームやらない、3Dやらない、AIやらないならMacがいいかもね

935 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:33:33.13 ID:5XcX3qoD.net
>>931
AUTOMATIC1111/stable-diffusion-webui/wiki/Features
ここなんだけど低VRAMの人向けの上には
大規模画像を作りたい人用の--optに関して書いてあったけどそれがなくなって
低VRAMの人にも--optをお勧めする項目があったんだけどそれも消えちゃってる。機能自体が消えた疑惑

936 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:37:26.91 ID:+2pQJ5Nn.net
え?

--opt-split-attentionって書いてあるよね?何か勘違いしてるわけ?

937 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:37:50.13 ID:YIi8903f.net
colabの1111、連続で出すと出力完了後に走らなくなっちゃうのは何がマズイんだろう。
グリッドが悪さしてるのかな。

938 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:46:42.21 ID:RrhFpxY2.net
gridはローカルでもめっちゃ重い、4M以上はjpgチェック入れないとpngだし
いっぱい出すときは外した方がいいような

939 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:51:05.43 ID:5XcX3qoD.net
>>936
昨日更新のトラブルシューティングだとそれあるけど
935の4時間前の一般的説明のページだとなくなってる
自分で入れても今までより最大解像度が下がってるから、昨日かコマンドが変化してるんだと思う
何にしても情報ありがとう

940 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:52:16.52 ID:R5jx9mbg.net
bishojo figure/bishoujo figure
Nendoroidとまではいかないが強力な概念だな
まさに美少女フィギュアの物撮りっぽいものを出してくる
SD1.4
https://i.imgur.com/BGbMR2D.png
https://i.imgur.com/ylrdO1Z.png

941 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:52:28.39 ID:+2pQJ5Nn.net
あーそういう
https://github.com/AUTOMATIC1111/stable-diffusion-webui/search?q=opt-split-attention

942 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:54:33.85 ID:R5jx9mbg.net
新しいattention(例の速度2倍のヤツ?)の実装準備しててオプション変わったのかね
前のオプションに-v1を付けろと

943 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:55:51.86 ID:YIi8903f.net
>>940
この辺素体にしてimg2かけたら、2次でもリアル系でもどっちでも良さげなの出てきそう

944 :名無しさん@お腹いっぱい。:2022/09/18(日) 23:58:36.96 ID:/68wjNaM.net
>>937
colabかな?txt2img動かしたいだけなら結果画像表示させないようにすれば軽くなるよ
ui.pyのtxt2img_gallery周りコメントアウトしてけばとりあえずは表示されなくなる

945 :名無しさん@お腹いっぱい。:2022/09/19(月) 00:04:31.58 ID:hal4Iqhj.net
いやコメントアウトよりvisibleなんて便利な引数があるじゃん
こっちFalseにしたほうが賢いな

946 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
Windows10のDockerでちょっとはまってたので一応共有します。

・ プログラムと機能>Windows機能の有効化または無効化で以下を有効化
・ Linux用Windowsサブシステム
・ 仮想マシンプラットホーム
・ Docker desktopをインストール

基本Dockerが使えるようになります。(手順レベルではなく項目なので詳細はググるなどで)

★Insider previewは不要  Windows10 H21H2でOK(H21H1はNG)
★CUDAドライバも通常のnvidia driverインストールで入っているはずなので特に不要(入れても無害と思われる)

ずっと動かず悩んでいた原因、Windows 10がH21H1のままだったこと。
Windows updateで最新版なので最新だと思いこんでいましたが、H21H2はなぜか出てこなくなることがあるそうです。

後は、以下の2行だけで起動し環境も汚しません。
git clone https://github.com/sd-webui/stable-diffusion-webui.git
.env_docker.example をコピーして、.env_docker に名前を変える。
docker compose up

バグかな?と思ったのが、models\ldm\stable-diffusion-v1\model.ckpt を事前に配置していても、改めてダウンロードします。
★ckptをダウンロードした後、docker image内にモデルを保存し、上記のmodel.ckptはシンボリックリンクにされてしまう(windowsからはただの0バイトファイルになる)
 ので他とmodel.ckptを共有している人は注意です。

947 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
てにをはがメチャクチャで恥ずかしい・・・。まあ分かると思うのでそのままで

948 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>939
オプションを受け取る処理は残ってるから多分見間違いか何かじゃないかな
wiki/Featuresの履歴をさらっと見た感じ元からoptの記述はなかったっぽい
https://i.imgur.com/5jjWkVA.jpg
https://github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/shared.py

949 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>946
dockerはわりとdocker-compose.ymlのフォルダ指定がバグることあるから
相対パスがダメだったら絶対パスにするといいかも
- .:/sd

- 'D:/_docker/sd:/sd'

950 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
だんだんCG板の範疇を超えてきてるなw

951 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>949
ありがとうございます。
ちょっとやり直すと時間がかかるので次回試してみようと思います。

なお書き忘れましたが、Windows/WSL2/Docker と 素のWindowsでのSDの性能はほぼ同等でした。

2080Ti Prompt: girl seed:3107511606 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_euler_a
3回実行 
 docker compose up:  5.72秒、5.88秒、5.71秒
 webui.cmd 5.79秒、5.71秒、5.91秒

952 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
プログラム的な板に移るのも手かもしれないけどそれはそれで怒られそう

953 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
CG系ツールのインストール手順と考えればCG板でも問題はないかと
ちなみにうちはAUTOMATIC1111用のDockerfileを作ってDockerで動かしてるけど、webui.pyを起動する時の引数に --listen オプションを指定しないとホストPCからのアクセスができないことに気付かなくて一日近く悩んだからみんなも気をつけるんだぞ

954 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
>>952
環境整えるまではソフトウェア板の範疇でもあるしな
まぁくくりはCGで問題ない。作りたいものを誘導するとなれば、エロOKの「お絵かき・創作」だってありだわな。もうスレはあるけど(笑)

Midjourney】AIエロ画像情報交換【StableDiffusion
https://mercury.bbspink.com/test/read.cgi/erocg/1662132381/

955 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
こんなスレだっけってテンプレ見に行ったら
充実というかリンク集の分野が広すぎてもう訳が分からなくなってるという

956 :名無しさん@お腹いっぱい。:2022/09/19(月) 02:14:14.20 ID:1rTVkjiO.net
相対パスだけでインストール出来るautomatic1111
https://note.com/uunin/n/n725ae4601264

957 :名無しさん@お腹いっぱい。:2022/09/19(月) 04:23:08.13 ID:S87M/aqO.net
>>932
RadeonはLinux実機でしか動かない(仮想も不可)
Stable Diffusionリリース前に買ったから仕方ないけど
GeForceにすればよかったと後悔してる

958 :名無しさん@お腹いっぱい。:2022/09/19(月) 06:11:36.04 ID:oMaMftav.net
新しいモデル試したいけど
DL面倒くさいなぁ
https://rentry.org/yrpvv

959 :名無しさん@お腹いっぱい。:2022/09/19(月) 08:14:49.99 ID:UhaIqsP6.net
既出モデルばっかりやんけ
あと違法かは分からないけど非公式のUPやんけ

960 :名無しさん@お腹いっぱい。:2022/09/19(月) 08:28:42.02 ID:DKWWZoBK.net
torrent使う意味が分からん……

961 :名無しさん@お腹いっぱい。:2022/09/19(月) 08:40:49.91 ID:c8lcej0A.net
でかいファイル転送するのにtorrentはうってつけ

962 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
「これからaiやりゅ!だからpc買っちゃうのっ!!だって、ろーかる?でいっぱい画像作りたいんだもん!あとあと、いろんなモデル?とかいうのを試してみたいの!」
って人には性能的にWindowsとMacどちらが良いのでしょう
SDや派生モデル使う分には推薦されるgpuも3060〜3090tiの順に性能の良し悪しが決まってくるのでしょうか?

963 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
知識がないけど新しい事をしたい!
→シェアがでかい方、つまりwindowsにmac購入と同じ金額を投入しておけ

964 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
ありえないMac候補に入れてるのggrksって感じ

965 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
どう考えてもWindows。
GPUは今のところはメモリが命なのでRTX30で考えると

RTX 3090 Ti>=RTX 3090>RTX 3080 Ti>=RTX 3080 12GB>RTX 3080>RTX 3060

3070シリーズはVRAMが8GBしかないので、回避が吉。
ゲームには良いんだけどね。

966 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
アップスケール用
https://upscale.wiki/wiki/Model_Database

1111版ならESRGANフォルダに入れると使えるようになる

967 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
promptとseed固定してstepの値を上げながら連続で10枚くらい出力させる方法ってありますか?

968 :名無しさん@お腹いっぱい。:[ここ壊れてます] .net
1111なら、一番下のscriptからx/yマトリックスでGo

969 :名無しさん@お腹いっぱい。:2022/09/19(月) 09:53:35.19 ID:bxZyj+QH.net
>>962
AIやるなら、Winodws(またはLinux)かつ、nVidia必須と考えていいと思います。(関係ないけど3Dも同じ)

性能はざっくり 3090 4秒> 3080 , 3070Ti , 2080Ti 7~8秒 > 1080 30秒 > 970 80秒 みたいな感じで、

https://rentry.co/zqr4r

Macは性能的に以下のようなレベルですし、セットアップなどの情報もWindowsより少なく苦労が多いと思います。

M1 Pro (2021 Macbook Pro) 150秒
M1 Max 90秒
M2 (2022) 90秒

今後改善されていく可能性はあると思いますが、nVidiaもまだtensorコア最適化されてない状態で性能向上の余地があります。
何か別の用途(iphoneアプリの開発で使うとか)でMac必須ということでなければWindows/nVidiaが無難です。

970 :名無しさん@お腹いっぱい。:2022/09/19(月) 09:57:52.40 ID:Rdr4KLSX.net
>>968
ありがとうございます
導入することろからやります…

971 :名無しさん@お腹いっぱい。:2022/09/19(月) 10:13:39.51 ID:Ea99rQw/.net
>>969
出かけてる間とか寝てる間にやるって書き込みの意味がわからなかったけど
Macみたいに時間がかかったら仕方ないわw

972 :名無しさん@お腹いっぱい。:2022/09/19(月) 10:40:53.16 ID:QVtN3v8H.net
ワッチョイあり賛成
最近総合スレ機能してないし、次スレワッチョイにする雰囲気になってた

973 :名無しさん@お腹いっぱい。:2022/09/19(月) 10:43:57.13 ID:EtU/jpOk.net
あっちが先にワッチョイになるとこっちに来るって展開もありそうだしなぁ

974 :名無しさん@お腹いっぱい。:2022/09/19(月) 10:56:33.68 ID:aBeRAYMh.net
ここの奴らがあっちで吠えててうぜーから次からワッチョイIPありで立ててくれ
厄介者押しつけといて自分達はID変えてお楽しみか?陰険な奴しか居ねーのな
CG板の連中は

975 :名無しさん@お腹いっぱい。:2022/09/19(月) 10:58:19.56 ID:SUQqWGBT.net
うわ、それは嫌だな……でもありそう

976 :名無しさん@お腹いっぱい。:2022/09/19(月) 10:59:41.40 ID:p2wdyU6Y.net
IPありいいね
ワッチョイなんてどうせ一部の層は偽装できるし
いくらでもやるからねぇ

977 :名無しさん@お腹いっぱい。:2022/09/19(月) 11:01:22.17 ID:p2wdyU6Y.net
ここだけ普段静かで常に荒れずに伸びてるなのがウケる
あっちも荒れてるしそろそろ内部分裂しそうで不安だわ

978 :名無しさん@お腹いっぱい。:2022/09/19(月) 11:05:18.45 ID:ozYxEkgC.net
今残ってるのはアフィ勢力メインじゃないだろうが
はい分かりました、これからみんなで仲良くAI研究して使っていきますじゃつまらないんだろうな
荒れる方が連中としては面白い

まぁあっち荒らされてる時点でもうそういう話も出来なくなるからそれも狙いなんだろうなと思うわ

979 :名無しさん@お腹いっぱい。:2022/09/19(月) 11:15:39.69 ID:uknwY6cO.net
M1 mbpの16G使ってるけど生成で遊べてるよ
Pythonどころかプログラム知識ゼロでもModelの切り替え位は簡単だし、
遅いと言っても無料colabの2倍ちょいの体感速度で走らせられてるので速度も気にならない
ただしネガティブプロンプトやi2i、アップスケーリングなどは今後誰かが分かりやすく解説してくれるのを期待するしかないし、
NSFWフィルター無効にしてるのになぜか黒塗り画像が生成される事があったりもする
AI画像生成のためだけにMacからWinに鞍替えする必要は全く無いと思うよ(もちろん個人の感想)

新規の人ならWindows買っとけ

980 :名無しさん@お腹いっぱい。:2022/09/19(月) 11:24:18.65 ID:iQaVFpuD.net
どうせツール使いこなせなくて嫉妬してる奴がここ叩いてるだけだろ

981 :名無しさん@お腹いっぱい。:2022/09/19(月) 12:04:01.69 ID:UmW/DjEu.net
剣士に剣を持たせるのはなかなかつらいが、陸上選手に走らせるのはまあまあの結果だった。
やはりサンプル数の多そうな職業は強いか。

https://imgur.com/mN4N9vD.png
https://imgur.com/pydgoxj.png

982 :名無しさん@お腹いっぱい。:2022/09/19(月) 12:08:38.27 ID:P4XzybRL.net
同じツールの上手な使い方を競う様な遊びだったのが徐々に出来上がった絵での評価にシフトしていってるように感じる

983 :名無しさん@お腹いっぱい。:2022/09/19(月) 12:13:21.35 ID:P2lYLSRs.net
>>957
やっぱ標準から外れるとイマイチかぁ
同じVRAMでも2割くらい安く見えるんで調べてたけど難しいね

984 :名無しさん@お腹いっぱい。:2022/09/19(月) 12:36:46.03 ID:6p3fZOgO.net
https://twitter.com/EMostaque/status/1571634871084236801

Greg Rutkowskiその他のアーティスト名が、StableDiffusionで機能しているのは、
LAIONデータセットのせいではなく、言語を教えるCLIPが原因
(CLIPがどういう学習をしているかはクローズドなので分からない)

なので、LAIONからあるアーティストを削除しても、そのスタイルは残ります。

---
よく分からないけど、とりあえずCLIPとDiffusionの学習がなにか俺が理解できていないことがわかったw
(deleted an unsolicited ad)

985 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:03:47.95 ID:BbUmzw+A.net
>>972
数百レスの間>>493以外誰もワッチョイつけようみたいな話ししてないのに賛成とか言い始めるの怖い

ワッチョイぐらいなら…と思ったけど失速させる意図しか感じないので反対

986 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:05:52.69 ID:LTcrQRpu.net
例えば学習した文章に「りんごは赤い」、学習した赤いものの画像に「赤色の〇〇」とあればりんごのイラストを要求されたときに形はともかく色が赤くなる、ということ

987 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:10:46.86 ID:ih1vFAAo.net
自分もワッチョイありを支持する

988 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:13:52.52 ID:3CsEQOgg.net
はい

【Midjourney】AI画像生成技術6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1663560800/

989 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:21:03.99 ID:BbUmzw+A.net
>>809
スレ変わる前にせっかくだから記録しとく
SMAPメンバーだと何故か草彅の顔が強いみたいで
5人で顔合成する企画で作られた顔も草彅感が強い
https://i.imgur.com/mL51Rsx.jpg

だからか"草なぎ剛"を指定せずとも"SMAP"と入れるだけで草彅っぽい人が出力される

学習されてるかわからないけどキムタクとかを出したいときにはネガティブに草彅を入れたほうがいいかもしれない

あとsmap単体だと複数人のアー写みたいなのが出がちだから構図だけなにかに使えるかも

990 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:38:36.73 ID:6p3fZOgO.net
○今日のEmadさん in Discord

Emad SD使う人は数ヶ月で1億人行くと思う。1日10億枚以上画像生成するだろう

そんなアート描きたい人いる?

Emad Canvaは7500万ユーザーいるし。SDはアートのモデルだけじゃないし。PowerPointキラーも来年は考えるし

新しいCLIPになってVRAM必要量は上がる? ※V3でCLIPがViT-LからViT-Hになって言語理解が良くなる

Emad そこは上がるけど他の改善で10倍以上必要量は下がる
Emad 今から100倍以上コストを下げる ※なんの?APIの料金?

(そんなユーザー増えたら)サーバーがすごいことにならない?

Emad 今も学習は4000台のA100クラスタで、生成サーバーは一桁多い。

SD V2は16GB VRAMが必要?

Emad 今より50%以上必要。でも2倍速くて、512x512ではなく1024x1024で学習させるから・・・

24GBもいるってこと?

Emad 今のV1の最小が3.1GBなので、V2は最小が5GBという意味
   V2は1024なので学習が大変で時間がかかる。 CLIP-G次第では768に落とすかもしれない ※CLIP-G?Hではないんだ?

Emad 後、V1ではXかY軸は512にして、アップスケールしてください。それ以上には対応していません。

991 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:43:56.82 ID:DKWWZoBK.net
需要があるか無いかわかんないもので新スレ汚すのもアレなんで、今のうちに投下。

colabの1111で、ckptを使い分けたい時のためにckpt読込を整理した。
とりあえず、colabでwaifuとかTrin使いたい場合はこれで上書きすれば走る。
変数とセレクタは適当なんで、好みで変えてちょ


#@title CKPT選択
CKPT = 'SD1.4' #@param [ "SD1.4", "Waifu", "Triant60000", "Triant95000", "Triant115000"]
if CKPT == "SD1.4":
#get a token from https://huggingface.co/settings/tokens
#@markdown ##### Normal 1.4 model TokenSet
user_token = "" #@param {type:"string"}
user_header = f"\"Authorization: Bearer {user_token}\""
!wget --header={user_header} https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt -O model.ckpt
elif CKPT == "Waifu":
!wget https://huggingface.co/crumb/pruned-waifu-diffusion/resolve/main/model-pruned.ckpt -O model.ckpt
elif CKPT == "Triant95000":
!wget https://huggingface.co/naclbit/trinart_stable_diffusion_v2/resolve/main/trinart2_step95000.ckpt -O model.ckpt
elif CKPT == "Triant60000":
!wget https://huggingface.co/naclbit/trinart_stable_diffusion_v2/resolve/main/trinart2_step60000.ckpt -O model.ckpt
elif CKPT == "Triant115000":
!wget https://huggingface.co/naclbit/trinart_stable_diffusion_v2/resolve/main/trinart2_step115000.ckpt -O model.ckpt

992 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:44:39.82 ID:DKWWZoBK.net
あ、字下げ飛んだw
if文の下は自分で段落下げてw

993 :名無しさん@お腹いっぱい。:2022/09/19(月) 13:50:53.85 ID:6p3fZOgO.net
読んでる人いないかもしれないけど一応訂正というか補足

>>990
> Emad 今も学習は4000台のA100クラスタで、生成サーバーは一桁多い。

この部分は、「多いから大丈夫」ではなく、(サーバーがたくさんいるから)「成長が遅くなっている」という意味でした。

We have monstrous distributed servers
That's why we have slowed down growth.
As a reminder our core training cluster is 4,000 A100s and our inference cloud lined up is an order of magnitude larger

994 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:03:41.09 ID:Ea99rQw/.net
>>990
メモリーが減るのは512x512で
1024x1024でやりたいならメモリー50%マシか

わいの8GBグラボは捨てて、最低でも12GBのやつ買わないとな

995 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:05:16.93 ID:UmW/DjEu.net
このスレも終わりなんで、AUTOMATIC1111版stable diffusion webui のsingularity image生成・実行用シェルスクリプトを置いておきますよ……
https://github.com/oct1971/singularity_stable_diffusion_webui

996 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:21:00.64 ID:l9UX8gE2.net
AIで生成した画像を自作っぽく振る舞うやつはみんなクズ

997 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:31:26.33 ID:DKWWZoBK.net
メモリだけで考えればラデが良いんだけど、そもそもcuda走らんからなあ。

998 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:34:03.88 ID:6p3fZOgO.net
>>995
面白そう&便利そうだけど、Docker使ってるところに、Singularityとかlibnvidia-container-toolsとか入れたら
2,3日それで潰れそうだから、試す元気がないw  (問題ないかもしれないけど勉強する気にならない・・・)

999 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:39:44.38 ID:xOJ14pvO.net
>>981
スポーツ選手のつもりでathleteと入れると剣士っぽい人がけっこう出てきたよ
2枚目の年齢層でいつものあの人だってわかるの面白いな

1000 :名無しさん@お腹いっぱい。:2022/09/19(月) 14:41:43.06 ID:xOJ14pvO.net
1000ならいいプロンプトが見つかる

【Midjourney】AI画像生成技術6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1663560800/

1001 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 1001
283 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200