2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【StableDiffusion】AI画像生成技術11【NovelAI】

1 :名無しさん@お腹いっぱい。 :2022/11/24(木) 17:36:37.21 ID:FYS69E540.net
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合20【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1669092302/
AIイラスト 愚痴、アンチ、賛美スレ part14
https://mevius.5ch.net/test/read.cgi/illustrator/1669117382/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

前スレ
【StableDiffusion】AI画像生成技術10【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1667401816/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

2 :名無しさん@お腹いっぱい。 :2022/11/24(木) 17:39:00.20 ID:fXDhc5/s0.net
いちおつ

3 :名無しさん@お腹いっぱい。 :2022/11/24(木) 17:41:22.97 ID:rzqXOupMM.net
におつ

4 :名無しさん@お腹いっぱい。 :2022/11/24(木) 18:27:05.59 ID:1/cKPyb5d.net
さんおつ

5 :名無しさん@お腹いっぱい。 :2022/11/24(木) 19:31:11.05 ID:AaLluf57M.net
よんおつ

6 :名無しさん@お腹いっぱい。 :2022/11/24(木) 21:24:32.12 ID:B9+vlfbs0.net
ごおつ

7 :名無しさん@お腹いっぱい。 :2022/11/24(木) 21:24:49.81 ID:yLX+AEPI0.net
HOS

8 :名無しさん@お腹いっぱい。 :2022/11/24(木) 21:26:38.86 ID:VejD+MZN0.net
(乙 :1.5)

9 :名無しさん@お腹いっぱい。 :2022/11/24(木) 21:32:31.42 ID:ayb4OeRCa.net
前スレの初期並みにひどい生成画像見たら笑い止まらん
なんでああなる

10 :名無しさん@お腹いっぱい。 :2022/11/24(木) 21:38:35.83 ID:skC+Y0Ly0.net
ver0.2に退化しとるやないか

11 :名無しさん@お腹いっぱい。 (ワッチョイ e743-zHbW):2022/11/24(木) 22:08:59.84 ID:j1v5zf/30.net
NSFW全滅だとアート系のヌードとかもダメなるってことだから、かえって使いにくいような気がするな2.0

12 :名無しさん@お腹いっぱい。 :2022/11/24(木) 23:02:59.37 ID:NIldVpeK0.net
なんらかのエラーだって言ってくれ
発売日を楽しみにしてたゲームがとんでもないクソゲーだった時の気分だ

13 :名無しさん@お腹いっぱい。 :2022/11/24(木) 23:05:47.26 ID:1Ym3pmrZa.net
sd2はインペイントを考えすぎてるのかな
ぴったり人が重なるレベルで同じポーズばかり出る
あと複数人は相変わらずダメ
「2人の写真、ひとりは赤髪ロングヘア、もう一人は青髪ショートヘア」みたいなのはできない

14 :名無しさん@お腹いっぱい。 :2022/11/24(木) 23:14:07.62 ID:wEoLBVFe0.net
何が得意で何が苦手かはまだ追求されるだろうし、数日か数週間もすればSD2をベースにしたやつも色々出るだろ
この3ヶ月の密度が高すぎたせいもあろうけど生き急ぎすぎてもしょうがないぜ

15 :名無しさん@お腹いっぱい。 :2022/11/24(木) 23:59:35.53 ID:1Ym3pmrZa.net
SD1.5までで使えた「kawaii, loli face」は使いものにならない
512x512以上の解像度に設定すると劇遅だから512x512以外は使い物にならない
txt2img.pyのデフォルト値を変えといた方が使いやすい(--step 20、--n_iter 1、--n_samples 1、--n_rows 5、--seed -1など好きなように)
wm_encoder系はいらないからコメントアウトした方がいい(やらなくていい)
1111用のxformersはエラー出て使えない
シード固定ガチャの将来性は高そう
歩留まり悪い

masterpiece, best quality, photo of a girl, japanese girl in kyoto, dark hair, detailed hair, beautiful hair, beautiful face, detailed eyes, full body shot, highly detailed, sharp forcus, cinematic lighting, photoreal, photoshoot, photograph, realistic photo, dynamic pose
https://i.imgur.com/JoULB59.jpg

16 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:11:20.37 ID:zoUnh9iDM.net
うーん…

17 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:17:11.37 ID:UkQwvCre0.net
これ見る限り、NSFW以外でも2.0は産廃感あるんだけどw

https://www.reddit.com/r/StableDiffusion/comments/z3ferx/xy_plot_comparisons_of_sd_v15_ema_vs_sd_20_x768/

18 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:24:41.91 ID:yuFMQQyca.net
やっぱ各所から色々詰め寄られてるんだろうか
今まで自由すぎたのかな

19 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:29:42.45 ID:lcMrx8UN0.net
NSFWデータが人体の学習度に貢献してた説

20 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:31:04.41 ID:yuFMQQyca.net
あ、それはありそうw

21 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:32:32.12 ID:CBv5zFmJ0.net
ポリコレ民に汚染されてそう

22 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:40:13.95 ID:dJXl8TLMd.net
>>17
nsfwだけじゃなくてGreg Rutkowskiみたいなまともな画像を出すときの定番だった現代アーティスト系の学習も排除されてるんだな
これは今までのSDみたいな使い物にはならなさそうだわ……

23 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:44:22.10 ID:ilqct2n/M.net
でもこんだけ配慮?されてるモデルだし良いもの出したら企業が使ってくれそう

24 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:47:52.53 ID:Yjbt1F/d0.net
AI絵師オワコンじゃん

25 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:49:38.20 ID:UD51IX8K0.net
どうせなんらかのフォークや制限解除版が出てくるだろ
公式には対処したってポーズであとは自己責任

26 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:54:07.01 ID:Yjbt1F/d0.net
「イラストやデザインの仕事はとても退屈。芸術的かどうか以前に君たちは道具(ツール)だよ。」

https://i.imgur.com/3nTGakN.png

ハゲワラ

27 :名無しさん@お腹いっぱい。 :2022/11/25(金) 00:59:54.70 ID:y0pHcg2vM.net
まあこれから色々発見されるでしょうw

28 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:02:21.40 ID:XBMrIrUna.net
企業安心して使えないよ
ピカチュウとかミッキーマウスとか権利あるのも普通に出るのは変わらずだから

クリップ変えたのしっぱいじゃないか?
photo of a Pikachu and a Mickey Mouse
https://i.imgur.com/0iLVTsA.png

29 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:25:20.08 ID:y0pHcg2vM.net
あらまあ
何もかも中途半端な感じかねえ

30 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:29:14.58 ID:IXPAWFhi0.net
結局権利や倫理的に怪しいソースを使ってさらに過剰学習という名のパク…
までしないとまともな絵は出ないのが現実だったってことか??
それらを全部排除すると要求スペック爆上がりなのにこのザマと

31 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:30:17.79 ID:y0pHcg2vM.net
別に俺アンチじゃないんだけどまじで出てくるものが微妙すぎて泣きそう

32 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:52:04.57 ID:d5So+DHG0.net
まあ宇宙開発とかでもロケット打ち上げ失敗とかしながら発展してるんだし
あれこれ分析して次に活かしてくれるでしょ

33 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:56:34.89 ID:Iph0KQo3a.net
WebUIってネガティブもトークン数えられてるのか?
プロンプト入力欄の右側に数字が出てあって
ポジティブの方になんらかプロンプト書いてる時はどんどん数字が増加していくけどネガティブ書いてる時には動かないのが俺の環境なんだけど
hentai diffusionのドキュメント見てたら例のクソ長ネガティブしか入力してないのに右側の数字が120とか出てあって
どっちが正しいのやらよく分からん

基本的に77(75)トークン越えてプロンプト書いたら制御しにくくなって結果絵が崩壊し始めるからできればネガティブはカウントされて欲しくないんだが

34 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:57:45.19 ID:gDYQOMhaM.net
>>32
コンプラ超えてこれだと次はもうブレイクスルーを待つしかない気がしてきた

35 :名無しさん@お腹いっぱい。 :2022/11/25(金) 01:59:26.25 ID:gDYQOMhaM.net
いやこの考えを捨てよう…俺の中のネガティブプロンプトだ

36 :名無しさん@お腹いっぱい。 :2022/11/25(金) 02:03:57.51 ID:71F/gUw10.net
結局の所強力なタグ付けとデータ量を持つ📦が最強って事でおk?

37 :名無しさん@お腹いっぱい。 :2022/11/25(金) 02:06:33.81 ID:Iph0KQo3a.net
teddy bear sexが1000枚もない雑魚サイトがイキってんじゃねえぞ
teddy bear sexをよこせ

38 :名無しさん@お腹いっぱい。 (ワッチョイ 068e-ihPV):2022/11/25(金) 05:47:35.21 ID:knKsz8Lv0.net
>>33
まぁ設定次第だけど、旧プロンプト解釈使用のチェック入れてれば75制限はワーニング出して特殊な処理になる
75超えて崩壊なんて言ったら中華元素法典のクソ長ネガティブ入れたら全部崩壊してるはずだろう

39 :名無しさん@お腹いっぱい。 :2022/11/25(金) 06:38:44.28 ID:5FhaZ6LUa.net
普通に考えればポジネガそれぞれ75ずつじゃないの?

40 :名無しさん@お腹いっぱい。 :2022/11/25(金) 06:50:19.24 ID:DS4ZlBZf0.net
エロはある程度画力ある絵orまとまった構図の良質なデータセットなのに
それを全部切り捨てたらこうなるという例だった
やっぱり、エロは正義

41 :名無しさん@お腹いっぱい。 :2022/11/25(金) 06:51:27.98 ID:hv5tOAtqr.net
これから始めようとおもうのですが、過去の1.5を使うことって出来ますか?最新の2しか利用出来ないんでしょうか

42 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:08:45.43 ID:VUQwVeCk0.net
今って前の環境のwifeがないくらいの状態ってこと?
ハードは進化してるだろうけど使うソフトがまだ整ってないから上手くいかない的な

43 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:15:07.64 ID:Mw9+6wL00.net
グレッグさんが無効な上に激遅いな

cyber punk city landscape
https://i.imgur.com/lfuCl3p.jpg

ちょっと笑ってしまった
昔の画家の名前はまだ有効みたいだが

44 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:25:25.28 ID:CkexK3cS0.net
>>43
cyberpunk1990ぐらいな感じで笑う

45 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:47:23.93 ID:xHzY9mff0.net
>>41
ようこそようこそ1.5はここから落とせますよ(Filesのタブ)
https://huggingface.co/runwayml/stable-diffusion-v1-5

46 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:50:01.84 ID:KVz2Wsf10.net
2.0はまだ学習1週目とかそういうのではなくて?

47 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:53:52.45 ID:esLO5MY70.net
>>46
SD1.4+追加学習=>novelAI
だったことを考えると、まだ追加学習された例は出て来ていないみたいね

48 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:58:02.60 ID:PfnRH0Oq0.net
そもそもクリーンAIとしてはadobeの方が使われるだろうしなぁ
SD死んだか? 派生は作られ続けるだろうけど

49 :名無しさん@お腹いっぱい。 :2022/11/25(金) 07:58:44.61 ID:wg+DlTAla.net
これからは追加のデータセットを有料販売していくのが一般的な形になりそう
無料デフォルトでは低品質のものしか出せず、アーティストの許諾付きの奴やR18は各支援サイトで数千円払えって感じで

50 :名無しさん@お腹いっぱい。 :2022/11/25(金) 08:04:07.89 ID:DS4ZlBZf0.net
>>41
イラスト特化とか、エロ特化とか色々あるから
素SDで色々試したら用途に合わせたモデル探すといい
その次はDBとTIだ

51 :名無しさん@お腹いっぱい。 :2022/11/25(金) 08:38:18.32 ID:esLO5MY70.net
SD2.0ベースの二次元特化サービスで第二のnovelAIを狙っているとこ出てくるかもね

52 :名無しさん@お腹いっぱい。 :2022/11/25(金) 09:08:01.81 ID:x9mKQI2k0.net
TwitterとかでEmadが投稿してたみたいなリアルな山の俯瞰視点の画像みたいなの出せないの?

53 :名無しさん@お腹いっぱい。 :2022/11/25(金) 09:15:12.93 ID:BfX9X+hs0.net
CLIP部とUNet部とVAE部で各部だけ単独でGPUに載るようコードにmodl.to(device)追記して切り替えまくったら8GB VRAMでも動いたよSDV2
そのうちAUTOMATIC氏が対応するだろうけど悩んでいる人居るかもだから一応

54 :名無しさん@お腹いっぱい。 :2022/11/25(金) 09:25:46.52 ID:bMb48ghQM.net
ckpt に直接dreamboothかけて学習させたいが、そんなことって出来る?

55 :名無しさん@お腹いっぱい。 :2022/11/25(金) 09:27:12.57 ID:t04qozL20.net
直接は無理
必要な変換についての情報は過去スレにあったと思う

56 :名無しさん@お腹いっぱい。 (ワッチョイ a3e0-WU7/):2022/11/25(金) 09:41:09.12 ID:IXPAWFhi0.net
ダーティなことしなきゃまともな画像は生成できないってはっきりしちゃったのはなぁ
結局NAIみたいな路線しかないってことか?

57 :名無しさん@お腹いっぱい。 (ワッチョイ 4b5f-stRS):2022/11/25(金) 09:44:30.13 ID:Mw9+6wL00.net
2.0で一枚だけ山出せたけど、プロンプト追加してくと変なノイズになっちゃうな。それも何連続も、プロンプト最初に戻してもおかしいまま
ちょっと今のままだと使えないな
https://i.imgur.com/q2Or6ET.jpg

58 :名無しさん@お腹いっぱい。 :2022/11/25(金) 09:57:59.58 ID:0ojjgr/uM.net
nijiが大幅な正当進化を遂げたのにSDは酷えな

59 :名無しさん@お腹いっぱい。 :2022/11/25(金) 10:01:46.20 ID:5FhaZ6LUa.net
AI画像ってのはあらゆる画像を生み出せることに意味があるんだ
指が5本の人間のイラストでいいなら人間が描けばいい
4本や350本の指がある生物を描いたりする人間には出来ない発想こそAIの真髄なんだよ?

60 :名無しさん@お腹いっぱい。 :2022/11/25(金) 10:19:27.84 ID:x9mKQI2k0.net
お前が4本指350本指というものを思いつく時点で割と人間に思いつきうるものなんじゃない
あえてやらないだけで

61 :名無しさん@お腹いっぱい。 :2022/11/25(金) 10:25:06.20 ID:x9mKQI2k0.net
俺は超優秀なアシスタントを手に入れた気分だわ
資料集めにインスピレーションになんかきっかけになりうるアイデア出しなど時間がかかってやる気出ないことをひたすら押し付けている
それも非常に素早く気に入ったもののバリエーションも満足するまで出してくれる
ブレスト的に必要な物量がある程度の品質を保って高速で用意してくれてそれを人が利用するのが自分なりの真髄だと思うわ

62 :名無しさん@お腹いっぱい。 :2022/11/25(金) 10:42:39.67 ID:eVcxuPJO0.net
>>61
人は頑張って上手にかけるけど背景はだるくて仕方ないと言ってた知り合いがウキウキで背景やらせとるからハイブリッド絵師増えそうやな

63 :名無しさん@お腹いっぱい。 :2022/11/25(金) 10:46:41.49 ID:XBMrIrUna.net
履歴書が超優秀だったからアシスタント採用したら失敗した感じよ
ちょっと前までいたイチゴちゃんが経歴のわりに優秀だっただけに残念感が強い

64 :名無しさん@お腹いっぱい。 :2022/11/25(金) 10:52:47.32 ID:YkGcU6U10.net
SD日和ったなぁ
もっとグレーゾーンを突っ走って欲しかった
今やMJのほうがグレーだな

65 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:06:51.22 ID:KVz2Wsf10.net
Emad氏のツイートだとまとも?な西洋画出てるし実行環境か制御の問題かしらね

66 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:11:12.93 ID:Mw9+6wL00.net
昔の画家の絵画は出る 現代の作家と写真系が凄く弱くなった気がする

67 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:13:19.66 ID:OX7vSCh20.net
それはモデルの問題ってことなのかな
それならNAIみたいなのが出てきたら解決されそうだけど

68 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:15:33.23 ID:Yjbt1F/d0.net
https://twitter.com/hardmaru/status/1595808324066463747

こんなんで誰か飛びつくんか
(deleted an unsolicited ad)

69 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:35:09.91 ID:FhreTr9C0.net
MJはほとんど叩かれてないのを見ると
結局クローズドでコソコソやってた方が楽だし得なんだろうなと思う
バカ正直にオープンでやる方が損するし停滞するという
少なくとも今はまだ人類はAI研究の意味と意義を理解できる段階にはないからな

70 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:43:29.14 ID:PDVpzmKBa.net
へんに他企業がリリースする画像生成AIで倫理観の整理がされてしまう前にエグいのをオープンソースで出してしまってほしいが
コンプラで相当な時間割いてたからもう無理なんだろか
ポリコレ棒とかで叩かれまくってんだろか

71 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:52:18.91 ID:5FhaZ6LUa.net
なんだ、技術スレとか言いつつ自分でソースコードもいじれない無産だらけだったのか
結局AIが産まれようとどうしようと有能と無能の格差は永遠に埋まらないんだな

72 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:55:26.21 ID:XBMrIrUna.net
今頃気づいたのか。ここはインストール方法スレだからな

73 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:56:51.49 ID:PDVpzmKBa.net
まず>>1やスレタイを見たほうがいいと思う

74 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:57:11.34 ID:ka9Z7O1A0.net
>>68
こういうキャプテンフューチャーとかレンズマンみたいなSFアニメ最近見てないわ。

75 :名無しさん@お腹いっぱい。 :2022/11/25(金) 11:59:08.53 ID:Mw9+6wL00.net
技術スレなんだから俺はソースコード描きなおして改善した、という報告するならいいんじゃないかな
変な煽り入れるよりは

76 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:04:34.08 ID:FhreTr9C0.net
そもそもデータセットの問題にソースコードもなにもないという

77 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:04:46.85 ID:5FhaZ6LUa.net
オープンソースのプログラムは「フォーク」といって別のプロジェクトに分岐することができる
SD2.0があまり良くないならネットで呼びかけて人を集めてsd1.5を改造し直してnew SD2.0を作ることもできる
別に一人で作る必要はないしトップがプログラミングを出来ないやつでもいい
人を集めてプロジェクトをまとめればいいんだ

78 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:10:47.99 ID:OV0DPOgd0.net
>>77
だったら自分でやりなさいよ口だけの無産くん

79 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:25:15.04 ID:VUQwVeCk0.net
>>77
よし!まかせた!

80 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:29:16.93 ID:CZmbQDUN0.net
>>77
プログラミング初心者だけど参加できますか?

81 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:31:41.64 ID:UkQwvCre0.net
emadの話が出てるが、抜けた学習は野良頼みということらしいな
https://www.reddit.com/r/StableDiffusion/comments/z3r5c7/i_have_compiled_emads_talk_about_20_in_the_last/

82 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:32:47.87 ID:PfnRH0Oq0.net
定期的に人が増えてしょうもない荒れ方するよなこのスレ
二日くらい放置しとくと戻ってる

83 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:33:08.04 ID:MEOSg7ZYa.net
責任はとらん!お前たちが好きに作れ!ということか
結局そこは変わらんのかw

84 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:33:55.67 ID:MEOSg7ZYa.net
今日はnewSD2.0開発の創始者がお出ましだ

85 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:38:24.84 ID:YkGcU6U10.net
>>82
ID:5FhaZ6LUaが一人で煽ってるだけだよ
スルーすれば済む話さ

86 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:46:53.42 ID:PAOpMr+8r.net
ツールに対する細かい社会的な都合とかを無視したら、
「なんかいきなり退化してんなぁ……」としか思えんな
あまりにもクオリティの下がり方が残念過ぎる……

87 :名無しさん@お腹いっぱい。 :2022/11/25(金) 12:54:00.01 ID:KVz2Wsf10.net
すぺっこてきにはローカルきついだろうか

88 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:07:06.25 ID:yuW6LOrTd.net
こんなに超短時間で良くなってるのに物足りないと批判されるってヤバいと思う
まあこの人類の際限ない欲求を越えたときがシンギュラリティなんだろうな

89 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:13:34.04 ID:YkGcU6U10.net
>>88
そりゃいきなり将来性がなくなったからな
技術だけバラ撒いてあとはローカルコミュニティに丸投げっぽいし

90 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:14:35.47 ID:W5Qr3cl80.net
>>87
今のところ768x768は12GBで動くけど、それより下はメモリ配置やらなにやらやればできるかもって感じで書かれてるな(DBやNH等の拡張分は除く)
単純計算でもメモリは描画時のVRAM占有は2.25倍必要になるわな
とはいえ、SD1.4登場からのヶ月分のメモリ節約はそれなりに反映されてるから、SD1.4/1.5世代ほど余地は少ないとも言われている

91 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:41:12.84 ID:ZDlHw3Chd.net
>>81
好意的に解釈するならどうせお前ら好きに派生モデル作れるようになったんだから公式は万が一にも潰されないように身綺麗にしとくわってことかね

92 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:42:24.03 ID:lggB0l8h0.net
SD2.0は自分で使っていないのに判断は下せないかなと。
デモページ重すぎるのでローカルで使えるようになるの待ち

93 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:52:29.24 ID:OX7vSCh20.net
まだ何も触れてないので触ってから

94 :名無しさん@お腹いっぱい。 :2022/11/25(金) 13:54:37.29 ID:XBMrIrUna.net
昨日からローカルで使えるよ
ローカル=1111って意味なら使えないけど

95 :名無しさん@お腹いっぱい。 :2022/11/25(金) 14:40:51.99 ID:ubNDQNx20.net
隙間見て
a beautiful slavic vouge model girl
をデモページにかけた感じは密度上がって品質上がったように見えた

https://i.imgur.com/shBbFPI.png

96 :名無しさん@お腹いっぱい。 :2022/11/25(金) 15:04:54.29 ID:3S9UFjkn0.net
試してみたけど、たしかに高解像度でも崩れにくいし景色とかはとても綺麗だ
人物も中々良い
エロ目的だと云々はこれベースのエロモデルまてばいいんじゃねーのとしか
ただ、diffusers で使おうとしてもところどころバギーで直すのめんどくせぇ

97 :名無しさん@お腹いっぱい。 (ワッチョイ 4b5f-stRS):2022/11/25(金) 15:20:12.42 ID:Mw9+6wL00.net
なるほど高解像度のほうがきれいになってるね 512x2でやってたのがダメだったのか?

98 :名無しさん@お腹いっぱい。 (ワッチョイ 5701-+kmf):2022/11/25(金) 15:23:05.28 ID:PfnRH0Oq0.net
>>88
イラスト生成目的だとSD無印使う機会ないから良くも悪くもあんまりなにも
「超短期間で良くなってる」はMJとNAIと派生に対して思うことが多いな、ベースがSDなのは理解してるけど
なので性能というより「公開してること」が一番の強みのままかなぁと

99 :名無しさん@お腹いっぱい。 :2022/11/25(金) 15:27:54.98 ID:4+DheOfdM.net
MJはSDベースちゃうだろ

100 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:04:51.64 ID:KVz2Wsf10.net
>>90
厳しそうだにゃー

101 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:05:26.14 ID:KVz2Wsf10.net
MJは1部SD技術取り込んだとか何とか

102 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:21:26.79 ID:jp2E0qmt0.net
>>90
なるほどね
1,2年後には1024x1024をデフォにしたモデルが出てくるだろうから
そのときは18GBか24GBのGPUに買い替えないとあかんのだろな。金がかかる趣味だ

103 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:26:00.06 ID:04vPy7BcM.net
>>95
ドアップ正面顔はほんとAI強いぜ

104 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:26:14.73 ID:XBMrIrUna.net
文字が出るようになってるな。日本語プロンプトもいける

a beautiful slavic vouge model girl
a beautiful japanese vouge model girl
photo of landscape, mt.fuji, sunset, cinematic lighting, beautiful sky
photo of night view of tokyo, bird eye angle
photo of a beautiful girl eating ramen with chopsticks
photo of a biohazard mark
photo of Stop traffic sign
photo of clock
photo of calender
photo of credit card
photo of 京都
photo of おっぱい

画像多いからまとめてうpした。imgurがちゃんと?18禁扱いしてて笑う
https://imgur.com/a/Htrx37I

105 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:28:26.07 ID:VUQwVeCk0.net
ラーメンは食えないのかなるほど

106 :名無しさん@お腹いっぱい。 :2022/11/25(金) 16:30:48.53 ID:04vPy7BcM.net
>>104
なんか夢でみる景色みたいで怖いw

107 :名無しさん@お腹いっぱい。 :2022/11/25(金) 17:06:38.91 ID:ka9Z7O1A0.net
都市伝説で異次元に行くと文字が変とか言う、それっぽい。

108 :名無しさん@お腹いっぱい。 :2022/11/25(金) 17:29:40.76 ID:7tnQfzOy0.net
>>104
ラーメンみんなたのしそうw

109 :名無しさん@お腹いっぱい。 :2022/11/25(金) 17:30:33.43 ID:PfnRH0Oq0.net
>>104
台湾の雰囲気に似てるし、フォントやデザイン的にも中国の画像学習してる印象

110 :名無しさん@お腹いっぱい。 :2022/11/25(金) 18:45:37.21 ID:abL0COika.net
日本人だって中央アフリカと南アフリカの違いはわかんないでしょう?
それと同じ

111 :名無しさん@お腹いっぱい。 :2022/11/25(金) 18:48:38.05 ID:Mw9+6wL00.net
意味不明な文字が出るのは前からだね
マガジンカバーとかで偽の雑誌の表紙を出してくれるw

112 :名無しさん@お腹いっぱい。 :2022/11/25(金) 19:08:04.38 ID:jp2E0qmt0.net
前よりは文字らしきものが文字になってるな
カレンダーとか以前からは考えられないほど原形をとどめてる

113 :名無しさん@お腹いっぱい。 :2022/11/25(金) 19:26:49.22 ID:xHzY9mff0.net
SD2.0のcolab notebookが出てきてるな
あとで試そう

114 :名無しさん@お腹いっぱい。 :2022/11/25(金) 21:46:53.02 ID:5ge4ROFf0.net
異世界文字みたいなの作れて楽しいっちゃ楽しいけど

115 :名無しさん@お腹いっぱい。 :2022/11/25(金) 21:56:11.50 ID:VUQwVeCk0.net
わしゃわしゃしてみた結果、写真的なのと奥行きは強そう
モデルが違うだけと言われたらそのような気もする

116 :名無しさん@お腹いっぱい。 :2022/11/25(金) 22:39:58.01 ID:yUiW93fZa.net
初です
一応1.5でステイでいい感じですか?

117 :名無しさん@お腹いっぱい。 :2022/11/25(金) 22:50:12.41 ID:x9mKQI2k0.net
NovelAI系が目的ならステイどころか一生気にする必要ないよ

118 :名無しさん@お腹いっぱい。 :2022/11/25(金) 23:41:01.51 ID:Mw9+6wL00.net
今後派生モデルが出れば状況は変わるかもしれん

119 :名無しさん@お腹いっぱい。 :2022/11/25(金) 23:43:38.90 ID:lcMrx8UN0.net
先にNvidiaが発表したeDiffiが文字を正確に表記出来る事を考えると
やや周回遅れな感じはする

120 :名無しさん@お腹いっぱい。 :2022/11/26(土) 00:28:03.38 ID:VhK3Usta0.net
延期を繰り返すのはだいたいクソゲーってのはどこの世界も一緒なのな。はー、最初の威勢もなくなったし残念だわ。

121 :名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg):2022/11/26(土) 01:36:22.18 ID:b5mR0NSx0.net
SDの規模と資金力と技術でもクリーンな学習するとこうなるってことは
MJとNJはどんだけダーティな学習の仕方してんだろうって思ってしまった
絶対表に出せない手法使ってるんだろうな論文すら一切出さんし

122 :名無しさん@お腹いっぱい。 :2022/11/26(土) 01:42:50.08 ID:Qpwq6fDy0.net
SD2.0+eDiff+nsfw+masterpiece+style+最低でもダンボールタグの表現力(細部指定)が欲しいわけで…
ポリコレ抜きでも金出してるところがエログロペドダメだっていえばそれまでだしな
Midjorneyの高画質版でしかないわな。コンセプトアートもCGアートの受賞した奴からちょっと詳細になった程度だし
宇宙服やストームトルーパー出せますっていうだけじゃ…実写や人の手でいいのでは?っていう突っ込みも増える
(イギリスで黒人が幼女レイプしてる画像ポンポン出せる奴が許容はされないわな)

123 :名無しさん@お腹いっぱい。 :2022/11/26(土) 01:48:31.82 ID:YGmN3o9k0.net
Checkpoint /content/drive/MyDrive/model3.ckpt has both EMA and non-EMA weights.
In this conversion only the non-EMA weights are extracted. If you want to instead extract the EMA weights (usually better for inference), please make sure to add the `--extract_ema` flag.

--extract_emaのフラグ君はどこに書き込めばいいの...?

124 :名無しさん@お腹いっぱい。 :2022/11/26(土) 03:16:15.88 ID:XefD7PQP0.net
>>123
起動時の引数だよ。って言うか別に必須ではないでしょ
書いてある通りemaじゃない値でいいならそのまま、emaの値使いたいなら引数付ける、って話かと

125 :名無しさん@お腹いっぱい。 :2022/11/26(土) 05:52:51.74 ID:IJwdfF6WM.net
え なんか改悪あったの
一ヶ月ぶりに契約しようかとおもったんだが

126 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:05:55.00 ID:V04Qfv450.net
NovelAIの話じゃないよStablediffusion の話だよ
必要スペックが上がって画家名やエロが出なくなったよ

127 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:07:46.55 ID:R6Cn4ETb0.net
まだβだが今後二次元で契約ならNJ一択だな

128 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:11:23.44 ID:IJwdfF6WM.net
>>126
NOBELAIはこれまで通り?

129 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:12:48.76 ID:KYzZakfe0.net
>>128
そのぐらいログ辿れw
これまで通り

130 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:15:33.14 ID:IJwdfF6WM.net
>>129
ありだとん😯

131 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:16:17.61 ID:IJwdfF6WM.net
つーかもしかしていつか規制で学習元が規制されてまとまじゃなくなる可能性もびらぞう

132 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:31:08.60 ID:Rhp7Jwyc0.net
NJはエロ出ないぞ

133 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:39:57.86 ID:R6Cn4ETb0.net
自己発電用のつもりが無かったんでなw
絵描きとしてはNJは興味ある

134 :名無しさん@お腹いっぱい。 :2022/11/26(土) 07:57:37.76 ID:1PfBGUt00.net
anynai見てるからかnjのクオリティすげー低く見えるんだけど一般的にはそうでもないのかな
渋ランカーとお絵描きスレくらいの違い

135 :名無しさん@お腹いっぱい。 :2022/11/26(土) 08:45:04.75 ID:R6Cn4ETb0.net
ハンコ顔がカッチリ出るのは絵描きからするとあまり。いつも同じ絵じゃんって思っちゃう

136 :名無しさん@お腹いっぱい。 :2022/11/26(土) 08:45:48.62 ID:T/TvP4vIa.net
使い手の問題が9.5割だと思うよそういうの

137 :名無しさん@お腹いっぱい。 :2022/11/26(土) 08:46:23.74 ID:T/TvP4vIa.net
考えて数百トークン詰め込んで同じ絵じゃんとはならんと思う

138 :名無しさん@お腹いっぱい。 :2022/11/26(土) 08:48:07.00 ID:T/TvP4vIa.net
あでもNJは適当に入れてもいい感じになるね
それもそこそこバラつくし

139 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:16:16.73 ID:R6Cn4ETb0.net
あとそう、NJは試してないから知らんけどプロンプトで突然絵柄が変わったり謎の解釈されるのが嫌なんだよね

140 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:19:41.47 ID:T/TvP4vIa.net
指定しないからだと思う
謎の解釈じゃなくて指示してないんじゃない

141 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:21:23.88 ID:T/TvP4vIa.net
なんUのスレとかpart20の方のスレで相談乗ってもらってくるといいよ

142 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:26:56.38 ID:R6Cn4ETb0.net
こっちはSD系だけど死ぬほど試して自分で呪文の傾向のメモも作ってるw
そのうえで言ってんのよw NAIは知らん

143 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:31:49.09 ID:T/TvP4vIa.net
そう

144 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:42:52.90 ID:mW1WB0nO0.net
2.0は深度管理ができるようになったんじゃなかったか
絵を立体的にとらえることができたり
生成のStep数が少なくてすむようになったり
スペックが必要なのは768とか1024に対応する時だけで
512のままならそんなに変わらないとか何とか

145 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:44:04.31 ID:KYzZakfe0.net
絵描きでもプロンプターでもいいけど未来予想で短文連レスされると意味ある検証が流れるからできればやめてくれ
やったことの話だけしよ

146 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:49:04.20 ID:T/TvP4vIa.net
すまん
ストレートに言うと使ってるならプロンプトと使ったモデルの詳細くらい言って欲しかった
終わり

147 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:52:40.38 ID:mW1WB0nO0.net
有名人・アーティストは学習時点でプロンプトとの関連を無くしたから
指定して作るのは難しくなっている
NSFW関連は学習元から除外されているが出せないわけではない
デッサンが狂いやすいとか顔や手がおかしくなりやすいと言われているが詳細は不明
1.5の時点でもそんなに綺麗じゃなかったし

148 :名無しさん@お腹いっぱい。 :2022/11/26(土) 09:57:40.49 ID:rYd0ukah0.net
要するにハードが新しくなったからやれることやグラフィックはよくなったよ
それに合わせたソフト作ってもらえれば前以上のことできるよ
今はデフォルトのソフトしか動いてないからnsfwは出しにくいよってこと?

149 :名無しさん@お腹いっぱい。 (ワッチョイ 1769-QYZ+):2022/11/26(土) 10:43:20.43 ID:QuLKyRjd0.net
SD2はDreamBoothがすごいらしい?

150 :名無しさん@お腹いっぱい。 (ワッチョイ 9701-ykd8):2022/11/26(土) 10:53:07.27 ID:YcG4cSZp0.net
SD2.0 はよ1111に対応してくれ
2.0以前に更新途絶えているが・・・

151 :名無しさん@お腹いっぱい。 (テテンテンテン MM8f-gVL0):2022/11/26(土) 10:54:15.09 ID:4jWxG659M.net
>>134
エロはできんけどしっかりプロンプト組めばクオリティ高いのできるぞ
ただクオリティ系盛るとすぐ3次寄りになるから調整が難しい
https://i.imgur.com/mQN8u7V.jpg
https://i.imgur.com/45nXNKa.jpg

152 :名無しさん@お腹いっぱい。 :2022/11/26(土) 11:10:22.07 ID:R6Cn4ETb0.net
セルアニメ風はそんなによくない。イラスト風はかなりよく見えるけどね

153 :名無しさん@お腹いっぱい。 :2022/11/26(土) 11:23:52.81 ID:WhRdBgni0.net
>>151
こんなのできるのか
すげえな

154 :名無しさん@お腹いっぱい。 :2022/11/26(土) 11:35:23.97 ID:RGeUewKUp.net
アニメ絵みたいな省略された絵の深度はちゃんと判定できるのだろうか

155 :名無しさん@お腹いっぱい。 :2022/11/26(土) 11:43:17.46 ID:rNrAfQMQ0.net
SD2.0ってckptのやつ?
2.0のckptがあれば動くって訳じゃないの?

156 :名無しさん@お腹いっぱい。 :2022/11/26(土) 11:44:18.77 ID:TOAdoueld.net
>>151
これはヤバいな

157 :名無しさん@お腹いっぱい。 :2022/11/26(土) 11:45:30.41 ID:GUvMvocX0.net
https://gigazine.net/news/20221125-stable-diffusion-2-instant/
gigazineの記事を見ると「SD2.0はまだ微妙だけど、同じ条件だとSD1.4はもっと下」っていう印象だな
そう考えると、模索すべきはSD2のポテンシャルを発揮できるプロンプトの傾向なのか?

158 :名無しさん@お腹いっぱい。 :2022/11/26(土) 12:06:34.49 ID:/n3rrBKPd.net
実行環境とスペックもありそう

159 :名無しさん@お腹いっぱい。 :2022/11/26(土) 12:22:54.82 ID:WpM/m0cma.net
>>155
それ単なる汎用の拡張子だから翻訳でも音声合成でも何のAIにでも使われてる

160 :名無しさん@お腹いっぱい。 :2022/11/26(土) 13:13:48.88 ID:Weft+u9r0.net
>>157
SD2.0を3Dで出すと完全に不気味の谷に落ちて行ってるよな…
SD1.4でbeautifulやkawaiiっていうのが重宝されたことを考えると需要と供給が乖離して言ってる
SD2.0つえええのただの切り取りで、出たばかりでサンプルプロンプトが屑だっていうだけかもしれんが

161 :名無しさん@お腹いっぱい。 :2022/11/26(土) 13:33:00.04 ID:mW1WB0nO0.net
需要って最初から研究開発用途だぞ
開発者でもないしライト層でもない人は
そもそも1.4とか1.5使わずにwaifuやnai使うか自分で学習させる

162 :名無しさん@お腹いっぱい。 :2022/11/26(土) 13:45:37.63 ID:4ZdFQj+y0.net
colabだけどSDwebuiバージョンアップしたらなんか不安定になった

163 :名無しさん@お腹いっぱい。 :2022/11/26(土) 13:52:45.96 ID:GkU8+jxY0.net
DBの拡張版がhuggingfaceから持ってこれるからSDv2のチューニングができるかと思ったが甘かったか

164 :名無しさん@お腹いっぱい。 :2022/11/26(土) 14:00:15.08 ID:r96gNY670.net
>>151
NAI単体じゃ無理だけどマージなら同じぐらいのクオリティはいけそうだな

165 :名無しさん@お腹いっぱい。 :2022/11/26(土) 15:02:49.65 ID:1PfBGUt00.net
>>151
すまん舐めてたすごいやん

166 :名無しさん@お腹いっぱい。 :2022/11/26(土) 18:17:52.13 ID:V04Qfv450.net
剣とか銃が直線なのはいいね

167 :名無しさん@お腹いっぱい。 :2022/11/26(土) 19:16:09.77 ID:AiPdg1sc0.net
>>151
ラーメンと箸はどうなりました?

168 :名無しさん@お腹いっぱい。 :2022/11/26(土) 19:50:46.86 ID:+2NCVA0+0.net
あえて突っ込み入れるなら刃の方
握ってどうするんだと

169 :名無しさん@お腹いっぱい。 :2022/11/26(土) 20:05:16.31 ID:lKHYf85H0.net
SD2.0、Lexicaにある奴の同じプロンプトを入れても全然再現できないな
アート系はもうファインチューニングに期待するしかないのか

170 :名無しさん@お腹いっぱい。 :2022/11/26(土) 20:08:03.26 ID:S1El0hrJ0.net
1.4, 1.5のいい感じのを2.0でi2iしたらどんな感じになるんね?

171 :名無しさん@お腹いっぱい。 :2022/11/26(土) 20:08:20.83 ID:sFOih2XjM.net
銃もどう握ってるんだってレベル

172 :名無しさん@お腹いっぱい。 :2022/11/26(土) 20:11:48.78 ID:XefD7PQP0.net
>>169
テキストエンコーダ変更したんだからプロンプト探索は一からやり直しじゃないの?

173 :名無しさん@お腹いっぱい。 (ワッチョイ 775f-K+pH):2022/11/26(土) 20:45:23.08 ID:Csw2TEtv0.net
俺は1.5と心中するぞ

174 :名無しさん@お腹いっぱい。 :2022/11/26(土) 21:41:33.78 ID:yPlzUTn10.net
テキストエンコーダが変わって、具体的に以前のプロンプトがどう通らなくなってるのかなあ
なんとか意図どおり引っ張ろうとしてゴテゴテ言葉足すとかえって良くないとか、そういうことなのか?

175 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:17:37.11 ID:QuLKyRjd0.net
DBのテキストエンコーダってなんなのかイマイチ分からんのだけど、
とりあえず使えば学習精度が上がるって認識でいいのかな

176 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:19:00.21 ID:OoLkevtia.net
単語の表現範囲が狭いというか生成される画像にばらつきが少ないんだよな
1.5だとプロンプトがだめでもたまに当たりがでるけど、2だとハズレしか出ない

photo of a clockだとアラビア数字の時計だけ
full body of a girlだと首から下の画像だけ
head and body of a girlでも全身でないし生成画像が偏りまくってる(ちなみにこのプロンプトだと乳首普通に出る。ただし(以下略

177 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:39:23.07 ID:XefD7PQP0.net
>>175
CLIP学習させると埋め込む単語が1トークンになるとかどっかで見たような…
ただCLIPを固定して学習したのがSDだからCLIP弄るとその他すべての表現にも
影響が出てしまうんじゃないかな。あとはそれを許容する程度の問題?

178 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:41:17.44 ID:mW1WB0nO0.net
full bodyには「豊満」って意味があるからだぞ
1.5で試してみたけど太めの女性の全身が出る(男性は出ない)
whole bodyだと正面と背面の二面図が出る
あと顔が画面から外れるのはスケールが強すぎる場合もある

179 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:46:25.02 ID:DnfntcA/0.net
AUTOMATIC1111版が2.0に対応

180 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:49:25.18 ID:kTixK/tG0.net
やっぱり更新止まってたのは2.0への対応だったのか

181 :名無しさん@お腹いっぱい。 :2022/11/26(土) 22:53:20.84 ID:OoLkevtia.net
単語にはたくさんの意味があるけど、そのことを理解してくれてないってことかな
時計にはローマ数字もアラビア数字も日時計あるんだから様々なのを出してもらいたいけど出てこない
full bodyも色々な意味があるならその色々な意味で出してもらいたいけど出てこない

これ要するに今後プロンプトがよほど細かく解析されない限り、求める画像を出すのが難しいってことになる

182 :名無しさん@お腹いっぱい。 :2022/11/26(土) 23:11:00.05 ID:i5uL/PBDM.net
CLIPスコアの上昇は解釈の幅が狭くなる事と同義なのかもしれん

183 :名無しさん@お腹いっぱい。 :2022/11/26(土) 23:15:47.55 ID:mW1WB0nO0.net
waifuやnaiで使われてるbooruタグは素の1.5とか2.0では通用しないとか
full bodyよりもfull body shotの方がいいかも?とか
3 birdsよりもthree birdsの方が正確に三羽の鳥を描くとか
プロンプトを強調しようとしてスケールを上げると一部が強調されて全体的には遠ざかるとか
試してみないとわからないことだらけだよ

184 :名無しさん@お腹いっぱい。 :2022/11/26(土) 23:23:31.73 ID:3Pplq9kj0.net
NAIは単語を適当に並べるだけでいいけどSD2は自然言語的に書く必要があるってことかな
英語苦手な自分にはつれぇわ……

185 :名無しさん@お腹いっぱい。 :2022/11/26(土) 23:34:52.25 ID:mW1WB0nO0.net
自然言語的にする必要はないと思うよ
that構文はちょっとだけ理解してるっぽいけど大体無視されるし
受け身も理解してくれないのが多いし
andやonやinを増やしすぎても理解してくれないし
ただ通用するプロンプトが違うだけだと思う

186 :名無しさん@お腹いっぱい。 :2022/11/26(土) 23:51:43.60 ID:s+X1WYIF0.net
1111が2.0に対応

187 :名無しさん@お腹いっぱい。 :2022/11/26(土) 23:59:13.31 ID:QuLKyRjd0.net
なんかcolabが上手く動かんと思ったが、その辺のゴタゴタまわりで
DL先の仕様が変わってたりすんのかな

188 :名無しさん@お腹いっぱい。 :2022/11/27(日) 00:05:24.98 ID:XlLG4cbw0.net
1111SD2きたんかー
とはいえ、エロ非対応とNJショックでなんか盛り上がらんな

189 :名無しさん@お腹いっぱい。 :2022/11/27(日) 00:09:51.41 ID:GMOS9aMH0.net
SD2ベースのWaifuやAnyが来てからが本番や
今は時計の針が8月下旬まで戻った状態

190 :名無しさん@お腹いっぱい。 :2022/11/27(日) 00:26:10.22 ID:p1b+189rM.net
anythingはNAIのリークが元だから
SD2ベースにはならんでしょ

191 :名無しさん@お腹いっぱい。 :2022/11/27(日) 00:45:01.60 ID:jpaQEC+V0.net
しばらく2.0が盛り上がることはなさそうだな
NijiはNijiで制限も多いし
大人しく1.5で適当に遊んでるわ

192 :名無しさん@お腹いっぱい。 :2022/11/27(日) 02:10:39.72 ID:b+QXoyFd0.net
今更SD1.xベースのWDがきてもマージの餌にしかならんからSD2ベースの世界を見せて欲しいなぁ

193 :名無しさん@お腹いっぱい。 :2022/11/27(日) 03:02:10.34 ID:rh7xunej0.net
面白くなってきたぁあ

194 :名無しさん@お腹いっぱい。 :2022/11/27(日) 03:06:14.22 ID:GMOS9aMH0.net
2023年はヤバい年になりそう

195 :名無しさん@お腹いっぱい。 :2022/11/27(日) 05:00:35.72 ID:sTFdBSBM0.net
>>192
そこだよなぁ。一部期待している人も多いようだが…
NAIやAnythingと全く違った方向にはなりにくいだろうし、WD1.3だって1.2よりはましって判断してたわけだろ?
世界的に1.3のepoc小出しでどんどん悪くなるのが止められないモデル生成者扱いだ
学習終ったらまともになるって思いこんでる人もいたが結局そのままで
NAIリークで存在意義もかなり薄れてマージ素材になってしまった感じがな
WD1.4だしてSD2.0でまた学習するんかな…頑張ってほしいけどまた3ヶ月4か月後となると周回遅れ感が

196 :名無しさん@お腹いっぱい。 :2022/11/27(日) 06:22:26.38 ID:GMOS9aMH0.net
中華ニキの技術力と組織力に期待だな
moe-ttsで感心したがオンラインで千人規模のチームワークができる民族は他におらんやろ

197 :名無しさん@お腹いっぱい。 :2022/11/27(日) 08:25:32.21 ID:TXC64gVZp.net
VRAM4GB環境使ってA1111でSD2やろうとしたけど
やっぱりうまく読み込めないんだね
最適化こないかな

198 :名無しさん@お腹いっぱい。 :2022/11/27(日) 09:31:38.42 ID:6nt7B6Mq0.net
SD2.0はDB向きらしい

199 :名無しさん@お腹いっぱい。 :2022/11/27(日) 09:34:39.66 ID:EsmoIULn0.net
自作ラノベをKindleで自己出版するつもりだけど
挿絵のイラストをAnythingにするのはライセンス関連で問題でるかな?
綺麗な挿絵欲しいけどライセンス問題は起こしたくない

200 :名無しさん@お腹いっぱい。 :2022/11/27(日) 09:42:14.69 ID:teYA6uydM.net
完全に自己責任

201 :名無しさん@お腹いっぱい。 :2022/11/27(日) 09:57:54.69 ID:orUcG1mA0.net
AI使ってますって明記すれば問題ないでしょ
中身のデータがどうなってるかユーザーは確かめようがないんだし

202 :名無しさん@お腹いっぱい。 :2022/11/27(日) 10:10:07.49 ID:g6uqr4e5a.net
そういやこのスレの前スレあたりで誰かが開発してた圧縮言語だか圧縮プロンプトだかのwebuiのextension出てたぞ

203 :名無しさん@お腹いっぱい。 :2022/11/27(日) 10:11:13.81 ID:g6uqr4e5a.net
この人か
https://mevius.5ch.net/test/read.cgi/cg/1667401816/628

204 :名無しさん@お腹いっぱい。 :2022/11/27(日) 11:13:05.33 ID:EsmoIULn0.net
>>201
まあ確かに調べようが無いね
じゃあやってみようかな

205 :名無しさん@お腹いっぱい。 (ワッチョイ 9763-OgfA):2022/11/27(日) 12:32:00.93 ID:hjdaprii0.net
言語圧縮とか呪文かな

206 :名無しさん@お腹いっぱい。 :2022/11/27(日) 12:54:44.95 ID:bYiqE2oi0.net
>>199
AIだろうが何だろうが作品として使ったら全部自己責任だよ
ライセンスや規約に書いてある通り、ドラブルはその画像を使用した人に一番の責任がある
5chだって画像リンク貼った人が一番訴えやすいようなもんで
その使う画像を選んだのはあなたなんだから、金とるなら最低限の責任は取ろう
心配になる程度は知識あるんだろうし、誠実に対応すれば画像差し替え程度で済む
文章書くなら差別用語とか問題になる表現のクレーム対処と一緒だよ

207 :名無しさん@お腹いっぱい。 :2022/11/27(日) 12:56:29.14 ID:L7mwToAm0.net
>>199
どんどんやれ

208 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:01:42.20 ID:EsmoIULn0.net
>>206
そうだな問題起きたら最悪差し替えれば良いか
サンキュー取り敢えずはAIで挑んで見るわ

209 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:09:56.29 ID:TMuKsB0g0.net
ここはAI雑談スレということでよろしいか?

210 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:11:23.39 ID:TMuKsB0g0.net
オウフw
拙者のIDがHcgでござって草wwwwwww

211 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:19:23.79 ID:d5mY2fAN0.net
>>210
しかもz指定か……はよ

212 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:21:47.64 ID:PvOo7iea0.net
よくある異世界ものみたいに、俺も訓練すれば無詠唱で発動できるようになるかな?

213 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:27:36.99 ID:sBTiEE3K0.net
架空の絵師名で生成して絵柄を統一させるとかいう
強引な方法見て草
架空の絵師名ガチャに成功すれば面白そうかもしれん

214 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:33:41.85 ID:rh7xunej0.net
>>199
AIでアイデアを出して自分で加筆修正すればいいだけだろ頑張れ

215 :名無しさん@お腹いっぱい。 :2022/11/27(日) 13:42:45.75 ID:IH4zoEZl0.net
Ctrl+A……Delete……Generate!≪詠唱破棄≫!Anything無詠唱召喚だッ!

216 :名無しさん@お腹いっぱい。 :2022/11/27(日) 14:19:40.12 ID:zTNDZFMw0.net
>>202
おーついに来たか
>>213
まぁマージモデル自体一人の絵師みたいなもんだしな
そもそも実在絵師に寄せる必要も元々ないからそうなるわな、プロンプトだけでやるのは限界あるだろうけど

217 :名無しさん@お腹いっぱい。 :2022/11/27(日) 14:27:24.22 ID:mKBJNjp10.net
TheLastBenのfast-DreamBooth colab、昨日あたりから
NAIモデルのdiffuser化ができなくなってんな
この際だからやり方変えたいけど、今はどこでDBやるのが一般的なんだ?

218 :名無しさん@お腹いっぱい。 :2022/11/27(日) 14:47:06.55 ID:cYQoTEPb0.net
>>217
古いノートブックでメモリが足りないエラー出なくなるまでガチャすれば動く

219 :名無しさん@お腹いっぱい。 :2022/11/27(日) 15:05:12.43 ID:DPj8XLZK0.net
AUTOMATIC1111がSD2.0に対応したというのでクリーンインストールしたがモデルに768-v-ema.ckptを指定してもエラーになる

https://fate.5ch.net/test/read.cgi/liveuranus/1669467214/103
によると追加のダウンロードが必要なのだそうだ

----
https://huggingface.co/stabilityai/stable-diffusion-2/
1. "768-v-ema.ckpt"をダウンロードする
2. ↓からyamlファイルをダウンロードして768-v-ema.yaml(モデルと同じファイル名)にする
  https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-inference-v.yaml
3. models/Stable-Diffusion directoryに両方つっこんで最新版Automatic1111 WebUIで読み込む

やで。サンプラーはDDIM、CLIPのレイヤー設定は1がお作法や
----

なんでこんな仕様なのかね?

220 :名無しさん@お腹いっぱい。 :2022/11/27(日) 15:09:59.13 ID:g6uqr4e5a.net
実は前からckptの他にvae.pt, yamlを同名でそこに置くというオプションはあった
中身みても正直僕にはなんの設定が書かれてあるのか分からなかったけど
SD2.0というモデルがそういう個別対応が必要なくらいには妙なことを行うモデルなんだろう
とはいえyamlひとつでその対応も済むautomatic1111すごい

221 :名無しさん@お腹いっぱい。 (ワッチョイ 9f8a-LK2I):2022/11/27(日) 15:22:20.42 ID:4r3qwtw+0.net
洞窟壁画からはや数万年、AIで絵を描く道具を人々は手に入れた。AIもデジタル描画の延長線上なのだが、いずれは手作業のみで自由闊達に描ける絵師の人口は減り、職人として彼らは尊敬されるときが来る

222 :名無しさん@お腹いっぱい。 :2022/11/27(日) 15:44:47.50 ID:mKBJNjp10.net
>>218
マジかw
Compatibility_Modeが追加された頃くらいまで遡ってみるか

223 :名無しさん@お腹いっぱい。 (ワッチョイ 5701-CHRJ):2022/11/27(日) 15:45:49.70 ID:rOJ18ATS0.net
sd2.0でなんかわかりやすく変わったなって感じられるプロンプトってどんなんになるんだろ

224 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:15:15.26 ID:Za9cT1d60.net
>>221
みんな車を運転してるのに、一人だけ馬に乗って移動してる変人って扱いじゃない?(笑)

225 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:21:47.16 ID:2W161o7q0.net
アナログのアートには余り影響ないだろうから残るよ

226 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:27:55.16 ID:d5mY2fAN0.net
オートバイクとロードバイクとか、マウンテンバイクみたいな
趣味性の高い自転車みたいな感じじゃないかね

227 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:37:38.28 ID:FzBz8XN30.net
工業品って、最初は薄くて軽いことを売りにして出るけど、
そのうち滑り止めとか合理的な理由ではなく形を歪にしたり、手作り風の商品が出てくる。
そうなっても、自分で粘土を捏ねて釜で焼いた茶碗で飯が食える人も、数は激減するがちゃんと残る。

でも勘違いしてはいけないのが、その残った人達はプラスチックで茶碗を作っているわけではないということ。
機械生産と機能が同じかそれ以下でも手作りは勝てる、ただし質感まで同じだと勝てない
要するに普通のデジタルイラストではどんなに味があってもAIには勝てない。
「手書き」のデジタルイラストで飯が食える人はせいぜい日本に2,3人、国宝級の人だけになる。

228 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:39:34.49 ID:C6VMfAQL0.net
車は自分の足で走ってないとバレるから陸上競技は滅びてないけど
AI絵はバレないから手描きの絵が残るのは無理でしょ
それ以前にこんなにコピーが横行してたら創作自体が無理になっていくだろうし
公式の設定画1枚あればそれを完コピしてどんなエロでもさせられますってなった日にはね

229 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:40:06.29 ID:Qfz2iaHy0.net
今いるイラストレーターがトラックに轢かれて未来の日本に転生したら手描き無双するのか

230 :名無しさん@お腹いっぱい。 :2022/11/27(日) 16:54:27.95 ID:d5mY2fAN0.net
>>229
液晶タブレットとソフトの修正とかレイヤ分けに慣れた連中はなんの役にも立たん
色紙にコピックで描けるようならワンチャン

231 :名無しさん@お腹いっぱい。 :2022/11/27(日) 17:17:28.17 ID:IGgW1igJ0.net
いつのまにかAUTOMATIC1111でも使えるようになったのね、SD2.0
聞いてた通り高解像度がHighres. fix未使用でも破綻しないのは良いのかな
とはいえ、やっぱマージや追加学習ありきなんだろうねぇ

1.5
https://i.imgur.com/gLsm482.jpg
2.0 ※同プロンプト&シード
https://i.imgur.com/BhRkblK.jpg

232 :名無しさん@お腹いっぱい。 :2022/11/27(日) 17:50:44.11 ID:WBbkAK++M.net
別に画力あるなら適応も早いよ

233 :名無しさん@お腹いっぱい。 :2022/11/27(日) 17:51:01.58 ID:rh7xunej0.net
>>227
手描きの原画には今以上にとんでもない価値が出そうだな

234 :名無しさん@お腹いっぱい。 :2022/11/27(日) 17:51:38.37 ID:2CS7/3/d0.net
AIしか使えない人と、プロレベルで絵が描けてAIや3D使って時短もできる人だと、前者を使う理由がないけどな…
前者で食っていきたくて、値段を下げて対応しようと考えると、追われるように絵を生成するような生活になって結構、大変だと思う

235 :名無しさん@お腹いっぱい。 :2022/11/27(日) 17:59:05.94 ID:IA1IYEje0.net
その段階だと誰しもが簡単にAIで絵を生成してる時代の話だからAI開発じゃないと食って行けないだろ
というかAI絵onlyで稼ぐなら今だぞ

236 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:05:24.92 ID:2CS7/3/d0.net
今でも誰でも簡単にAIで生成できるけどなぁ…
というかAI開発でしか食っていけなくなるとか、AIイラスト業界の先行き暗すぎやな

237 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:06:00.19 ID:rOJ18ATS0.net
ディレクション用に最適でしょ

238 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:24:19.05 ID:EsmoIULn0.net
スマホカメラかミラーレス一眼カメラかの違いかな?
極めると後者が強いけど素人が使うなら前者が強いね

239 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:44:32.89 ID:qA9xVaVva.net
架空の絵師名のついでで書き込んでおくけど意図的にtypoするのもかなり有効
garlとかbouyとか結構画像のイメージが変わる

240 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:49:18.86 ID:h48SLuJ8M.net
他の仕事もAIに代替されてくから安心しろ

241 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:53:23.88 ID:pWqZzeXNM.net
アニメ製作ならAI大活躍じゃないかな

242 :名無しさん@お腹いっぱい。 :2022/11/27(日) 18:54:47.33 ID:h48SLuJ8M.net
アニメーター大量削減

243 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:01:35.20 ID:xNP3UE8z0.net
アニメはまだ無理なんじゃね?
1枚ものはヤバイと思うけど

244 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:03:15.85 ID:IySyxX5S0.net
>>241
学生でも一人でアニメを作れる時代がくるのか
新海誠が量産される感じだな

245 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:03:19.14 ID:ye5mEl3ZM.net
日本のアニメ技術を学びたい中国人からしたら
AIは最高のツールじゃないかな
あいつらに著作権って縛りは無いから
とんでもない勢いで成長すると思うよ

246 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:22:10.08 ID:orUcG1mA0.net
同じキャラを出してくれないんだから無理や
さっきまで剣を持ってたのにデザインが違ってたら困るやろ

247 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:25:09.75 ID:rh7xunej0.net
シード固定のプロンプト変更でなんかうまくいかない?

248 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:28:05.59 ID:sBTiEE3K0.net
キャラクターなら相当細かく注文つけとけば同一人物は出やすいけど
服装とか剣とかそういうのがブレまくる感じだわ

249 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:29:04.21 ID:ecK0LzaC0.net
そんなもん自分で修正しろよ

250 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:29:56.33 ID:Qv2VY82S0.net
>>245
中国と韓国は
AIの能力が十分になったら
人間の絵描きが絶滅しそう
日本は何だかんだで物好きが手描きを続けそうだが

251 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:30:12.38 ID:+ZnrgX3jM.net
nijijourneyはアニメ向きな気がする
https://i.imgur.com/etlEaYD.png
https://i.imgur.com/et5fznd.png
https://i.imgur.com/Eiupb3M.png
https://i.imgur.com/UlJGoxg.png


【画像】AI絵師 『nijijourney』 爆誕、最強の画力を見せつける [472567884]
https://hayabusa9.5ch.net/test/read.cgi/news/1669438129/

252 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:49:35.15 ID:vh8WOxb+M.net
NJはちょっとまんまなんじゃないかってのがポンポン出るからやりすぎコージー感ある

253 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:53:53.77 ID:d5mY2fAN0.net
個人的にはWebNAIよりも悪質に見えるんだよなそこ
版権キャラの名前出してなくても勝手に出してくるし

254 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:54:42.43 ID:euXfjifb0.net
nijiは一線超えてね?

255 :名無しさん@お腹いっぱい。 :2022/11/27(日) 19:56:49.47 ID:Za9cT1d60.net
nijiのイラストをネットにあげてドヤってるやつは
さすがに引く・・・

256 :名無しさん@お腹いっぱい。 :2022/11/27(日) 20:01:52.10 ID:f4UhdkKPM.net
>>246
3DCGを元にアングルを変えるとかで対応できそう
Blender使うスキルの無い人はエロゲ使うとかね
コイカツとかカスタムメイド3D2とかね

257 :名無しさん@お腹いっぱい。 :2022/11/27(日) 20:01:56.87 ID:Cnwq+jfD0.net
>>246
学習使えない縛りでもあるのかと

258 :名無しさん@お腹いっぱい。 :2022/11/27(日) 20:31:53.41 ID:FzBz8XN30.net
二次創作なら学習画像が沢山あるからできるだろうがオリジナルだと厳しいわな

259 :名無しさん@お腹いっぱい。 :2022/11/27(日) 20:45:34.06 ID:rOJ18ATS0.net
nijiすげえなまんまに近いの出してくるじゃん

260 :名無しさん@お腹いっぱい。 :2022/11/27(日) 20:49:54.92 ID:v0hzifR+a.net
版権の取り扱いがヤバイし
多分日本の絵師の学習さらに徹底してる
ダンボールとかよりも広い範囲で学習してそう

いま出せる限界ギリギリの最高性能って感じ

261 :名無しさん@お腹いっぱい。 :2022/11/27(日) 21:12:03.88 ID:ecK0LzaC0.net
ぽよよんろっくとかも出せる?

262 :名無しさん@お腹いっぱい。 :2022/11/27(日) 22:23:51.69 ID:b+QXoyFd0.net
nijiはmidjourneyの系譜のせいか呪文のチューニング難しくてな・・・
昔の人(3ヶ月前)はよくあれで美少女とか出してたなと

263 :名無しさん@お腹いっぱい。 :2022/11/27(日) 23:03:41.65 ID:HKnerYqtM.net
ポージング指定する時にデッサン人形を
写真撮って食わせている人いる?
または自分自身がポーズ撮って
写真撮っているとかある?

264 :名無しさん@お腹いっぱい。 :2022/11/27(日) 23:25:29.58 ID:FzBz8XN30.net
最近は今まで馬鹿みたいに生産してきた何万枚という構図があるから、それをベースにi2iすることから始める
粗方方向性が決まったら、手足を雑に切り取って移動させてi2iする。

自分も人形とか3Dモデル使えばいいじゃん!と思った瞬間があったけど、
結局は立ち絵出ない限り情景豊な背景が必要だし、
その背景や他のオブジェクトが確定するまでポーズも確定できない
だから案外そういったのは使いにくい

265 :名無しさん@お腹いっぱい。 :2022/11/27(日) 23:41:38.46 ID:nAej2vxf0.net
すまん、初心者なんだがwiki見てDreamBoothやってるんやけど上手くいかない
https://i.imgur.com/nqmCyf2.png
途中まではうまく進んでるように見えるけど、結局modelsのStable-diffusionフォルダに完成品が出力されないし、1200stepsでやってる学習が1198で止まってる?
これって何が悪いんだろうか
何かわかる人いたら教えてほしい

266 :名無しさん@お腹いっぱい。 :2022/11/28(月) 00:21:32.28 ID:Iixxi+730.net
スクショ貼るなら設定画面の画像も

267 :名無しさん@お腹いっぱい。 :2022/11/28(月) 00:21:53.45 ID:hQJrmCGgM.net
>>264
なるほど

268 :名無しさん@お腹いっぱい。 :2022/11/28(月) 04:18:57.57 ID:7QHZown40.net
>>264
俺もアイコラしてi2iすればわりと好きな構図作れるっ教わったから
編集しやすいように立ち絵、背景無し(もしくは単色)で
他は2単語くらいで緩めにして雑生成しようかと思ってる

269 :名無しさん@お腹いっぱい。 :2022/11/28(月) 05:15:29.19 ID:bKRvCP+G0.net
pink板見て来たらむちゃくちゃ技術的な話していて驚いた
あっちも見てると楽しい

270 :名無しさん@お腹いっぱい。 :2022/11/28(月) 06:38:07.02 ID:F90Y32+kr.net
そりゃあ向こうは全員が『賢者モード』搭載してるぐらいだろうからな
本人達の性欲も絡んでるし、面構えが違う

271 :名無しさん@お腹いっぱい。 :2022/11/28(月) 07:27:08.34 ID:BNQY6Y3WM.net
こっちはもはや技術スレと言い難いw

272 :名無しさん@お腹いっぱい。 :2022/11/28(月) 07:36:59.71 ID:wiv0LeSt0.net
8割は同じ人間が跨いでるだけだから気にするな

273 :名無しさん@お腹いっぱい。 :2022/11/28(月) 07:44:28.78 ID:pYz1AlxSM.net
ワイも3箇所兼務や

274 :名無しさん@お腹いっぱい。 :2022/11/28(月) 07:47:50.10 ID:Xc0F0LTd0.net
2.0の話題がまったくないな

275 :名無しさん@お腹いっぱい。 :2022/11/28(月) 08:28:02.06 ID:H5Aafjw80.net
2.0のwaifuみたいなの来るまでは何も怒らないだろ

276 :名無しさん@お腹いっぱい。 :2022/11/28(月) 08:52:47.90 ID:4Y3Vxqqd0.net
やっぱエロが原動力なんすねぇ

277 :名無しさん@お腹いっぱい。 :2022/11/28(月) 08:55:15.47 ID:yEuP3CET0.net
それはそう

278 :名無しさん@お腹いっぱい。 :2022/11/28(月) 08:55:19.34 ID:AFKHWUfId.net
たぶんSD公式は2.0の配布モデルは実質デモ版みたいなもんとして割り切って突っつかれそうな要素は排除したんだと思う
できることはこれで示すからややこしいことになりそうな実用モデルは誰か作ってってことだろう
責任の分散という意味では正しい

279 :名無しさん@お腹いっぱい。 :2022/11/28(月) 09:00:36.81 ID:LwTGZASZa.net
Sd2.0はむしろCLIPの変更やらi2iの強化やらがメインで、モデルはおまけみたいなもんじゃないの?腕時計のお試し電池みたいな

280 :名無しさん@お腹いっぱい。 :2022/11/28(月) 09:05:29.49 ID:w70aX2sj0.net
でも高画質で学習が必要となると対応データセットも簡単には出せないよね

281 :名無しさん@お腹いっぱい。 :2022/11/28(月) 09:14:08.34 ID:zLxFu69A6.net
>>279
多分1ヶ月もすればチラホラ出てくると思う。
やっぱコード書いてモノとして実現できるやつはすげぇと思うわ。

282 :名無しさん@お腹いっぱい。 :2022/11/28(月) 09:21:29.82 ID:UpWv/+0l0.net
1.4や1.5で吟味したプロンプトの効き方が変わって、また探し直しになったのがめんどい
ネット上のプロンプトを集めるとかして、よく使われているプロンプトを引き続き使えるように調整してほしかった
(Greg Rutkowskiなどの除外には反対しません)

283 :名無しさん@お腹いっぱい。 :2022/11/28(月) 09:56:07.51 ID:i2/v1T8fM.net
>>263
たまにやってる
後でカメラロール見て虚しくなってるけど

284 :名無しさん@お腹いっぱい。 :2022/11/28(月) 10:59:48.53 ID:wiv0LeSt0.net
SD2の学習されてないものは追加学習すればいいんだけど、アウロリペドエログロ差別宗教犯罪関連のいくつかのNGワードがあるとモザイクになる仕様はかなり厄介だとは思う
ただ単に学習されてないワードには反応しないだけなのに

285 :名無しさん@お腹いっぱい。 :2022/11/28(月) 11:08:47.19 ID:yEuP3CET0.net
また合成ワードでみたいなので回避するしかないんかな

286 :名無しさん@お腹いっぱい。 :2022/11/28(月) 12:50:41.87 ID:Iixxi+730.net
HNのメジャーアップデートすごいな
ものすごい勢いで過学習起こしてもととほぼ同じのがバンバン出力されるようになった

287 :名無しさん@お腹いっぱい。 :2022/11/28(月) 13:37:55.57 ID:Bai13XLUM.net
>>286
何それ?
適当に過学習しても最適化されるってこと??

288 :名無しさん@お腹いっぱい。 :2022/11/28(月) 14:22:21.80 ID:xE5Byq7b0.net
sd2は参照実装みたいなもんやしな
CLIPの進化は期待してるがエロがないとなんとも調べる気が起きん

289 :名無しさん@お腹いっぱい。 :2022/11/28(月) 15:19:18.36 ID:i5GtozBw0.net
ちょい前話題になったVITSはベースモデルが中国語で訓練されてる影響で訛りあるからしょぼいと思われて沈静化したけど
あれって追加学習のワード数少なすぎるだけで訛りを完全に消して本人とほぼ区別付かないレベルのモデルも配布されてたんだよね
個人が趣味レベルで学習させるだけでそこまでいくから画像生成みたいに企業が動いたら一瞬で人間は攻略される
多分どっかのベンチャーが水面下で研究しててある日突然出てきて声優やV業界が一瞬でひっくり返されると思う…

290 :名無しさん@お腹いっぱい。 :2022/11/28(月) 15:28:54.61 ID:6QspJRQW6.net
>>286
extensionにあったやつ?
正式実装はされたんだっけ

291 :名無しさん@お腹いっぱい。 :2022/11/28(月) 16:06:31.83 ID:MdlVuRXn0.net
>>289
特定の声優の声にこだわるわけじゃないなら、既に自然な音声AIは売られてるよ

292 :名無しさん@お腹いっぱい。 :2022/11/28(月) 16:11:07.38 ID:wq+Lt5CC0.net
>>289
声ってもろ感情が乗るからなあ
同人程度の遊びならともかく実際の声優を食うのはAIが感情理解してからになるな

293 :名無しさん@お腹いっぱい。 :2022/11/28(月) 16:27:18.58 ID:bKRvCP+G0.net
流石に声優の仕事を奪うことは無いか

294 :名無しさん@お腹いっぱい。 :2022/11/28(月) 16:32:50.88 ID:jcXL7FI/0.net
majinai.artめっちゃ使いやすいな
https://majinai.art/i/myt3wUk

295 :名無しさん@お腹いっぱい。 :2022/11/28(月) 16:43:17.93 ID:Soj/BDeW0.net
>>265
経験談であれだが
俺「作り終わったデータは フォルダa に吐き出してね」
AI「その フォルダa とやらが見当たらないんですがそれは・・・」
俺「あっやべ作るの忘れてた」

このあと指定位置に指定フォルダを作って
もっかいやり直ししたらうまくいった。
という例もある。
案外こんな単純ミスもやらかしがちやで。

学習が終わった後にエラーが出るってことは吐き出し関連な気がしないでもないのよな。

296 :名無しさん@お腹いっぱい。 :2022/11/28(月) 16:53:37.90 ID:STHTK8b/0.net
>>292-293
既存職業を奪うかどうかは技術的にはわりとどうでもいい話だとは思うけど、「感情を乗せる」というのはそれを声優がやるかボカロみたいに調声師がやるかという違いではある
>>291
これが気になるな
「自然な」と言っても大抵調音ノイズ入ってることが多いけど探してみたい

297 :名無しさん@お腹いっぱい。 :2022/11/28(月) 17:05:42.54 ID:i5GtozBw0.net
感情を指定したり文章から感情を推定したり音声から感情を読み取ったり既に出来るんだよなぁ
過小評価されてた所にある日突然ドカン!という画像と同じパターンになると思ってる
W2V2-VITSモデルで1000ワードも用意してトレーニングすれば既に中堅声優レベルくらいあるからね
流石に既存の音声ソフトとは次元が違う

298 :名無しさん@お腹いっぱい。 :2022/11/28(月) 17:34:28.12 ID:3NCSWQF4M.net
数年したらAIだけでアニメ作れそう
製作会社としては低コスト化で旨味あるだろうけど
クリエイター守るために規制したら
中国に全部持っていかれて被害拡大しそう

299 :名無しさん@お腹いっぱい。 :2022/11/28(月) 17:42:55.89 ID:wq+Lt5CC0.net
>>296
感情を乗せるというのは発声っていうアナログだから出来ることであってデジタル調整は人の手では無理

AIもまだ絶対に無理
出来上がるのは○○風だけ

300 :名無しさん@お腹いっぱい。 :2022/11/28(月) 17:46:20.80 ID:w70aX2sj0.net
まあ石ころの画像でも汗とか血管マークと湯気をつければ感情があるように見える
人間の感覚ってその程度のものだ。

301 :名無しさん@お腹いっぱい。 :2022/11/28(月) 17:48:00.85 ID:STHTK8b/0.net
>>299
ボカロでも感情乗ってるなぁとよく思う派だからそこは個人の閾値だろうね
技術的な話じゃないのでそれについてここで議論する気はないかな

302 :名無しさん@お腹いっぱい。 :2022/11/28(月) 18:09:28.42 ID:68BuEw36d.net
感じ方は人それぞれと言うけれど、個人の感想を言い合うだけじゃ話として成立しないと思う

303 :名無しさん@お腹いっぱい。 :2022/11/28(月) 19:02:25.42 ID:xPq6107M0.net
DreamBoothって正面の絵しか学習できないのかな?
背中を見せて振り向いてる絵とか作ろうとすると、途端に破綻するわ

304 :名無しさん@お腹いっぱい。 :2022/11/28(月) 20:09:16.44 ID:DCsglPOc0.net
新しいHentai Diffusionが凄いらしいと聞いて試してるけどガチで凄い
ネガティブプロンプトをガッツリ入れるからか
シンプルなプロンプトでいい感じのイラストが生成できる
masterpiece, best quality, 1girl, hatsune miku
https://i.imgur.com/bJjx3TA.png
masterpiece, best quality, 1girl, cyberpunk
https://i.imgur.com/hvRbFA0.png
masterpiece, best quality, 1girl, steampunk
https://i.imgur.com/eUfSFjn.png
masterpiece, best quality, 1girl, fantasy
https://i.imgur.com/T6QeTtT.png

ただ、ややくすんだ色味になるから色調補正はいるかもしれない
https://i.imgur.com/m9RARQx.png
https://i.imgur.com/FESLa7w.png
https://i.imgur.com/zJPoNuo.png
https://i.imgur.com/nz1dVsZ.png

305 :名無しさん@お腹いっぱい。 :2022/11/28(月) 20:16:35.87 ID:eJIp9Jas0.net
>>304
まったく同じ設定でNAIとANYも試してみたほうがいいよ
似てたら単なるマージという可能性もある

306 :名無しさん@お腹いっぱい。 :2022/11/28(月) 20:19:57.98 ID:RH5od+Mva.net
適当なvae使えばいいよ
あとあのくそ長いネガティブだけどスタイルに登録しておいてオンオフしてみるといい
実は大差ない

307 :名無しさん@お腹いっぱい。 :2022/11/28(月) 20:21:20.65 ID:RH5od+Mva.net
もちろんヒストグラムが端から端まで埋まっていない時に限らず色調補正できるに越したことはない

308 :名無しさん@お腹いっぱい。 (ワッチョイ 775f-Z2Iz):2022/11/28(月) 20:58:41.48 ID:w70aX2sj0.net
an Asian youkai girl portrait with nekomimi

anything
https://i.imgur.com/N6PT6uV.jpg
hentai
https://i.imgur.com/kjILXJk.jpg

似てるっていえば似てるが・・

309 :名無しさん@お腹いっぱい。 (ワッチョイ 775f-Z2Iz):2022/11/28(月) 21:03:42.61 ID:w70aX2sj0.net
ああシード同じにするの忘れてた
hentai
https://i.imgur.com/OA4rUzQ.jpg

まあ似てるねw

310 :名無しさん@お腹いっぱい。 (ワッチョイ 9701-CHRJ):2022/11/28(月) 21:03:52.27 ID:yEuP3CET0.net
>>304
なんかanyのvaeあてないときっぽい第一印象

311 :名無しさん@お腹いっぱい。 (ワッチョイ 9701-L9hK):2022/11/28(月) 21:19:00.33 ID:H5Aafjw80.net
anyはヒラメっぽいから嫌いだ
もっと丸っこいのが欲しい

312 :名無しさん@お腹いっぱい。 :2022/11/28(月) 21:51:25.23 ID:bKRvCP+G0.net
指に関してはanythingが強いな

313 :名無しさん@お腹いっぱい。 :2022/11/28(月) 21:57:17.39 ID:Xc0F0LTd0.net
結局リーク今んところNAIありきだね
waifuは逃げちゃったし

314 :名無しさん@お腹いっぱい。 :2022/11/28(月) 22:00:28.03 ID:OIawWuj5M.net
waifuって1.4もうすぐじゃなかった?いま出しても他のが強くて知れてそうだけど

315 :名無しさん@お腹いっぱい。 :2022/11/28(月) 22:21:42.55 ID:u2zwyEV50.net
waifuは個人だろ?
よくやってくれたわ
まあ総合的な品質はNAIには適わずともwaifuはwaifuにしか出せない質感もある

316 :名無しさん@お腹いっぱい。 :2022/11/28(月) 22:32:36.65 ID:VUKW571M0.net
>>309
マージモデルでクオリティ落ちてんじゃねコレ

317 :名無しさん@お腹いっぱい。 :2022/11/28(月) 23:07:27.34 ID:YvB1mV6VM.net
指が書けるのは必須条件だな

318 :名無しさん@お腹いっぱい。 :2022/11/28(月) 23:12:19.17 ID:w70aX2sj0.net
anyでも画家名いれて工夫すればもっと柔かい感じにできる
ミュシャの名前入れるとなぜかロリロリ度が増す

319 :名無しさん@お腹いっぱい。 :2022/11/28(月) 23:13:34.81 ID:VSXPz+oRM.net
みんなNJ触っとらんのか
流石にやばいんかなアレ

320 :名無しさん@お腹いっぱい。 :2022/11/28(月) 23:20:22.13 ID:Xc0F0LTd0.net
>>318
ミュシャはSD出た直後に流行ったね
慣れてくると画家名入れなくなるが

321 :名無しさん@お腹いっぱい。 :2022/11/28(月) 23:20:31.12 ID:Qr/CSCz60.net
anythingはただ美少女作るだけだから飽きた
新しいモデルデータばらまいてくれ

322 :名無しさん@お腹いっぱい。 :2022/11/28(月) 23:37:07.86 ID:2nNjnD3G0.net
昨日、極めたとまで思ったのに
ワード条件変えたら再現度ダダさがりして
ショック。
これ200枚くらい描けばまた
クオリティ上がるのかな?

323 :名無しさん@お腹いっぱい。 :2022/11/29(火) 00:13:48.55 ID:f0ceGSoN0.net
同じ設定でモデル比較
https://i.imgur.com/uZe0yhs.jpg

324 :名無しさん@お腹いっぱい。 :2022/11/29(火) 00:35:58.95 ID:yT4GdmWY0.net
それにしても
こんなに短期間でお絵描きAIがポンポン出るんもんなんだな
数年後が愉しみだや

325 :名無しさん@お腹いっぱい。 :2022/11/29(火) 00:43:00.77 ID:ZlXcKOUI0.net
>>324
今のペースでいくと2025年にはシンギュラリティを迎えるという論文が出て、どうやら確からしいと言うのがおおかたの見方らしい
絵師の仕事どころの話じゃないらしいね。あらゆる職業がやばい
お絵描きAIの成功もあって、どうやってAIを巨大化させればいいかがハッキリしたんだってさ

326 :名無しさん@お腹いっぱい。 :2022/11/29(火) 00:49:42.16 ID:AhmYn7Bz0.net
フワッフワやんけ草

327 :名無しさん@お腹いっぱい。 :2022/11/29(火) 00:49:51.59 ID:L8EwHdsYa.net
俺の仕事も普通にAIに代替されるって言われてるわ

328 :名無しさん@お腹いっぱい。 :2022/11/29(火) 01:10:48.58 ID:iiSwohmn0.net
ワイは底辺やからAIより時給やすいだろうし安泰やわガハハハハ

329 :名無しさん@お腹いっぱい。 :2022/11/29(火) 02:43:40.17 ID:3omdRo010.net
>>325
でもAIに仕事取られるかどうかは別として、
タダのSEEDガチャにプロンプトの指定で人力これだけ使うAIって何だろうとは思うわな
指定単語つかった学習画像の非可逆圧縮を、Eta noiseひっくるめたSEEDつかって解凍してるだけなきもする

330 :名無しさん@お腹いっぱい。 :2022/11/29(火) 02:52:01.98 ID:xcwUN1y00.net
>>325
その時代が来たとしても著作権があるだけクリエイターはマシなのかもね

331 :名無しさん@お腹いっぱい。 :2022/11/29(火) 03:28:50.46 ID:xf20bJGd0.net
>>323
anithingが好みやな

332 :名無しさん@お腹いっぱい。 :2022/11/29(火) 03:33:55.72 ID:NLhvFvt50.net
anythingは変わったポーズのモデルデータ入ってないからか奇抜な絵が作りにくいから飽きる

333 :名無しさん@お腹いっぱい。 :2022/11/29(火) 07:54:35.63 ID:ZlXcKOUI0.net
>>325 の論文これっぽい
https://www.lesswrong.com/posts/3nMpdmt8LrzxQnkGp/ai-timelines-via-cumulative-optimization-power-less-long
https://imgur.io/HAY1IlG.jpg 特にこのグラフ

んでこれを読んで落胆し、シンギュラリティ後の世界について落合陽一が語る動画
https://youtu.be/j2TbvmXN_Y4

334 :名無しさん@お腹いっぱい。 :2022/11/29(火) 08:29:48.08 ID:oNMlXYriM.net
>>332
俺はNAIで構図出してからi2iでモデルだけ切り替えて作ってる

335 :名無しさん@お腹いっぱい。 :2022/11/29(火) 08:42:15.32 ID:ZRzs7jo80.net
1つのモデルにまとめたいっていうのがもう古いわな
学習してない画像に似た絵を無理やり引っ張り出そうとするより
特化したモデルをシーンや物足りない時に切り替える方が速くて楽
ローカルDBとかはもともとそういう発想だしね

336 :名無しさん@お腹いっぱい。 :2022/11/29(火) 09:11:40.74 ID:1ZfzhDiF0.net
>>334
ララァは賢いな

337 :名無しさん@お腹いっぱい。 :2022/11/29(火) 09:27:23.24 ID:AhmYn7Bz0.net
ええ…ソース落合って…

338 :名無しさん@お腹いっぱい。 :2022/11/29(火) 09:42:37.00 ID:AhmYn7Bz0.net
言えてんのこれだけじゃねえか
Intelligence is constrained by P (cumulative optimization power)
P is predictable (Moore's Law), and postdicts the history of AI/ML progress
Future extrapolation predicts AGI in roughly a decade, absent unlikely defeaters
DL systems already seem competitive enough with equivalent brain modules and animal brains of similar P values; DL architectures/algorithms will only improve
It is unlikely that the human brain is highly exceptional other than in P
特に最後のが論説見ると疑わしい
実際の予測値はこれの次に書いてあるけどなったらええなーぐらいの適当予測やん
草生えるわ

339 :名無しさん@お腹いっぱい。 :2022/11/29(火) 10:50:36.39 ID:aCIWkZKk0.net
革ジャンのムーアの法則は終ったは値段を上げるための方便だと思ってる

340 :名無しさん@お腹いっぱい。 :2022/11/29(火) 11:09:21.65 ID:XlJntbFzp.net
AI凄いって盛り上がる間隔が狭まってるよね
後何十回か盛り上がったら毎日凄いとか毎秒凄いとかになるかも

341 :名無しさん@お腹いっぱい。 :2022/11/29(火) 11:23:05.97 ID:31H1sRzC0.net
凄すぎて凄さを忘れるくらいまでになると
もう生活に密着した車みたいな話になってくるんだろうな

342 :名無しさん@お腹いっぱい。 :2022/11/29(火) 11:23:16.58 ID:oWByR1eQ0.net
シンギュラリティやらすぐ強いAI出現やら言い出す人達は
どうもスケールさえあれば届くと思い込んでる
GPT-3の時点で普通の個人の語彙を遥かに超えているが
統計的オウムに過ぎないと揶揄されるレベル

343 :名無しさん@お腹いっぱい。 :2022/11/29(火) 11:32:37.65 ID:AL5VB+IRa.net
GPT-3といえば某界隈でのAIのべりすとの活用例を見てるけど
脈略のないギャグの連続を書くことしかできないなという感想
専門的な文章を書かせようとしても、すぐに「〜だそうだ。」「〜なんだって。」のような
ふさわしくない表現が出てくるし

344 :名無しさん@お腹いっぱい。 :2022/11/29(火) 11:34:32.09 ID:uX21bG6+0.net
現状は人間が学習モデルを作ってごく限られた範囲に適用しているだけ
画像生成に限ってはGoogleがDeepLearningで優れたモデルを作ってからある程度予想できた範囲内のこと
人間のようにふるまう汎用的な人工知能は試みはあっても進展はないよ
ただ、局所的な能力を不可逆的に進歩させていけば、神のような超知能の片鱗は見えるかもしれない

345 :名無しさん@お腹いっぱい。 :2022/11/29(火) 11:56:05.13 ID:oWByR1eQ0.net
局所的な能力はただの弱いAIでしょ
そもそもハイスペックな機能なんてなくても
昆虫レベルの脳回路ですら見事に難しい制御をやってのける
パラメータ・データ量・マシンパワーのド根性は確実に何かを見失ってる

346 :名無しさん@お腹いっぱい。 :2022/11/29(火) 12:07:55.80 ID:iQCWBcbR0.net
このスレでRadeon使っている人少なさそう

347 :名無しさん@お腹いっぱい。 :2022/11/29(火) 12:11:09.06 ID:31H1sRzC0.net
Photoshopのコンテンツに合わせた修正ツール自動選択ツールがどんどん進化してるのと同じことしているんだと思ってる
今までスタンプでペチペチ、荒く選択してパスで選択してマスクで塗って消してみたいなことしてたのに、ほいやっといてねってしたら綺麗にしてくれるんだもん
お絵描きツールも一緒でしょ、こうしたいからやっといてねってしたらやってくれるみたいな
手間を減らしてくれるってのがありがたい

348 :名無しさん@お腹いっぱい。 :2022/11/29(火) 12:39:06.02 ID:YSadndhv0.net
強いとか弱いとか関係ない。
来年には動画、動画の次はアバターや
大人気AIVTuberが無限に生放送する時代がすぐ来る。

その時にそのAIと自分を比べて、
どちらが「知的生命体」として優秀かと考えることになる。
あいつには汎用性はない
ゴミを拾ってゴミ箱に捨てれるだけ人間の俺の方が優秀やと思ったって惨めなだけ。

まあまだその段階だと、人間同士でも自分より優秀な人を知る機会はあるので得意不得意論でスルーもできる。
でもそこから数年も経てば、種族としてどうあがいても立ち向かえないと嫌でも分からされるときが来る。

その時人類は「サピエンス」を捨ててただの「ホモ」になる。

349 :名無しさん@お腹いっぱい。 :2022/11/29(火) 12:41:30.29 ID:gSGtRvRZa.net
失業する人大量に出てくるならそれはそれでお仲間だしいま好きなことやってりゃいいや
俺の仕事もどうせすぐAIで代替されそうなもんだし

350 :名無しさん@お腹いっぱい。 :2022/11/29(火) 12:50:47.42 ID:CKaD1iq9M.net
AIに肉体労働ができるかよ
巨大ハードウェアに生えたカビをこそぎ落とすのが人間の次の仕事さ

351 :名無しさん@お腹いっぱい。 (ブーイモ MMbf-P9Gf):2022/11/29(火) 12:55:13.65 ID:oNMlXYriM.net
体内電流あげるからマトリックスの世界に行かせてくれや

352 :名無しさん@お腹いっぱい。 (ブーイモ MMcf-630k):2022/11/29(火) 13:01:27.87 ID:mZ8R3DrnM.net
何故AI信者は加速主義になってしまうのか

353 :名無しさん@お腹いっぱい。 (ワッチョイ 9701-CHRJ):2022/11/29(火) 13:02:31.14 ID:31H1sRzC0.net
こうしたいの方向性までAIが考え出したら人間用無しだな

354 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:02:54.53 ID:AMkjB1420.net
車の組み立てができるなら肉体労働もそのうちなんじゃないの

355 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:07:29.89 ID:QP3cZ4b6M.net
なぜか絵とか音楽だけやたらと騒がれてるけど他の分野も危ういの気づいてないんだよねみんな

356 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:10:35.88 ID:OKpB+CLa0.net
>>355
証券取引ではとっくに実用されているし、プログラミングの自動化も話題になっていた

357 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:12:41.59 ID:2UBporsBD.net
デジタルに近い分野ほどすげ替え効くからな
ブルーカラーはアナログだからかなり後になるだろうが

358 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:13:22.44 ID:49Hgw+0g0.net
何のスレだよ

359 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:13:44.39 ID:31H1sRzC0.net
数字いじりとかコードいじりなら明らかに得意そうなイメージあるからじゃないのかね
クリエイティブと言われるアート的なのは人間が優れているんだって思ってたのに
なんか急に抜き去ろうとするのはちょっと待てってなるよ

360 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:23:14.63 ID:eL1kXZurp.net
AIは数字いじり苦手なのでは
数学者がAIに置き換わったって話は聞いた事ない

361 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:28:46.42 ID:2UBporsBD.net
>>360
まだ閃きが無いから既存のデータ元にしないと出来ない
AIが閃きを覚えたらその時点でシンギュラリティ

362 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:29:48.36 ID:lIc9HT6L0.net
まあでも音楽とか絵は今後超進化して何でもできるようになっても、この人が直接描いた絵がほしい!直接作曲した曲聞きたい!みたいなのあるからよくね、著作権も発生するし仲間内で遊べるやん趣味として

この人がする事務処理がいい!この人の書いたコードがいい!みたいなのとか絶対にないわけじゃん…

363 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:38:27.36 ID:uX21bG6+0.net
>>352
日進月歩の技術発展を知らないでお絵かきAIの最先端を上っ面だけ追ってるから
こういう人たちはすぐ失望期に入ると思う

364 :名無しさん@お腹いっぱい。 :2022/11/29(火) 13:43:41.26 ID:49Hgw+0g0.net
今頃GPT-3のアプデ来たんだけど、
GPT4はどうなったんだよ

365 :名無しさん@お腹いっぱい。 :2022/11/29(火) 15:15:54.31 ID:YSadndhv0.net
この人が~ってなるのは、あくまで今現在は多くの人にとって深く好きになれる存在が人間しか居ないからでしかないでしょ
別に遺伝子に人間の形のみを好むように組み込まれてるわけでもないし、人間だって千差万別じゃん
人間より良いものが出てきたら基本的にそっちに流れるというのが普通だよ

366 :名無しさん@お腹いっぱい。 :2022/11/29(火) 15:36:35.57 ID:lIc9HT6L0.net
AI信仰すごいな

367 :名無しさん@お腹いっぱい。 :2022/11/29(火) 15:39:07.30 ID:r9Pdywrz0.net
それ以上のどっちがどうだは宗教戦争になるから踏み込むな

368 :名無しさん@お腹いっぱい。 :2022/11/29(火) 15:46:32.42 ID:DABD1Ytt0.net
どっちでもええんやが
スレチなんで確かなんか総合とかあったやろ

あっちで好きなだけ話すと良い

369 :名無しさん@お腹いっぱい。 :2022/11/29(火) 15:54:56.47 ID:8meH7Ssr0.net
NAI並みのエロ描写が出せる一般公開モデル(ckpt)ってないのかな
Anythingだと全く出ない

370 :名無しさん@お腹いっぱい。 :2022/11/29(火) 16:59:48.27 ID:2zO7OiA10.net
俺も知りたい
anyとNAIでマージする以上に良い奴とかないんやろか

371 :名無しさん@お腹いっぱい。 :2022/11/29(火) 17:06:40.89 ID:ABqGziXM0.net
waifuなら、それでもwaifuならきっと
あとエロならエロ板で

372 :名無しさん@お腹いっぱい。 :2022/11/29(火) 17:16:01.23 ID:AL5VB+IRa.net
>>369
anythingのエロは普通に出るしHDなどと比べれば非常に高品質と感じた
もしかして出ないというのはニッチな特殊性癖系かな

373 :名無しさん@お腹いっぱい。 :2022/11/29(火) 17:37:08.43 ID:8meH7Ssr0.net
>>372
ニッチかどうかはわからないけど
裸だけなら出せるが、sexは無理だった

374 :名無しさん@お腹いっぱい。 :2022/11/29(火) 18:51:12.91 ID:6+7rtA7i0.net
DBの追加学習に結構すぐに限界があることがわかったから、今のところマージ遊びに落ち着くなぁ
落合陽一が言ってたシンギュラリティと言うからには別のベクトルの論拠だよ。一人が騒いでるだけだけど。一応。この辺も面白いよね。
HD17は良かった、教えてくれた人ありがとう。

375 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:00:46.58 ID:HUHlgPErd.net
>>373
エロスレにお行き、そこに救いあったりなかったり

376 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:04:51.36 ID:oNMlXYriM.net
ANYは男体マジで出ん
女が勝手にビクンビクンしてる

377 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:14:59.99 ID:7zBaze/Ka.net
お前らってステップ数とスケール数どうしてる?
俺は基本的にステップ100・スケール10でやってるけど出したいものによって細かく変えたほうがいいのかな

378 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:16:12.87 ID:5s7RL0vR0.net
これ試した人おる? CLIPを変更するやつ
https://zenn.dev/discus0434/articles/7ada798c5cc87d

379 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:31:39.13 ID:1jVHPJC80.net
今日の昼間みたいな個人の感想の寄せ集めになったら総合スレへ移動してくださいね

【Midjourney】AI関連総合21【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1669560156/

380 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:41:15.55 ID:m1NLYgUw0.net
>>379
そこはもうろくに画像生成AI触ったこともないアンチAIの馴れ合い所と化してるからなあ
攻撃性強すぎてとても総合スレとして雑談できる空気じゃない

381 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:49:05.18 ID:HoEamIdsa.net
いやスレチなんだから他所行けよ アンチ馬鹿にしてるけどルールも守れない奴よりマシだわ

382 :名無しさん@お腹いっぱい。 :2022/11/29(火) 19:52:05.05 ID:pq2l92PDa.net
>>378
これなー
公式で変更してくれるならいいんだけど個人で変更するとアップデートとかほかのスクリプトとかに影響ありそうでこわくない?

383 :名無しさん@お腹いっぱい。 :2022/11/29(火) 20:34:38.87 ID:gja13cJi0.net
SDの学習で使ったCLIPから変更して良くなる理屈が分からんのだが…。
学習時に使ったCLIPの埋め込みに対してunetを学習させてるんだから、変更すると出力がややズレるのでは?
CLIP自体の性能とSDの出力の品質は別問題じゃないの?

384 :名無しさん@お腹いっぱい。 :2022/11/29(火) 20:44:40.05 ID:f/0HmZc70.net
ふと思ったけど皆promptどんなの打ってるのかなって。
自然言語を使ってるのか、それとも単語をカンマで区切って使ってるのか。

前まで英文を使ってたけど単語方式にも興味が湧いたんだ。

385 :名無しさん@お腹いっぱい。 :2022/11/29(火) 20:51:50.48 ID:49Hgw+0g0.net
プログラムもプロンプトもコピペが一番いい

386 :名無しさん@お腹いっぱい。 :2022/11/29(火) 20:58:29.90 ID:lxCCjqVx0.net
>>384
nai系やwaifuはdanbooruタグで学習してるからカンマ区切りのほうが伝わりやすいんじゃなかったっけ

387 :名無しさん@お腹いっぱい。 :2022/11/29(火) 21:08:36.83 ID:pq2l92PDa.net
トークン語

388 :名無しさん@お腹いっぱい。 :2022/11/29(火) 21:22:13.46 ID:VPqbuYgb0.net
カンマは一語にカウントされるから不要と理解してる
CLIPの仕組み上、基本単語の羅列。たまに前置詞入れて様子見が効率的かな

389 :名無しさん@お腹いっぱい。 :2022/11/29(火) 21:25:09.80 ID:NLhvFvt50.net
anythingは精子ぶっかけ専用モデルデータ

390 :名無しさん@お腹いっぱい。 :2022/11/29(火) 21:43:16.15 ID:pq2l92PDa.net
俺得じゃん

391 :名無しさん@お腹いっぱい。 (ワッチョイ 9701-RPwI):2022/11/29(火) 22:31:59.73 ID:f0ceGSoN0.net
>>383
なんUの方で執筆者の勘違いとか指摘されてるな
そもそもCLIP性能の調べ方がわからないから検証できないわ

392 :名無しさん@お腹いっぱい。 :2022/11/29(火) 23:01:19.59 ID:ZBSdCCPg0.net
NMKDが1.71になって+/-表記に変更
従来の記法は勝手に直してくれるので楽チン
あとやっぱりローメモリモードではVAEやネガティブプロンプトは使用不可のようだ

でも今までローメモリでしか動かなかったのに(当方3GB)ノーマルモードでも動くようになった
軽量化に成功したのかしら?

393 :名無しさん@お腹いっぱい。 :2022/11/29(火) 23:31:21.89 ID:n6R6ZzQL0.net
stable diffusionでレオタードをローレグ化してくれるワードとかってありませんかね?
lowleg~ってしてもハイレグになってしまう……

394 :名無しさん@お腹いっぱい。 :2022/11/29(火) 23:47:00.46 ID:ZlXcKOUI0.net
>>378
変更内容おかしくないし良さげな内容っぽいから試してみた。

プロンプトではsmall breastsと書いてるんだけど、変更後は胸がちょっと強調されてサイズアップしたっぽい。あと表情が少しだけエロっぽくなったかも?
エロ目的なら変更したほうがちょっとだけ良くなるかもと思った

変更前
https://i.imgur.com/eEuqbHj.jpg

変更後
https://i.imgur.com/tYJcIP3.jpg

395 :名無しさん@お腹いっぱい。 :2022/11/29(火) 23:51:30.97 ID:Qh0qZGDU0.net
clip変えるやつかなり効いたよ
とても聞き分けが良くなって使いやすい
強調しなくても効果が出るようになる
Anythingで特定のワード入れると問答無用でロリになってしまう現象がかなり緩和されて満足

396 :名無しさん@お腹いっぱい。 :2022/11/30(水) 00:03:27.08 ID:TQFuMOKT0.net
>>378
CLIP変更の件で、奇形になるseedのを試してみた
奇形回避の効果すごいぞ。CLIPは変更したほうがいいな

変更前
https://i.imgur.com/ht1T6SG.jpg
https://i.imgur.com/Aj3K8ae.jpg
https://i.imgur.com/kBRNZjq.jpg

変更後
https://i.imgur.com/sxKFgCx.jpg
https://i.imgur.com/BwEq8Xk.jpg
https://i.imgur.com/CysIsKL.jpg

397 :名無しさん@お腹いっぱい。 :2022/11/30(水) 00:08:32.55 ID:vlRvp5OD0.net
>>392
伺いたいんですが7-10g位のckpt使ってもmost featuresで動作していますか
私は1.7でok.exeが多重起動するため1.7.1にアップデートしたら
ok.exeは変わらずpython.exeも多重起動するようになりました

398 :名無しさん@お腹いっぱい。 :2022/11/30(水) 00:34:02.98 ID:ihHRJMuz0.net
>>393
そゆのはここよりなんUかpinkできいたほうがええで

399 :名無しさん@お腹いっぱい。 :2022/11/30(水) 01:04:02.92 ID:gSnpI+1O0.net
>>396
効果あるな一目瞭然

400 :名無しさん@お腹いっぱい。 :2022/11/30(水) 01:18:20.61 ID:5rBNN4/a0.net
正常に出てたシードが奇形化するオチじゃねえだろうな

401 :名無しさん@お腹いっぱい。 :2022/11/30(水) 03:25:50.70 ID:iGG9knU+0.net
>>378
他の人が言うように破綻は少なくなった感じ
満足したものが、ほぼ出てくる

402 :名無しさん@お腹いっぱい。 :2022/11/30(水) 03:55:38.52 ID:AJdrv7PZa.net
自分で試さないと気が済まないわなこういうのは

403 :名無しさん@お腹いっぱい。 :2022/11/30(水) 05:10:21.42 ID:AJdrv7PZa.net
プロンプト1
P :
a wizard girl swings a bluish fire glowing magic sword with blue fire trails, loli, loli, loli, kawaii, detailed
NP :
bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts
CLIP変更前
https://dl.dropboxusercontent.com/s/92115pvyaxkieh7/no_Edited1.jpg
CLIP変更後
https://dl.dropboxusercontent.com/s/ea9mke68c9jujj0/Edited1.jpg

プロンプト2
P :
big sister is supporting little sister from behind in steampunk styled wizard atelier, little sister is casting a magical spell with a stuff, loli, kawaii, little sister has long dark blonde hair, big sister has long silver hair, detailed, from under
NP :
bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts
CLIP変更前
https://dl.dropboxusercontent.com/s/xi8rn64v9jr8083/no_Edited2.jpg
CLIP変更後
https://dl.dropboxusercontent.com/s/xo1ikwx8kltxnyt/Edited2.jpg

xはなんとなくCLIP skip入れた
yのモデルはHentai Diffusion1.7とtrinとかwaifuとかを混ぜたもの
シード値はグリッドの場所ごとにすべて共通
SamplerはDPM++ SDE KarassのStep数20
CFG Scaleは4.5
サイズは768x512

404 :名無しさん@お腹いっぱい。 :2022/11/30(水) 05:14:15.02 ID:AJdrv7PZa.net
自分でもやってみた
NP共通なのはただの横着
全く当然のことだけどCLIPの性能が高い(?)からといってかわいい絵が出る訳でもなければ
銀髪と金髪をくれと言って出てきた画像に銀髪しかいなかったり金髪しかいなかったりするのはどっちのCLIPでもあったり

405 :名無しさん@お腹いっぱい。 :2022/11/30(水) 05:15:38.86 ID:AJdrv7PZa.net
まあCFGスケールとかほかのモデルとかいっぱい動かして見てみたいパラメーターはあるんだけど時間かかりすぎる
A100民検証おねがいします()

406 :名無しさん@お腹いっぱい。 :2022/11/30(水) 06:11:15.69 ID:x1MSjrmE0.net
>>393
何度も出てるけど英単語は利用されてるものの、英語を理解しているわけでもエミューレートしているわけでも
英語全ワードが登録されている訳じゃないから…
Danbooruタグ使いたいなら、NAIやNAI-lastestの再学習版のAnything、Gape60、EimisAnime、Elysium等のモデルを混ぜるかそのものを使った方が早いかな
WDもあるっちゃあるが、タグをアルファベット順に並べたほうがいいとか、生成そのものが残念って言われてるから…

基本的に学習時に登録されている単語(または関連)でしか出てこないよ
子供向けワードや、SDオリジナルそのまま使う人は嫌がるロリワード使った方が出やすいかも
ハイレグいらないならDBでレオタードをローレグの画像で再学習して上書きしてしまえばいい
メモリがないならDAやHNでもできる

407 :名無しさん@お腹いっぱい。 (アウアウウー Sa5b-Q03N):2022/11/30(水) 06:48:30.58 ID:/+xl9hO8a.net
マジレスすると英語にlowlegなんて単語はない
英語の水着の通販サイト調べてなんで呼ばれてるか調べればわかる
メーカー名を指定するのが一番早い

408 :名無しさん@お腹いっぱい。 :2022/11/30(水) 08:10:38.88 ID:Qqu+K8yMd.net
ダンボールにローレグ相当の単語ないのかしら

409 :名無しさん@お腹いっぱい。 (ブーイモ MMfb-P9Gf):2022/11/30(水) 08:33:21.77 ID:5rXWP9IgM.net
正式はローライズじゃねえの

410 :名無しさん@お腹いっぱい。 (ワッチョイ b7e0-Gfcg):2022/11/30(水) 09:18:37.36 ID:KUpPztaZ0.net
DreamBoothってCLIP自体も学習してたの知らんかった
このプロンプトにはこういう絵を割り当てますってこと自体を再学習してるから
画風や絵描きの癖(パンスト好きとか)まで再現してしまうんだな
その分汎用性は大きく下がると

411 :名無しさん@お腹いっぱい。 :2022/11/30(水) 11:43:34.84 ID:mVOTMBle0.net
ローレグ
Low leg cut

412 :名無しさん@お腹いっぱい。 :2022/11/30(水) 12:25:02.17 ID:2+5K8qag0.net
この流れは流石に草
規制するよりは利用するほうが賢い


イラスト制作ソフト「Clip Studio」、画像生成AI「Stable Diffusion」を導入。AIを憎む絵師全員憤死へ… [296617208]
https://greta.5ch.net/test/read.cgi/poverty/1669774206/

413 :名無しさん@お腹いっぱい。 :2022/11/30(水) 12:29:13.14 ID:ZNGQTnDW0.net
AIはツールだからそれ以上でもそれ以下でもない
道具である以上包丁で料理するのも人を刺すのも使う人間の責任
ただそれだけ

414 :名無しさん@お腹いっぱい。 :2022/11/30(水) 12:59:43.08 ID:DGWZsD6Sa.net
>>412
これ海外で大炎上してて面白い
セルシスはバカやったと思うわ

415 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:16:41.54 ID:5rBNN4/a0.net
それで離れるようなバカは客じゃねえんだろう原始人相手にしてても無意味だからな

416 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:17:37.16 ID:n57UrETf0.net
クリスタなら思うところあっても離れるはないだろう

417 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:18:51.96 ID:D9f/9fyG0.net
それは自己欺瞞だな
信念を貫いて筆を折るほうが清い気がする

418 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:20:05.37 ID:Mp6BeLSd0.net
>>414
Twitterはエコーチェンバー

419 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:20:14.12 ID:0ys8b6L0D.net
フォトショに戻ればいいんじゃね?
もしくはSAIかw

420 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:21:11.70 ID:Mp6BeLSd0.net
PhotoshopはAIでは老舗
SaiならAIフリー

421 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:34:50.44 ID:D9f/9fyG0.net
>>420
クリスタは月額100円から利用できるのにSAIは購入で5500円するのか
貧しさに負けた

422 :名無しさん@お腹いっぱい。 :2022/11/30(水) 13:59:47.64 ID:nf1kbvJS0.net
イラスト界隈で今AIがどんな立場にあるかセルシスが知らないはずがない
その上でSDを導入したというのはもうそういうことだ
ツール提供側はAIを完全に是としている
まあエンジニアと絵描きでは価値観も大きく違って当然だ

423 :名無しさん@お腹いっぱい。 (ワッチョイ d705-s0H/):2022/11/30(水) 14:30:18.72 ID:FXcW8qeB0.net
>>412
これローカルだよね?
グラボないとまともに動かんのでは

424 :名無しさん@お腹いっぱい。 (アウアウウー Sa5b-N0LU):2022/11/30(水) 14:45:46.84 ID:AJdrv7PZa.net
ローカルじゃなかったら無料GPU提供サービスで笑うしかない
ただしモデルはSD

425 :名無しさん@お腹いっぱい。 :2022/11/30(水) 14:46:56.06 ID:Mp6BeLSd0.net
何故ローカルだと思うのかが理解できないw

426 :名無しさん@お腹いっぱい。 :2022/11/30(水) 14:47:51.51 ID:2+5K8qag0.net
絵描けないけど手だけは自力で修正ってできるかな?
ハードオフの青箱に数百円であるペンタブ買ってこようかな?

427 :名無しさん@お腹いっぱい。 :2022/11/30(水) 14:53:59.84 ID:P7k7QpVP0.net
SDがクリーン化アピールしているのはclip studio以外にも組み込んで使う話しが来ているからではないかと予想

428 :名無しさん@お腹いっぱい。 :2022/11/30(水) 14:56:02.02 ID:/l6Ghou00.net
クリスタ使ってる人達ってマジでグラボって何?レベルの人多いからね
まずローカルな訳が無い

429 :名無しさん@お腹いっぱい。 :2022/11/30(水) 14:58:37.79 ID:AJdrv7PZa.net
>>428
さすがにそれはねーよwwww
絵描きは焼肉食べながらゲームするからな

430 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:02:09.46 ID:AJdrv7PZa.net
>>426
結構難しいけど修正だけならちゃんと自分の手とか真似したい手の絵とか用意して見ながらすればいけると思う
手全部消しちゃってそこに演技加えるとなるとかなり長い修練がいる

431 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:21:07.82 ID:KUpPztaZ0.net
クリスタのSDは当然だけど画像生成はセルシスのサーバ側で実行するんだろ?
普通に著作権含めてセルシスに責任帰属すると思うんだけどユーザーに転嫁は厳しくないか

432 :名無しさん@お腹いっぱい。 (ワッチョイ ffbb-6RbN):2022/11/30(水) 15:26:00.91 ID:2+5K8qag0.net
>>430
サンキューなら買ってくるわ

ハードオフ良いぞジャンク扱いの動く機材多い
デッサン人形も550円で売っていたから数日前に確保した

433 :名無しさん@お腹いっぱい。 (ワッチョイ 9702-pVyX):2022/11/30(水) 15:32:06.07 ID:FkM62Yff0.net
makuakeの手のフィギュア買うわ

434 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:39:55.16 ID:Z8Eqi0Zr0.net
クリスタでSD2.0ベースならクリーンかもしれんが背景作るくらいしか用途がないな

435 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:40:35.73 ID:FkM62Yff0.net
一番欲しいのは線画生成だけどな

436 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:50:41.55 ID:P7k7QpVP0.net
>>435
もうちょっと細かく指定すれば色々な線画出来るだろうけれどline artで生成するとこんな感じ
https://i.imgur.com/VV67IBF.png
https://i.imgur.com/fuqqo8S.jpg
https://i.imgur.com/xpD4BIc.jpg

437 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:51:48.63 ID:n57UrETf0.net
版画かな

438 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:53:06.62 ID:sbzDdYQHa.net
クリスタは写真から線画作る機能あるから最初から線画作らなくてもいい

439 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:54:16.70 ID:C3xBV+iba.net
普通に色付きで生成して輪郭線抽出でええやん
きちんと実装すればペンで書いたみたいな線になるよ

440 :名無しさん@お腹いっぱい。 :2022/11/30(水) 15:55:55.36 ID:4hJigx5w0.net
>>436
印刷した紙を木の板に張り付けて上から彫刻刀で掘ったら良い感じになりそう

441 :名無しさん@お腹いっぱい。 :2022/11/30(水) 16:06:06.58 ID:FkM62Yff0.net
>>436
いや違うラフから線画生成して欲しいんだよ透過でな

442 :名無しさん@お腹いっぱい。 :2022/11/30(水) 16:14:06.95 ID:AJdrv7PZa.net
透過はともかく無茶言うなwww

443 :名無しさん@お腹いっぱい。 :2022/11/30(水) 16:23:57.10 ID:5rXWP9IgM.net
背景透過した線だけのキャラって書いてくれないんだよな

444 :名無しさん@お腹いっぱい。 :2022/11/30(水) 16:25:44.37 ID:iGG9knU+0.net
>>436
趣あっていいね
和の冬景色作ってみるわ

445 :名無しさん@お腹いっぱい。 :2022/11/30(水) 16:29:45.89 ID:FkM62Yff0.net
>>442

何が無茶なんだ?

446 :名無しさん@お腹いっぱい。 :2022/11/30(水) 16:46:39.67 ID:AJdrv7PZa.net
いやそんなに無茶じゃないかもしれんわ
ラフ渡してラフ描いた人の絵柄通りに線画させるとか人間でもできるし

447 :名無しさん@お腹いっぱい。 :2022/11/30(水) 17:02:38.22 ID:P7k7QpVP0.net
>>441
ラフスケッチ風
https://i.imgur.com/ZXHaMS8.png
https://i.imgur.com/LLbrmyO.jpg

448 :名無しさん@お腹いっぱい。 :2022/11/30(水) 17:14:07.71 ID:90te3Ndd0.net
線画”風”とかラフスケッチ”風”じゃなくて、ラフスケッチから必要な主線のみにクリンナップした状態がほしいってことだろ、たぶん
ラフをmonochromeやsketchをプロンプトに入れつつi2iしてコントラスト調整、再度i2iさせてみるとか?

449 :名無しさん@お腹いっぱい。 :2022/11/30(水) 17:22:59.30 ID:5rXWP9IgM.net
クロッキーとか指定したらできない?

450 :名無しさん@お腹いっぱい。 :2022/11/30(水) 18:12:07.79 ID:K8i+Kj/y0.net
waifu1.4は、やっぱwaifu1.3寄りになるよね・・・
1.2をアップデートしたかったら、自分でマージするしかないのか・・・

451 :名無しさん@お腹いっぱい。 :2022/11/30(水) 18:22:32.30 ID:+S/L1u8w0.net
線画加工するツールなら別にあるだろ
一つのツールにこだわらないで手を動かして探せ

452 :名無しさん@お腹いっぱい。 :2022/11/30(水) 18:24:04.29 ID:5rBNN4/a0.net
ラフから線画とかそれこそペイントソフトに高性能な専用AI投入されそうやな

453 :名無しさん@お腹いっぱい。 :2022/11/30(水) 18:39:13.49 ID:CzdL5MT50.net
TheLastBenのfast-stable-diffusion、
数日前からNAIリークモデルが使えなくなったんだけど
これはNAIモデル禁止の方向にでもなったのかな?
誰か知ってる?

ttps://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb

454 :名無しさん@お腹いっぱい。 :2022/11/30(水) 18:50:07.38 ID:NgdVXxkK0.net
少し前にNovelAILeak使ってるサービスにNovelAIが仕掛けた話は出てたね
海外で結構初めの方で拡散してたところもNovelAILeakのTorrent関連削除してるのは見た
Anythingの情報は残ってるけ、まぁ集金システムとして普通の行動ではある

455 :名無しさん@お腹いっぱい。 :2022/11/30(水) 18:55:30.01 ID:RuEb4Ajv0.net
meituじゃないの?あれnovelaiっぽいし

456 :名無しさん@お腹いっぱい。 :2022/11/30(水) 19:30:07.54 ID:FkM62Yff0.net
>>452
そのつもりで話してたんだが理解されなかったから身を引いた

457 :名無しさん@お腹いっぱい。 :2022/11/30(水) 19:34:01.04 ID:DbskVaJT0.net
>>453
https://github.com/TheLastBen/fast-stable-diffusion/issues/727
これと同じエラーが出てる?
無料colab ならGPUガチャでなんとかなってた

458 :名無しさん@お腹いっぱい。 :2022/11/30(水) 19:36:00.18 ID:CzdL5MT50.net
>>457
これです!
そういえばcolabのGPU見てなかった、いつも12GBあるのが当たり前だったから…

459 :名無しさん@お腹いっぱい。 :2022/11/30(水) 19:38:51.67 ID:D9f/9fyG0.net
>>458
強運の持ち主現るw

460 :名無しさん@お腹いっぱい。 :2022/11/30(水) 20:01:34.04 ID:CzdL5MT50.net
12.68GBあっても駄目だわ、fast-stable-diffusion側で消費GPUを増やしちゃったのかな
Google drive上に固定環境作ってcolabからDBする方法を確立しとくべきだったな…

461 :名無しさん@お腹いっぱい。 (ワッチョイ d705-dW8y):2022/11/30(水) 22:02:51.74 ID:2HPWKyym0.net
第4世代Ryzen5でもCPU性能十分ですかね?

462 :名無しさん@お腹いっぱい。 :2022/11/30(水) 22:42:27.16 ID:gEOhb4or0.net
>>461
必要なのはnVidiaのGPU性能

463 :名無しさん@お腹いっぱい。 :2022/11/30(水) 22:45:48.03 ID:Mp6BeLSd0.net
webuiはSD2対応で色々やってるぽいな

464 :名無しさん@お腹いっぱい。 :2022/12/01(木) 03:06:52.68 ID:2k07AcOw0.net
>>461
CPUは現行世代のデスクトップ向けなら何でもいいぐらい。
とにかくGeforceのできるだけ上位のモデルを入れるといい。
ただし冷却性能に気をつけた方がいいかも。
ゲーム時でもGDDR6Xメモリのジャンクション温度(一番熱い部分の温度)は100℃ぐらいになるんだけど、AIで自動生成しまくってたら112℃まであがってワロタ。
別にそれで壊れたとかいうわけではないんだが。

465 :名無しさん@お腹いっぱい。 :2022/12/01(木) 03:21:08.84 ID:qtuJcsWgr.net
vram12gbの3060だとどのくらいの解像度の画像が作れるんですか?

466 :名無しさん@お腹いっぱい。 :2022/12/01(木) 03:21:39.75 ID:qtuJcsWgr.net
rtx3060です

467 :名無しさん@お腹いっぱい。 :2022/12/01(木) 04:00:01.42 ID:FdSbf9TXM.net
1500くらい

468 :名無しさん@お腹いっぱい。 :2022/12/01(木) 04:03:17.97 ID:qtuJcsWgr.net
1500×1500がつくれるんですか?
検索すると512よりちょっと上みたいにかいてあるんですが

469 :名無しさん@お腹いっぱい。 :2022/12/01(木) 04:06:15.83 ID:Du3LZzb90.net
>>464
冷却性能と考えるとCPUの性能は控え目の方が装置全体の発熱は減るとも考えられ

470 :名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO):2022/12/01(木) 04:28:19.93 ID:C0vUGqaS0.net
>>465
2048x2048もいけるよ。
この時は手が増殖しちゃったけど……
https://i.imgur.com/sjQilI6.jpg

471 :名無しさん@お腹いっぱい。 (オッペケ Srcb-8ZEP):2022/12/01(木) 04:31:36.11 ID:qtuJcsWgr.net
rtx3060でこんなに細かい画像つくれるんですね。すごい

472 :名無しさん@お腹いっぱい。 (オッペケ Srcb-8ZEP):2022/12/01(木) 04:37:45.37 ID:qtuJcsWgr.net
オッサンゲーマーというサイトではvram12では、640までしか作れないと書いてあるんですが、何か間違っていますか
高解像度のエロ画像がほしいと思って
vram24gbいるのかなとおもってたんですが...
rtx3060で十分ですか?

473 :名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO):2022/12/01(木) 04:44:04.67 ID:C0vUGqaS0.net
最近はvramの利用の効率化が進んでるので、昔の情報はあまり当てにならない。
12GBあれば概ね問題ない(学習やろうとすると足りない場合もある)けど、3060だと使ってるうちにもっと速度が欲しくなる……かもしれない。

474 :名無しさん@お腹いっぱい。 (オッペケ Srcb-8ZEP):2022/12/01(木) 04:46:50.76 ID:qtuJcsWgr.net
そんなに進歩してるんですか。あの記事からたった2ヶ月なのに

475 :名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO):2022/12/01(木) 04:47:07.02 ID:C0vUGqaS0.net
あと、ダイレクトに出せるのが2048x2048くらいってだけで、一回出したのをアップスケール&分割描き直しという手法もあるので、これだとどれだけでかいのでも描ける。

476 :名無しさん@お腹いっぱい。 (ワッチョイ 97f0-pwag):2022/12/01(木) 04:49:12.49 ID:aR/S6zNH0.net
そもそもSD出てから3ヶ月ちょいしか経ってない

477 :名無しさん@お腹いっぱい。 (ワッチョイ 1722-6GeO):2022/12/01(木) 04:55:34.81 ID:C0vUGqaS0.net
4Kだってヘーキヘーキ

https://i.imgur.com/k8eOT8y.jpg

478 :名無しさん@お腹いっぱい。 :2022/12/01(木) 04:59:13.66 ID:qtuJcsWgr.net
pixivに投稿されてるエロ画像がみんなサイズ小さいので、
それなりの人はrtx3090使ってると思ってしまいました

479 :名無しさん@お腹いっぱい。 :2022/12/01(木) 05:27:45.31 ID:TzYMvDkP0.net
>>477
ほう綺麗に出るもんやな
これ3060?

480 :名無しさん@お腹いっぱい。 :2022/12/01(木) 05:43:39.47 ID:GFc+fVij0.net
最近初めてstable diffusion web ui (automatic1111)を導入して、画風の学習をさせようとしているのですが、全く上手くいかなくて行き詰っています。原因が分かる方いますでしょうか?
tps://wikiwiki.jp/sd_toshiaki/Textual%20inversion
上のサイトを参考にして、Trainタブから画風を学習させようとしています。
設定としては、373枚の画像(もともと186枚の画像だったのですが、prosessで1:1にトリミングした結果ほとんど2倍の枚数になりました。)をanything-v3.0をもとのデータとして使い(?)、Prompt template fileはF:\stable-diffusion-webui\textual_inversion_templates\style_filewords.txtに、embedding learning rateは0.005としています。
それで今49000step目まで行ったのですが、下の画像のように全く似た感じの絵柄にならなくて困惑しています…。
https://imgur.com/a/mBapB0u
まだstep数が少ないからこんなにもぼやけているのでしょうか?それともそもそもの用意していた画像や、設定が悪くて失敗しているのでしょうか?
よろしければ教えて頂けると嬉しいです…!!m(__ __)m

481 :名無しさん@お腹いっぱい。 (ワッチョイ d75f-Gfcg):2022/12/01(木) 05:57:36.53 ID:3IRzVYAN0.net
ベースをNAI同じ設定で回して見たら?
それをAnyで適用して使えるか試してみ
Anyはベースに向かない

482 :名無しさん@お腹いっぱい。 :2022/12/01(木) 07:12:58.72 ID:TnIY8n6k0.net
8GBで十分
なぜかというと背景って書き込みが少ないのでGanで拡大できる
キャラの各パーツ毎に最大解像度でinpaintしてganで拡大したら背景にくっつける形になる

483 :名無しさん@お腹いっぱい。 :2022/12/01(木) 07:54:36.02 ID:Zj6RCOjq0.net
3060はホント同価格帯の代わりがないのに安くて優秀で庶民の味方
在庫少なくなってきてるから迷ってる人は買っといた方がいい
2060の12gb?3xと大して変わらない価格の割に性能低くてtdpの高い知らないコですね

484 :名無しさん@お腹いっぱい。 :2022/12/01(木) 07:57:13.08 ID:JiMNNaqk0.net
>>482
さすがにそれはない

485 :名無しさん@お腹いっぱい。 :2022/12/01(木) 07:59:58.08 ID:5GbRR/gq0.net
悲報
Waifu Diffusion 1.4、また延期
今度は12月26日予定

486 :名無しさん@お腹いっぱい。 :2022/12/01(木) 08:03:21.46 ID:Kfkn+/W40.net
もう1.4はいいから2.0作れ

487 :名無しさん@お腹いっぱい。 :2022/12/01(木) 08:08:55.40 ID:TzYMvDkP0.net
NAIとかNJのクォリティみて調整してるんだろうな

488 :名無しさん@お腹いっぱい。 :2022/12/01(木) 08:10:44.27 ID:Kfkn+/W40.net
誰かがwaifu2.0みたいなのを作ってくれないと
2.0普及していかないだろう

489 :名無しさん@お腹いっぱい。 :2022/12/01(木) 08:26:18.49 ID:C0vUGqaS0.net
>>479
3060だけど、SD upscaleだから3060かどうかはあまり関係ないかな

490 :名無しさん@お腹いっぱい。 :2022/12/01(木) 09:10:33.87 ID:hlSfanw/0.net
>>480
失敗しているのはやり方間違ってるから。
画風ならhypernetworks、単品のモノやキャラの顔だけとかならtextual inversion が定番

参考にするならこっちの投稿
HN
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670#discussioncomment-4010316

TI
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1528

491 :名無しさん@お腹いっぱい。 :2022/12/01(木) 09:19:20.53 ID:nwX5uQfF0.net
>>485
とりあえず今あるの出して1.5にすりゃええのに
っていう話でもないんかな

492 :名無しさん@お腹いっぱい。 :2022/12/01(木) 09:29:45.58 ID:+iOu6L6B0.net
>>480
画像が違うのはSEED固定してプロンプトをしっかり入れてないからだと思う
トリミングして胴体切れたりしてるのは足や手が空中に浮かんだり切り株状態の下半身を学習するから慣れるまでは除外したほうがいい
画風の基本は顔の構造(ドラマや映画とかで顔承認で使われるようなやつ)と髪の毛の塗なんだけど
Anything-v3はNAIのデータ潰して今の塗やら指先等の構造データを追加学習させた奴だから学習させにくいのもある
ってHN

493 :名無しさん@お腹いっぱい。 :2022/12/01(木) 10:21:07.29 ID:jO4Ob/m90.net
>>484
各パーツは長辺1k-2k程度あれば十分なので8GBで足りる

494 :名無しさん@お腹いっぱい。 (ワッチョイ d7ba-C1QD):2022/12/01(木) 11:07:52.14 ID:tn4CipcP0.net
tagger使おうと思ったんだけどエクステンションからインストールしてstable-diffusion-webui-wd14-taggerとmodelsに解凍したフォルダを置いてもinterrogatorにWD14が無いしinterrogateを押してもコマンドプロンプトは反応しないんだけどフォルダの置き場所間違えてる?


https://i.imgur.com/12ER8e8.png
https://i.imgur.com/f2aIpvv.png
https://i.imgur.com/rkJudeC.png

495 :名無しさん@お腹いっぱい。 :2022/12/01(木) 11:32:54.61 ID:L7MKt25Ba.net
SD2.0の高速化見た?
20倍早くなって50stepで5.6秒掛かってたのが1~4stepの0.9秒で同等の品質になるらしい
https://twitter.com/emostaque/status/1598131202044866560?s=46&t=L4_rWY6cEcVRuciOsfECZQ
(deleted an unsolicited ad)

496 :名無しさん@お腹いっぱい。 :2022/12/01(木) 11:38:53.47 ID:Kfkn+/W40.net
>>491
失敗作を世に出したら、本人たちの信頼が失墜するからダメ
1.3で既に地に落ちてる? それは知らん

497 :名無しさん@お腹いっぱい。 :2022/12/01(木) 11:44:27.69 ID:ukWA4jg7a.net
1.3だいぶよくない?
penultimateはそれよりいいし

498 :名無しさん@お腹いっぱい。 :2022/12/01(木) 12:09:57.85 ID:ukWA4jg7a.net
>>495
これマジ?

499 :名無しさん@お腹いっぱい。 :2022/12/01(木) 12:38:17.90 ID:P4oQjnegM.net
初期NAIでもまだまだやれることありそうなのに
ドラクエ1クリアしてないのにもう2が出んの?って感じ

500 :名無しさん@お腹いっぱい。 :2022/12/01(木) 12:39:33.39 ID:C0vUGqaS0.net
>>494
置く場所間違えてるんじゃないか?
置き場はここ見て
https://github.com/toriato/stable-diffusion-webui-wd14-tagger

501 :名無しさん@お腹いっぱい。 :2022/12/01(木) 12:48:57.99 ID:h1kw5yfCa.net
やれることはあってもできないことは見えてきてるやろ

502 :名無しさん@お腹いっぱい。 :2022/12/01(木) 13:05:44.44 ID:JNw+nbOQa.net
>>494
モデルはモデルフォルダ直下じゃなくてdeepdanbooruの中に入れるはず。そんでバックエンドごと再起動しないとモデルデータを読んでくれない。
残念ながらうちでは8ギガメモリなんでモデルデータにVRAM占有されて最高解像度が落ちちゃったので使うときだけ入れることにした

503 :名無しさん@お腹いっぱい。 :2022/12/01(木) 14:22:04.21 ID:tn4CipcP0.net
>>500
>>502

やっぱり置き場所違ったか
ありがとう

504 :名無しさん@お腹いっぱい。 :2022/12/01(木) 15:21:58.35 ID:YEWWoG3J0.net
>>495
えぇ……1ステップで画像出るってどういうことなの……

505 :名無しさん@お腹いっぱい。 :2022/12/01(木) 15:45:57.79 ID:dGBb3TB80.net
waifuの延期はしょうがないだろ
NJとSD2.0の結果見比べれば画像生成は権利無視の過剰学習/ファインチューングによるコピー
というダーティなやり方でしか上手くいかないとはっきり分かった
まともなやり方してたら競争できないから全部やり直してんだろ

506 :名無しさん@お腹いっぱい。 :2022/12/01(木) 16:02:45.38 ID:mfQwXX1r0.net
waifuが揃えた学習データーセットでSD2.0ベースで学習させるだけで2~3週間はかかりそう

507 :名無しさん@お腹いっぱい。 :2022/12/01(木) 16:10:50.35 ID:aR/S6zNH0.net
Waifu作者を応援したくなった
支援サイトやってるんだっけ?

508 :名無しさん@お腹いっぱい。 :2022/12/01(木) 16:55:47.14 ID:F2y0beMX0.net
>>495
2.0で768×768で出力するようになったら1枚出すのにかかる時間が2倍ちょいになってしんどーと思っていたから
高速化は嬉しい
がしかしどういう技術なんだろうか
VRAM40GB以上必須とかじゃないよね?

509 :名無しさん@お腹いっぱい。 :2022/12/01(木) 17:45:56.69 ID:GsBbakTya.net
>>495
まじならRTX2060-12GBあたりでも実用範囲じゃん

510 :名無しさん@お腹いっぱい。 :2022/12/01(木) 17:58:16.58 ID:UoJ1aZi80.net
ただ新規ならたいして値段も変わらない3060を買うだろうけど

511 :名無しさん@お腹いっぱい。 :2022/12/01(木) 18:13:08.38 ID:3XWwXtWJ0.net
>>508
現状のSDの出力を教師データに使った生徒モデルみたいだな
だとするとむしろ必要VRAMは小さくなるんじゃないのか?
大分前にモデルデータを100MB位にする、って言ってたのはこれの事なのかもな

512 :名無しさん@お腹いっぱい。 :2022/12/01(木) 18:19:05.76 ID:U13pzfVCa.net
Emadのツイートは虚構新聞より少し信頼してもいいってレベル
期待してはいけない

513 :名無しさん@お腹いっぱい。 :2022/12/01(木) 18:26:45.64 ID:3XWwXtWJ0.net
論文で性能比較してるって事はもうモノは出来上がってるんだろうから
これは期待していいんじゃないのか?

514 :名無しさん@お腹いっぱい。 :2022/12/01(木) 18:36:57.60 ID:lQ+c8Cojd.net
必要VRAMが200Gとかそういうのじゃないの?

515 :名無しさん@お腹いっぱい。 :2022/12/01(木) 18:43:59.14 ID:K2iatyyB0.net
https://note.com/kohya_ss/n/n9a485a066d5b
ここのマージスクリプトにも可能性感じるんやが使いこなしてる人おらんか
とりあえず使用例の使い方だとモデル1の大まかな構図でモデル2の絵になる感じなんやが
nai→instaとかnai→zeipherとか使ってる
elyはエラーで読み込めんかった

516 :名無しさん@お腹いっぱい。 :2022/12/01(木) 18:45:10.65 ID:K2iatyyB0.net
すまんスレ間違えた

517 :名無しさん@お腹いっぱい。 (ワッチョイ 9fa5-F1GU):2022/12/01(木) 19:54:04.52 ID:3XWwXtWJ0.net
>>515
元の特徴残したいならoutput_block重視に加えてtransfomerに対するマージ量を減らすのがいいよ
プロンプトに依存するけどハマるとよく特徴が残る。https://imgur.com/hv0QFBm

518 :名無しさん@お腹いっぱい。 (ワッチョイ 9701-WORJ):2022/12/01(木) 20:58:13.87 ID:K2iatyyB0.net
>>517
おお、ありがとう
装飾めっちゃ残ってますね
そのヒントでパラメータ変えていじってみます

519 :名無しさん@お腹いっぱい。 :2022/12/02(金) 01:16:04.25 ID:L31z3Fz/0.net
Dreamboothに手を出してみたくてスレとgithubの情報を追っていたのですが
・AnythingよりNAIモデルの方が学習に向いている
・ローカル環境でvramが12GBない場合wsl2上でubuntuでdeepspeedを使って本体のRAMで代替する方法があるが半精度モデルになる/wsl環境を使わないWindowsではDeepspeedの依存ライブラリが対応しないので環境構築ができない
・現在のfast-stable-diffusion(>>453)ではvram使用量が大きく無料プランのcolabでは動かない/有料プランでもGPUガチャになる?
・NAIモデルをdiffusers形式に変換するには変換スクリプトの書き換えが必要
という理解で良いでしょうか?

・diffusers形式に変換する際にvaeのマージをするとの情報が前スレにあったのですが、このやり方が調べても全く分からないので分かる方いらっしゃいましたらご教示いただけないでしょうか

520 :名無しさん@お腹いっぱい。 :2022/12/02(金) 01:35:18.43 ID:5bH14ff30.net
>>490
>>492
ありがとうございます‼‼
次はhypernetworksで試してみます!

521 :名無しさん@お腹いっぱい。 :2022/12/02(金) 01:41:13.44 ID:cBO47kU40.net
>>519
vaeのマージが必要かどうは知らんけど、
マージしたいならnaiのvaeをckptのfirst_stage_modelを上書きすればいいだけじゃないの?
vaeのキーの前にfirst_stage_model.を付けてそのまま上書き或いはマージ

522 :名無しさん@お腹いっぱい。 :2022/12/02(金) 01:45:55.23 ID:L31z3Fz/0.net
>>521
試してみようと思います
情報ありがとうございます

523 :名無しさん@お腹いっぱい。 :2022/12/02(金) 16:54:55.90 ID:IoPaP3aL0.net
SD2.0なんか新しい話はないかなあ
とりあえずはWD待ちかなあ

524 :名無しさん@お腹いっぱい。 :2022/12/02(金) 17:32:44.70 ID:OOVrPa2W0.net
SD1.4も、アニメ絵だのあんまいいのが出ねぇなとやってるところにWD1.2がきて派生モデルが盛り上がっていった感じだし、
まだまだこれからだろうな2.0も

525 :名無しさん@お腹いっぱい。 :2022/12/02(金) 17:33:21.16 ID:Olzrnusv0.net
>>499
割とそんな感じあるな
今あるものをまだ全然使いこなせてないのに、次々出てくる
新情報追いかけるだけで手一杯

526 :名無しさん@お腹いっぱい。 :2022/12/02(金) 17:52:46.14 ID:lUksRyEe0.net
webuiのdreambooth見てたら更新来てる!
コンセプト1,2,3ってあるけど、もしかして3つまでの概念を学習できるってことかな?

527 :名無しさん@お腹いっぱい。 :2022/12/02(金) 19:04:57.35 ID:fL+2SRwv0.net
2.0は学習させるとかなりいい感じになるって言われてたし年末くらいにはそれなりのものが出てくるんじゃないかな

528 :名無しさん@お腹いっぱい。 :2022/12/02(金) 19:35:20.96 ID:5bH14ff30.net
stable diffusion のtrainで画像学習させる時に、画像ごとにつける(?)プロンプトってどんな感じにしてますか?
自分は余り文章を気にせずに、『a naked girl with blue hair and blue eyes is posing for the camera with her hand on her head, green hair ornaments on her head, expose armpit』
という感じに、画像を加工する際に抽出されていたプロンプトを修正⇒そこからカンマで区切って短く追加、としているのですが、これで大丈夫でしょうか?

529 :名無しさん@お腹いっぱい。 :2022/12/02(金) 20:36:12.46 ID:OOVrPa2W0.net
>>528
hypernetworksの学習?
その書き方で普通に生成してみて、学習画像の要素を満たすような画像が生成されるならそれで大丈夫
背景要素とかもあるならそっちもちゃんと書いておく

530 :名無しさん@お腹いっぱい。 :2022/12/02(金) 20:42:49.32 ID:5bH14ff30.net
>>529
今回はキャラを学習させようとしてて、textual inversionでembeddings(?)の学習をさせてます

531 :名無しさん@お腹いっぱい。 :2022/12/02(金) 20:57:41.84 ID:brhV4PIg0.net
他のソフトを出し抜くチャンスを逃すとはもったいない

CLIP STUDIO「画像生成AI機能を搭載します」絵師様「🤯😡🤬👿」→大量のお気持ち表明が届き導入断念 [296617208]
https://greta.5ch.net/test/read.cgi/poverty/1669977107/

532 :名無しさん@お腹いっぱい。 :2022/12/02(金) 21:00:23.72 ID:a1cWz99T0.net
DreamArtistの方で、TIの場合はfilewords画像の内容のうち学習させ「ない」要素を書くって読んだけどその辺どうなんすか?
https://github.com/7eu7d7/DreamArtist-sd-webui-extension/issues/18#issuecomment-1319372487

533 :名無しさん@お腹いっぱい。 :2022/12/02(金) 21:13:30.48 ID:ffVg67Rl0.net
>>532
それな。初音ミクを学習させるときにプロンプトが「green hair hatsune miku」だと
green hair と書いてあるから緑髪の絵になってることになってしまう
hatsune miku から緑髪が出てきたことにならないんだよな
hatsune mikuだから緑髪ということにしたいなら、green hair と書いてはいけない
ちょっと考えたらわかることだよな

534 :名無しさん@お腹いっぱい。 :2022/12/02(金) 21:14:33.02 ID:IoPaP3aL0.net
>>533
いやまじで知らんかった
学びました

535 :名無しさん@お腹いっぱい。 :2022/12/02(金) 21:34:12.29 ID:a1cWz99T0.net
>>533
なるほどそういう理屈か

536 :名無しさん@お腹いっぱい。 :2022/12/02(金) 21:50:32.07 ID:5bH14ff30.net
>>533
今まで勘違いしてました...
そしたらプロンプトは構図とかだけにして、キャラに関する事は書かないほうが良い感じなのでしょうか?

537 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:03:08.81 ID:kekqnurK0.net
学習素材上に存在してるけど
学習の本筋とは関係ない要素を列挙するような感じやね
TI、DAの場合は

効果的にタグ付けするのは結構難しくて、下手にやるくらいならタグ何もなしの方が上手くいく

538 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:03:44.83 ID:OOVrPa2W0.net
>>530
TIの場合は、HNのように全部盛りのキャプションを書かない。
学習させたくない要素だけを学習画像のキャプションとして書く
ポーズがどうとか手の位置が…みたいなのはキャラ特徴としては覚えさせたくない要素としたら、
posing for the camera with her hand on her head,expose armpit
を学習画像の組になるキャプションとして書くみたいな感じ
あと、背景も大抵の場合は必要ないから、例えば白壁背景なら white wall background とかを足しとく
なので blue hair and blue eyes を書いちゃうと、キャラ特徴を覚えなくなるんすよ。ややこしいけど

539 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:08:37.47 ID:h8Mp/z4M0.net
ほんとややこしいな!前にテンプレート弄ってみた時に全然学習しなかったのはこのせいか

540 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:10:20.82 ID:ffVg67Rl0.net
>>536
俺のケースだと、SPY×FAMILYの嫁のヨルの黒い暗殺服姿を学習させたくて
服に関する単語は入れないようにしたら、見事あの黒い暗殺服を学習した

ただ今度は、脱がせたくなって naked yoru とカッコ付きでいくら書いても絶対に脱がないモデルになったw
少ない枚数で学ばせる方法の弊害だろうねこれは

もっと多い枚数で学習させる場合は、さっきのミクの例だと
多くの教師画像でgreen hair hatsune miku としておけば、
『hatsune mikuといえば green hairだよね』という共起関係をモデルが学習するから、green hair と書かなくても高い確率で緑髪になるし、bold hatsune miku と書けばつるっぱげにもなる

多い画像枚数で網羅的にタグ付けて普通に学習させるのが、一番応用の効くモデルになるってことだね

541 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:10:41.28 ID:OOVrPa2W0.net
俺は実写顔学習させて遊んだりするのだけど、インスタとか盛った写真の影響を強く学習しちゃう場合は、
big eyes とかを予め仕込んでる。美人にあえてugly face とか入れといても案外効果あるっぽい
high key photo とか書いといて、白飛び気味の画像を補正するような効果を入れることもある

542 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:13:21.49 ID:IoPaP3aL0.net
>>540
なるほど黒い服をきているヨルしか知らないわけか

543 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:15:14.88 ID:OOVrPa2W0.net
>>540
そこは顔と服分けるとかするしかないけど大変だよな
エロスレのほうでTIで複数キャラ描き分けるのやってのけてる人いたけど、学習作業がしんどそうでとても真似できんと思ったw

544 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:24:21.71 ID:ffVg67Rl0.net
>>543
なるほどすごいなw
ほどほどの絵を描かせるなら簡単なんだけど、細かいところまで思い通りにしようとするとまだ大変だね
ただ、人間に指示するのと同じ程度の言葉で伝えられるようには、遅くとも1〜2年くらいでなると思う
あと3年でシンギュラリティなわけだからね

545 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:29:10.15 ID:SqbTZrit0.net
再現率上げれば汎用性が下がるからな
DBで専用モデル学習させていって、同時に出すのは諦めた方が中途半端にならなくて済む
いいマスクもあるし合成したほうがいい物ができる。どうせ奇形や光源も狂ってる物ばかりだから修正はしないといけないもんな

546 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:34:15.02 ID:ffVg67Rl0.net
>>541
逆の形容詞で特徴を強化させるのか。それは面白いね
美人の写真をブスだと学習させれば、もっとすごい美人が描けるようになるとw
学習した美人をさらにブスだと学習させて何度も繰り返したら、最後はどんな美人が出てくるんだろうなぁ

547 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:34:50.89 ID:kFUg3Zzq0.net
>>538
させたくない要素を書くの?
はああ
ほんと学習はワケわからんわ

548 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:42:57.46 ID:kekqnurK0.net
初めて学習する人は、タグ付けしない方が上手く行くと思うよ
データセットがいい感じに偏ってなければ(関係ない要素が分散してれば)
良いわけだし

549 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:50:40.03 ID:Olzrnusv0.net
>>542
というか、AI的には「特定の造形の女が黒い服を着てる」
という状態そのものが「ヨル」なんだろうね

550 :名無しさん@お腹いっぱい。 :2022/12/02(金) 22:56:18.55 ID:ffVg67Rl0.net
>>542
>>549
そそ、そういう感じ

>>396 のがうちのヨルなんだけど、奇形の時だけ脱いでるなぁw 普段は全然脱がないのに

551 :名無しさん@お腹いっぱい。 :2022/12/02(金) 23:23:33.88 ID:361EZCRr0.net
「黒い服のヨル」にすると「赤い服のヨル」も「青い服のヨル」もいるからそこは特徴じゃないからね、って伝わるわけやね

552 :名無しさん@お腹いっぱい。 :2022/12/03(土) 01:35:25.99 ID:vpRYI2zD0.net
>>551
なるほど

553 :名無しさん@お腹いっぱい。 :2022/12/03(土) 09:35:32.78 ID:hAlj1Xp80.net
これ試してみた人おる?

https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/

554 :名無しさん@お腹いっぱい。 :2022/12/03(土) 10:07:22.99 ID:QZt0wd98a.net
今ダウンロードしてるところ
既に持ってるモデルをわざわざダウンロードし直して無駄に時間くってるから一眠りしてから触る

555 :名無しさん@お腹いっぱい。 :2022/12/03(土) 10:36:59.00 ID:t3ANqpw3a.net
俺はフォトショと1111連携させるツール使ってるな。意外と便利

556 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:17:52.28 ID:irpRzRxt0.net
お守り代わりレベルに使われるがmasterpieceって結局何なんだ?
元になる絵みたいなのとかあるのか

557 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:28:51.20 ID:/tdpzmrK0.net
colabの1111でDreamBoothをやりたいんですが、Extensionからインストールしてもタブが追加されません
Apply and restart UIを押すと、WubUIが停止してしまいます
どうやればいいのか誰かご存知でないでしょうか?

https://i.imgur.com/ojM48t9.png

558 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:34:38.05 ID:vpRYI2zD0.net
colabの方でdreamboothをインストールするように書き加えたら動くんじゃね
clone dreamboothのurlで

559 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:35:05.80 ID:WbHyIEYW0.net
>>556
NovelAI特有のタグ
色々綺麗になって安定するけどその代わり人物の顔が通称マスピ顔と呼ばれる平均値顔になる

560 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:35:37.63 ID:t3ANqpw3a.net
>>556
人間が「この写真いいね!」ってどれくらい感じるかをスコア化するAIがあるんだよ。その評価点が高かったのにマスピってタグ付けしてるだけ
同じように画質をスコア化するAIもあるし、それでハイクオリティやロークオリティってしてる
学習させてる人(NAIなりwaifu)が学習データを事前処理でそういうタグ付けしてれば1111でタグが使えるし、処理してなければ使えない

561 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:38:23.03 ID:dMuCiARj0.net
>>559
マスピって単語、普段全然聞かないけどここから来てたのね

562 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:38:34.17 ID:irpRzRxt0.net
ああなるほど、指標みたいなものだったのか

563 :名無しさん@お腹いっぱい。 :2022/12/03(土) 13:38:40.73 ID:NKp2Xxst0.net
>>556
単純に「傑作」タグや
色んな「傑作」タグの付いた作品の”傑作の顔”を学習してを出力してるから「マスピ顔」としてAIにジャンル化されてる
大雑把に言うとこう

564 :名無しさん@お腹いっぱい。 :2022/12/03(土) 14:03:41.77 ID:pq4CU0et0.net
>>383
基本マージとか使うのはprunedでいいのかな
差がよくわからん

565 :名無しさん@お腹いっぱい。 :2022/12/03(土) 14:10:37.69 ID:fy1orJcl0.net
masterpieceはSD出たての頃のグレッグさんみたいなもんやな
画風は一定の方向に寄っちゃうけど、クオリティが上がるから使っちゃうみたいな

566 :名無しさん@お腹いっぱい。 :2022/12/03(土) 15:09:15.48 ID:ycHF0FhQ0.net
>>561
SD1.4だとStyleっていうかmuchaとか画家の名前つけて絵画の画風をまねしてた名残
NovelAIが絵画いらんのや実写もいらんのじゃって追加学習した結果「masterpiece」タグに版権キャラが居座っている感じ
今じゃmasterpieceタグ使うのはNovelAIのリーク品の定番
AUTOMATIC1111の拡張のNAIConvert使ってNovelAIのプロンプトを変換する時付けられる

567 :名無しさん@お腹いっぱい。 :2022/12/03(土) 15:15:10.35 ID:dMuCiARj0.net
>>566
詳しく有難う!
勉強になりました

568 :名無しさん@お腹いっぱい。 :2022/12/03(土) 16:02:57.66 ID:QZt0wd98a.net
InvokeAIにモデル追加するのさては結構めんどくさいな?
AUTOMATIC1111みたいにvae切り替えてランダム色変換器みたいに使うことも出来なさそうだし
自分はたまに気分転換に触るくらいで終わりそうだ

569 :名無しさん@お腹いっぱい。 :2022/12/03(土) 16:04:38.01 ID:QZt0wd98a.net
なによりWebUIのExtensionたちを手放すのは惜しい
外部プラグインとスクリプトで武装したAftereffects vs Fusion Studioみたいだ

570 :名無しさん@お腹いっぱい。 :2022/12/03(土) 16:17:49.74 ID:ZTzeA2JZ0.net
>>569
仕事によって使い分けろってことだな
まぁその場合オレはAEだけで強引にやるがw

571 :名無しさん@お腹いっぱい。 :2022/12/03(土) 16:36:55.98 ID:48s0sEU0M.net
久々にNobelAI契約したがなんか使い勝手悪くなってね
精度もおかしいし
なんか規制きたの?

572 :名無しさん@お腹いっぱい。 :2022/12/03(土) 17:33:50.90 ID:QZt0wd98a.net
InvokeAIのモデル追加に使う!import_model path
こいつあれかAUTOMATIC1111で使ってるフォルダのモデル指定してもインポートできるのね
容量増えないしこれは助かる

573 :名無しさん@お腹いっぱい。 :2022/12/03(土) 19:38:22.73 ID:Bw29avuU0.net
Stable Diffusion 2.1 beta coming real soon to a Discord near you.
https://twitter.com/Dan_Jeffries1/status/1598951413547405312

もう2.1が出るのか
何が変わったんだろうか
(deleted an unsolicited ad)

574 :名無しさん@お腹いっぱい。 :2022/12/03(土) 19:46:30.65 ID:pq4CU0et0.net
>>573
日和ってすまん
nsfw、ロリ2次絵対応だぜ!!

575 :名無しさん@お腹いっぱい。 :2022/12/03(土) 20:34:13.61 ID:WbHyIEYW0.net
>>574
まじか手首に油さしとこ

576 :名無しさん@お腹いっぱい。 :2022/12/03(土) 20:36:55.43 ID:ZnkNQz310.net
>>574
はじまったか!

577 :名無しさん@お腹いっぱい。 :2022/12/03(土) 20:50:58.48 ID:QZt0wd98a.net
>>564

マージで使う時にpruneは使ってはいけない
マージする時はフルでマージして出来上がったものをprunerで生成にほぼ出てこないウェイトを間引く

578 :名無しさん@お腹いっぱい。 :2022/12/03(土) 20:51:17.62 ID:QZt0wd98a.net
pruneじゃなくてprunedバージョンか

579 :名無しさん@お腹いっぱい。 :2022/12/03(土) 20:53:45.67 ID:QZt0wd98a.net
>>575
今日も手首の回転が絶好調ですねえ!

580 :名無しさん@お腹いっぱい。 :2022/12/03(土) 20:56:21.11 ID:Xwznc96x0.net
手のひらをセット

581 :名無しさん@お腹いっぱい。 (ワッチョイ ce01-ZPMU):2022/12/03(土) 21:41:39.13 ID:iDb50cL30.net
>>575
この表現好き

582 :名無しさん@お腹いっぱい。 :2022/12/03(土) 22:05:11.16 ID:Ed1Hxm1E0.net
>>573
作例が大量なのを見ると例の20倍速サンプラーの実装だろうな
ここまで高速化すればCPU生成でも十分実用できそう
なお、1ヵ月前に3090 Tiを買った俺は精神的ダメージを喰らいそう

583 :名無しさん@お腹いっぱい。 :2022/12/03(土) 22:20:47.06 ID:qr2wWzWGr.net
>>575
今のうちにちゃんと手首のメンテしとくんだぞ?

584 :名無しさん@お腹いっぱい。 :2022/12/03(土) 22:22:31.13 ID:BULUnf440.net
個人での学習用途なら3090TIは今後3年は最上位クラスだから…

585 :名無しさん@お腹いっぱい。 :2022/12/03(土) 23:30:14.65 ID:JIc4zPVl0.net
来年の4060VRAM24Gで逆転ホームランを期待してる

586 :名無しさん@お腹いっぱい。 :2022/12/03(土) 23:33:02.20 ID:QQWusOBZa.net
そういう上位機種が売れなくなるようなことは死んでもやらん

587 :名無しさん@お腹いっぱい。 :2022/12/03(土) 23:55:06.94 ID:zWK9PBwX0.net
4060は8GBってリーク出てるんだよな…

588 :名無しさん@お腹いっぱい。 :2022/12/04(日) 01:51:29.57 ID:VAan0a/wM.net
pixivでみる絵のプロンプトってどこで勉強できるか教えてくれ

589 :名無しさん@お腹いっぱい。 :2022/12/04(日) 03:11:17.78 ID:KBp3ZRZY0.net
VRAM24GBの下位モデルなんて出るわけないんだよね・・・。

590 :名無しさん@お腹いっぱい。 :2022/12/04(日) 03:13:27.25 ID:z7f+q8IGd.net
1111版やってるんだけどmeituみたいに自分の書いた絵を変換してみたいんだけどできる?
それとも他のやつが必要ですか?

591 :名無しさん@お腹いっぱい。 :2022/12/04(日) 07:43:51.59 ID:+/SMaBQq0.net
ここ数年VRAMの容量なんて飾りだと思われてたからな

592 :名無しさん@お腹いっぱい。 :2022/12/04(日) 08:10:27.91 ID:Mme/645Or.net
VRしてる人なら『VRAM6GBぐらいは最低欲しい』っていうのがあったけど、画像生成で一気に要求増えたしな

593 :名無しさん@お腹いっぱい。 :2022/12/04(日) 08:47:41.61 ID:bhq+WHl90.net
3060の12GBが画像生成にハマり過ぎててな~
3070から買い替えたくらい

594 :名無しさん@お腹いっぱい。 :2022/12/04(日) 09:07:14.46 ID:rwPgt1dK0.net
>>590
できるけどmeituはオリジナルのモデル使ってるから同じような学習させたモデルとプロンプト他設定も知らないと同じ風にするのは難しいよ
自分の好みのモデルさえ用意できれば、meitu以上の事もできるという事だけど

595 :名無しさん@お腹いっぱい。 :2022/12/04(日) 10:05:03.20 ID:c6Z13DsQ0.net
>>588
pixivよりも雨後の竹の子のように出てきたAI絵の投稿・コンテストサイトを漁るのがいい
ちゃんとプロンプトも公開されてる。
登録必要な所もあるけど、大半は登録せんでも視れるのがほとんどだし

596 :名無しさん@お腹いっぱい。 :2022/12/04(日) 10:16:55.26 ID:miCSStnV0.net
AI絵なんて絵の描けねえ無産が自家発電するためのツールだろうに
それで金取ろうとしてる奴らようやるわ
というかテキスト入れる手間すら惜しむ怠け者が多いのか

597 :名無しさん@お腹いっぱい。 :2022/12/04(日) 10:39:17.38 ID:PJpqM95R0.net
テキスト入れなくても十分お金になるし

598 :名無しさん@お腹いっぱい。 :2022/12/04(日) 11:06:01.44 ID:rwPgt1dK0.net
2,3回ポチポチしてドヤっていう層向けとしては大成功だろう
テキストなんて入れてる時点でスマホ層からは敬遠される

599 :名無しさん@お腹いっぱい。 :2022/12/04(日) 11:09:03.61 ID:z7f+q8IGd.net
>>594
別に同じじゃなくてもいいんで
用意した絵を変換してくれれば
ググったけどやり方わからなくて

600 :名無しさん@お腹いっぱい。 :2022/12/04(日) 11:28:38.86 ID:rwPgt1dK0.net
>>599
前に上がってた画像を借りると…
これを
https://i.imgur.com/7fBCqho.png
こうしたいって事なら、i2iって機能だからググれば情報はたくさんあると思う
https://i.imgur.com/v6T4uVr.png
https://i.imgur.com/Ak7vNAa.png
https://i.imgur.com/yGUyFSK.png

601 :名無しさん@お腹いっぱい。 :2022/12/04(日) 12:24:44.29 ID:QItVJsRW0.net
3090tiなんかで回してたら電気代半端ないよ
3090で回したらソフト読みでグラボだけで400w超えてびびったもん
12Gで済むなら3060の方が幸せになれる

602 :名無しさん@お腹いっぱい。 :2022/12/04(日) 12:27:04.82 ID:ay7SUqG80.net
3070 8Gの俺の複雑な心境

まさかVRAMがここに来て重要になってくるとは

603 :名無しさん@お腹いっぱい。 :2022/12/04(日) 12:51:32.37 ID:kzgTawY10.net
ここで3060tiや3070のVRAM増量版を出すどころか
3060を8GB廉価版(廉価とは言ってない)に置き換えるNVIDIAマジ鬼畜

604 :名無しさん@お腹いっぱい。 :2022/12/04(日) 12:56:14.90 ID:hnvew8vx0.net
出た当時はスペックに見合わず無駄に多いVramを活かしきれない微妙なグラボって扱いだったけど、まさかレア扱いになるとはね

605 :名無しさん@お腹いっぱい。 :2022/12/04(日) 13:03:04.59 ID:epEOUGv70.net
上位のGPUは電気代もだけど電源がな…
Powerlimit使っても瞬間的にはMAX行くとか聞いたが本当かは知らん
事実なら1000W級の電源買ってこないといけないし

606 :名無しさん@お腹いっぱい。 :2022/12/04(日) 13:21:33.79 ID:OCdScX7kr.net
普通のゲーマーはVRAM容量よりバス幅・アクセス速度の方が重要だからね。

607 :名無しさん@お腹いっぱい。 :2022/12/04(日) 13:30:36.80 ID:ilbrF2vJ0.net
>>605
そうそう、つよつよビデオカードをただ買ってくればいいってわけでもないんだね
大容量の電源に換えるだけでなくckptがファイルサイズ大きいからSSDも大きいのに買い替えた
前は2000Mbps以下の安いのにしてたけど今度は3000Mbpsクラスのにしたからやや割高

画像生成AIをローカルでやろうとするとなんだかんだで金がかかるね

608 :名無しさん@お腹いっぱい。 :2022/12/04(日) 13:30:50.45 ID:t+N+Xcy00.net
pc買い替えのタイミングにnovelAIリークが重なって3060買えたから良かったわ

609 :名無しさん@お腹いっぱい。 :2022/12/04(日) 13:30:55.63 ID:JQCx85l+0.net
仮想通貨のマイニング祭りが終わって、3090が20万以下で買えるなんて今しかないよ
https://i.imgur.com/XRNgT3Y.jpg

chatGPTで今度は賢いボット祭りが来てる
これからまたGPUの需要増で価格が上がる前に買っておいたほうがいいと思うぞ

610 :名無しさん@お腹いっぱい。 :2022/12/04(日) 13:37:06.44 ID:ZO8kDlYP0.net
VRAM欲しいのはMOD好きとVR系位かな正直ニッチ

611 :名無しさん@お腹いっぱい。 (ワッチョイ df7d-Wk2T):2022/12/04(日) 14:14:24.36 ID:6azRteeO0.net
昨日なら3060が3万で買えたんだけどな
怪しさ満点だったけど

612 :名無しさん@お腹いっぱい。 :2022/12/04(日) 14:43:10.16 ID:33Dn7XgRa.net
>>602
わいかな?
さっきローカルに移行したけど学習にさえ目を瞑れば普通に生成早いやん😅

613 :名無しさん@お腹いっぱい。 :2022/12/04(日) 14:44:22.21 ID:PJpqM95R0.net
学習はオンラインでいいんじゃね?

614 :名無しさん@お腹いっぱい。 :2022/12/04(日) 14:45:37.84 ID:epEOUGv70.net
NAIリーク直前に70Ti買った俺もいるぞ
安く買えたけどさ、70の方がワッパの点で良いとか知らなかったよ

615 :名無しさん@お腹いっぱい。 :2022/12/04(日) 14:48:41.47 ID:epEOUGv70.net
>>613
実際3090~運用するのとどっちがいいんだろうね
colabは有料でも使える時間に制限あるみたいだし、他のやつ月10ドルの固定で動くとかならそっちで学習考えるけど

616 :名無しさん@お腹いっぱい。 :2022/12/04(日) 15:17:15.27 ID:xDZ0FLQC0.net
2060や3060の12G版ってメモリ余ってたから使ったったw説は本当なのか気になる
それが本当なら当分ミドル帯にVRAM容量降りてこない

617 :名無しさん@お腹いっぱい。 (ワッチョイ acc9-7f3L):2022/12/04(日) 15:35:16.30 ID:6PIzj/3J0.net
学習ってそんなにパワー食うのね
自分の2070sじゃ無理そうだ。
そもそもやり方がよく分からないけど…

618 :名無しさん@お腹いっぱい。 (ワッチョイ 3aa5-7kHv):2022/12/04(日) 15:37:00.83 ID:2kOJpswY0.net
2070sでもTIやHNなら問題ないぞ

619 :名無しさん@お腹いっぱい。 :2022/12/04(日) 15:54:15.91 ID:SEk05QfVM.net
>>611
あれは100%詐欺やろ

620 :名無しさん@お腹いっぱい。 :2022/12/04(日) 16:13:57.58 ID:6PIzj/3J0.net
>>618

スペック的に大丈夫なんですか? なら試してみようかな…
未知もしくは理解度が足りないワードを学習させるならHNでしたっけ

621 :名無しさん@お腹いっぱい。 :2022/12/04(日) 17:03:52.92 ID:2kOJpswY0.net
>>620
理解度が足りないくらいだったらHNでいいけど、完全に知らなそうなもんを出すのはDB向けで、これは2070Sだときつい
まずプロンプトの工夫で「なんぼかそれっぽいものになってきたけどどうも雰囲気が出ないなー」みたいなものまで近づけるかどうか試すといい
そこまでイケるようだったら、HNやTIで調整してやれば狙ったものが出せる可能性はそこそこ高い
逆に、特徴的な衣装だとかで「これを言葉で指示するのはちょっと無理があるな」っていう感じがしたら、無理にTI/HNで粘る意味は薄い

622 :名無しさん@お腹いっぱい。 (ワッチョイ acc9-7f3L):2022/12/04(日) 17:46:41.36 ID:6PIzj/3J0.net
>>621

ありがとうございます!
民族衣装でしっくりこない(無駄にフサフサになる等)ものがあったので
学習させたかったのですが難しそうですね
とりあえず既存のワードの組み合わせで学習できないか試してみます

623 :名無しさん@お腹いっぱい。 :2022/12/04(日) 22:22:08.97 ID:7MZsijB0a.net
何エポックに対して何LRといった内容を掘り下げているサイトってありますか?

624 :名無しさん@お腹いっぱい。 :2022/12/04(日) 22:56:53.84 ID:PUU/1BRs0.net
RadeonをメインにしてGeForceをサブにしても
StableDiffusionで画像生成できますか?

625 :名無しさん@お腹いっぱい。 :2022/12/04(日) 23:00:53.72 ID:X1zqR8u4p.net
Distilled diffusionっていう新しい手法を使うと
拡散モデルによる生成が爆速化するらしい
https://twitter.com/EMostaque/status/1598131202044866560
(deleted an unsolicited ad)

626 :名無しさん@お腹いっぱい。 :2022/12/04(日) 23:05:55.62 ID:ZO8kDlYP0.net
>>624
できる

627 :名無しさん@お腹いっぱい。 :2022/12/04(日) 23:21:03.36 ID:eDV41SzJ0.net
>>624
まずWindowsが不安定になるのでできない。

628 :名無しさん@お腹いっぱい。 :2022/12/04(日) 23:24:46.77 ID:MJFvv/LEa.net
不安定な組み合わせもあるのかもしれないけど(マイニングでwindows+)geforce+radeonいけるって話もある

629 :名無しさん@お腹いっぱい。 :2022/12/04(日) 23:28:36.77 ID:PUU/1BRs0.net
>>626
ありがとうございます。

使用するVGAを設定する項目があるのかな

630 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:03:00.42 ID:2pIwpNNA0.net
>>629
ないけど、Radeonはcudaデバイスとして認識されないだろうから、
cuda:0でGeForceが勝手に使われる気がする

631 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:03:41.12 ID:GK7r0f+J0.net
ディスプレイ繋ぐのをRADEONにしてGPGPUとしてGeForce使うのは余程へましなきゃ今のOSはこなすがまあ使えん奴には使えんだけや

632 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:19:07.80 ID:/Za0lruD0.net
やっぱラデはRX6900とかでもRTX3060の方がいい感じなんかな?

633 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:33:41.94 ID:faOL3WJC0.net
Stable Diffusionそのものの技術は日進月歩なのに
なんでRadeon(というかCUDA非対応デバイス)への対応はこんなに牛歩なんだ
CUDAに囚われていい技術じゃないだろ

634 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:43:25.68 ID:THgOUwN00.net
4090で学習させてたら途中でVRAM不足でクラッシュwwwww
PC再起動までGPU認識しないでやんのwwwwwwww
クッソワラタwwwwwwwwwwwwww

635 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:44:11.12 ID:75Su7y/K0.net
>>633
オープンソースの発展は勝手にコード書く人口の多さに影響されやすい

636 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:45:57.42 ID:bJiHIXjQ0.net
pytorchが動かんことには云々

637 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:51:17.01 ID:faOL3WJC0.net
Windows+Radeon環境でも1111 webuiを楽にインストールさせてくれれば文句ないのになあ
NVIDIAはVRAM量ケチりがち & 個人的にNVIDIAに良いイメージないから、あんまりGeForce買う気にならん

638 :名無しさん@お腹いっぱい。 :2022/12/05(月) 00:51:40.73 ID:rbFymsoa0.net
24GBでクラッシュとか…

639 :名無しさん@お腹いっぱい。 :2022/12/05(月) 01:22:12.63 ID:HU9/2YSl0.net
そこまで言うなら自分で音頭取って有志をあつめるか、究極的に自分で書けばいいじゃんって話なんだよな
金もやる気もないなら現環境を受け入れるしかない

640 :名無しさん@お腹いっぱい。 :2022/12/05(月) 01:50:58.74 ID:PPKKc3lG0.net
スレ民だったりして

AMDのWindowsマシンでStableDiffusion V1.5とAnything V3.0を使えるようにする
https://dolls.tokyo/howto-amd-win-sd15_any30/


AMDのWindowsマシンで動くAnythingV3.0 WebUIを更新(スケジューラと複数枚生成)
https://dolls.tokyo/amd_anything_webui_verup/

641 :名無しさん@お腹いっぱい。 :2022/12/05(月) 03:06:54.43 ID:aBPwcwj50.net
Radeonがメモリ32GBとか出してくれると期待している

642 :名無しさん@お腹いっぱい。 :2022/12/05(月) 03:11:23.70 ID:WQM6Adnw0.net
画像のサイズを変えずに画質良くする方法ってないですかね?

643 :名無しさん@お腹いっぱい。 :2022/12/05(月) 03:12:28.61 ID:XwjCtEs2d.net
そろそろnijijourneyを学習したSDモデルが出てきてもいい頃だろ、少し楽しみ

644 :名無しさん@お腹いっぱい。 :2022/12/05(月) 05:46:47.45 ID:HOXEL8v2M.net
>>595
まじでありがと

645 :名無しさん@お腹いっぱい。 :2022/12/05(月) 08:00:28.75 ID:hxdCKOnSa.net
>>625
論文更新してたぞ

646 :名無しさん@お腹いっぱい。 :2022/12/05(月) 08:40:39.09 ID:g8eLROKM0.net
Stable Diffusion 2.1 beta coming real soon to a Discord near you
って話も気になるな
SD2.0が残念さんだっただけに

647 :名無しさん@お腹いっぱい。 :2022/12/05(月) 08:51:10.98 ID:19d8KIhq0.net
>>642
最終的にそのサイズになってればいいってことなら2倍のサイズで作って半分に縮小すればいいんだけど、そういうことではないよな……

648 :名無しさん@お腹いっぱい。 :2022/12/05(月) 12:58:01.48 ID:Z3tq5VgW0.net
画素数を倍にしたいって意味だろ
方法は知らんけど

649 :名無しさん@お腹いっぱい。 :2022/12/05(月) 13:26:00.10 ID:Sg0g0kcZa.net
くっそ劣化したjpgを同じ解像度のまま元の絵に復元したいという意味では?
無理だけど

650 :名無しさん@お腹いっぱい。 (ワッチョイ df02-6IzU):2022/12/05(月) 14:09:48.45 ID:2pIwpNNA0.net
i2iすれば?

>>630
--device でcudaデバイスのidは指定できるらしい
コマンドラインオプション一覧はたまに読むと発見がある

651 :名無しさん@お腹いっぱい。 (ワッチョイ 8cbb-7kHv):2022/12/05(月) 14:13:38.36 ID:9iTb0kL70.net
アプコンの話?他のアプリ使えばできるっちゃできるよ

ソース
https://suishoshizuku.com/images/twitter_icon_taisho.jpg

madVR + MPC-BEのシェーダーでアプコン
https://i.imgur.com/KRROgDu.jpg

ノイズ除去も一応できる

ノイズ有り
https://i.imgur.com/4OV9yAB.jpg

ノイズ除去後
https://i.imgur.com/iG4fz5m.jpg

これ本来動画再生に使う物だから
モニタの解像度を超えて出力できないのが問題

詳しくはここで
https://egg.5ch.net/test/read.cgi/software/1622529336/

652 :名無しさん@お腹いっぱい。 (ワッチョイ 8cbb-GXU2):2022/12/05(月) 14:24:31.18 ID:GK7r0f+J0.net
Upscaylをここでも推すわ

653 :名無しさん@お腹いっぱい。 :2022/12/05(月) 15:45:48.82 ID:oDHW4Q8a0.net
prunedってどういうことなんやろね

654 :名無しさん@お腹いっぱい。 :2022/12/05(月) 16:25:46.01 ID:KfS/LOyH0.net
>>653
プルンプル~ンってことだよ
ようはおっぱいだね
あと、『無駄な部分を削ぎ落した』 という意味でもあるよ
プルンプルンのおっぱいなのに無駄がないって素敵だよね

655 :名無しさん@お腹いっぱい。 :2022/12/05(月) 16:39:01.44 ID:ADI2tp0q0.net
pruningと呼ばれる軽量化が施されたもの
重みを一部除去して推論を簡素化しつつ類似した結果を得られるようにする
pruning前後で全く同じ結果が得られる訳ではないが
できるだけ誤差を減らすために多くの論文が発表されている
openvinoで使うonnxファイルへの変換でも使われていた

656 :名無しさん@お腹いっぱい。 :2022/12/05(月) 16:40:56.51 ID:Sg0g0kcZa.net
へー

657 :名無しさん@お腹いっぱい。 :2022/12/05(月) 16:45:18.07 ID:Yqlpr/pT0.net
>>653
AI学習モデルのpruningとは、学習済みのモデルから不要な重みや層を削除することを指します。
モデルのpruningを行うことで、モデルのサイズが小さくなり、推論時の計算量が減少します。また、pruningによって、モデルの収束が早くなり、学習の効率が向上することがあります。
pruningは、学習済みのモデルをもとに行います。そのため、pruningを行う前には、モデルを学習させる必要があります。また、pruningの適用範囲や削除する量を適切に決定する必要があります。
pruningは、深層学習のモデルでよく用いられる手法です。モデルを小さくしたり、学習の効率を向上させるために利用されます。

ってChatGPTが言ってた

658 :名無しさん@お腹いっぱい。 :2022/12/05(月) 16:48:01.26 ID:GK7r0f+J0.net
尤もらしいが正確性は眉唾すぎるw

659 :名無しさん@お腹いっぱい。 :2022/12/05(月) 16:53:37.51 ID:DTZ7ARgsa.net
ChatGPTww
SDだとチェックポイントファイルに学習に必要なデータ(画像生成には不要なデータ)も含まれてるからそれを削除するってだけだな

660 :名無しさん@お腹いっぱい。 :2022/12/05(月) 17:01:38.95 ID:g8eLROKM0.net
ChatGPTはそれでいいんだがSDだと削った情報にある程度必要な人もいるわけで
fp16/32,pruned,pruned-emaonly,無印,full,full-emaと千差万別あって生成結果は大きくずれなくてもそれなりに変化する
学習方法によってその選択もまた変わるという
さらに別条件でデータカットされたモデルをマージして学習元にしようとか奇々怪々な世界になってる

661 :名無しさん@お腹いっぱい。 :2022/12/05(月) 17:09:30.23 ID:Sg0g0kcZa.net
まあ生成時はprunedでいいって言うのは間違いない

662 :名無しさん@お腹いっぱい。 (ワッチョイ 227c-6Epl):2022/12/05(月) 17:35:35.70 ID:KfS/LOyH0.net
そうだね、おっぱいだね

663 :名無しさん@お腹いっぱい。 :2022/12/05(月) 18:09:10.31 ID:0RSi1VUa0.net
おっぱい小さくしつつちちくび大きくしたい

664 :名無しさん@お腹いっぱい。 :2022/12/05(月) 19:17:05.82 ID:Z3tq5VgW0.net
chargptは面白いけど
追加学習できなきゃ使い道ないよ
有料プランはいつになるの?

665 :名無しさん@お腹いっぱい。 :2022/12/05(月) 19:20:21.99 ID:Mp90nLkxr.net
>>654


666 :名無しさん@お腹いっぱい。 :2022/12/05(月) 20:14:48.47 ID:2NFWIrQ8M.net
>>654
おっぱいに無駄があるなんてのはまやかし
夢が詰まってんだからな

667 :名無しさん@お腹いっぱい。 :2022/12/05(月) 23:38:10.88 ID:VPZ4Kuht0.net
macもネイティブ対応なんだね
Colab使わずにできるのが楽しみ

668 :名無しさん@お腹いっぱい。 :2022/12/05(月) 23:57:37.05 ID:Bgv4fQ7sa.net
NKMDでi2iしようとしたんだけど何故か元の画像がそのまま出力されるんだが原因がわかる人いない?
ちゃんとinfluenceの値も設定して画像に沿ったプロンプトも入れてるのに全然反映されなくて困ってる

669 :名無しさん@お腹いっぱい。 (ワッチョイ 8cbb-GXU2):2022/12/06(火) 00:02:22.89 ID:CgVyxU+o0.net
NMKDを捨てるという解決策

670 :名無しさん@お腹いっぱい。 :2022/12/06(火) 01:26:02.74 ID:KdRu5GeSM.net
流石に1111に乗り換えよう

671 :名無しさん@お腹いっぱい。 :2022/12/06(火) 03:23:40.17 ID:oxVwO6g40.net
>>668
俺もNMKDから乗り換えた派なんだけど1111の方が滅茶苦茶良いよ
作れるキャラの幅が一気に広がった上にサクサク作業できる
便利な機能も多過ぎて使っているだけでも楽しいよ

672 :名無しさん@お腹いっぱい。 :2022/12/06(火) 07:14:21.17 ID:QaeGquTE0.net
あとはInvokeAIのキャンバスみたいな機能が
1111にも来て欲しいな

673 :名無しさん@お腹いっぱい。 :2022/12/06(火) 08:28:20.67 ID:MMnzFzOP0.net
今はというか、もうInvokeAIはChatGPT並みにエロ禁だからちょっと面倒なんだよな

674 :名無しさん@お腹いっぱい。 :2022/12/06(火) 08:31:53.17 ID:y6WJo6O3a.net
なんで初期インストールの時にnsfwチェック拒否らなかったん?

675 :名無しさん@お腹いっぱい。 :2022/12/06(火) 08:32:57.84 ID:y6WJo6O3a.net
ユーザーフォルダに.invokeaiファイルがあるからそれ編集すればいいみたいなことnsfwチェッカーが反応しても出たと思う

676 :名無しさん@お腹いっぱい。 :2022/12/06(火) 09:12:31.18 ID:+brISm3kd.net
そのいんぐりもんぐりってのはなんじゃろかい

677 :名無しさん@お腹いっぱい。 :2022/12/06(火) 10:32:32.07 ID:eCSlfg1xd.net
真ん中にキャラだけ置いてる透過画像から背景を作るのって出来る?

それっぽい背景はっつけてi2iしたほうがいいのかな

678 :名無しさん@お腹いっぱい。 :2022/12/06(火) 11:13:27.05 ID:OH78SXdDM.net
>>677
なんぞ背景だけ描くプロンプトで出したのに透過画像を貼り付ければいいのでは?

679 :名無しさん@お腹いっぱい。 :2022/12/06(火) 11:31:57.46 ID:eCSlfg1xd.net
>>678
角度?パース?がキャラに合うように出力できなそうだなって思って

680 :名無しさん@お腹いっぱい。 :2022/12/06(火) 12:07:36.00 ID:GQVtRzkT0.net
ちょっと試したけどパースはインペイントで背景消して描きなおしても人物に合わせてパースも参照されてるみたいや
不思議やねw

681 :名無しさん@お腹いっぱい。 :2022/12/06(火) 12:10:37.50 ID:+brISm3kd.net
いい感じにアレンジしてくれるのかしら

682 :名無しさん@お腹いっぱい。 :2022/12/06(火) 12:15:08.48 ID:y6WJo6O3a.net
multi-subject rendererみたいなスクリプトなかったっけ

683 :名無しさん@お腹いっぱい。 :2022/12/06(火) 12:18:39.15 ID:rC8PZS/80.net
そのキャラを黒くしたマスク画像作って、inpaintでマスクのアップロードしたらいいのでは

684 :名無しさん@お腹いっぱい。 (スッップ Sd70-Pxbt):2022/12/06(火) 14:48:58.56 ID:jYnJfpmZd.net
Any v3.0使うときはvae入れないと色が淡くなるってのは分かったんだけど、Any v3.0と他のモデルを7:3くらいでマージしたときもvae入れないと色が淡くなるんですか?
マージモデル使ったらやけに色が淡くなっちゃって
その時ってマージされたモデルのvaeはAny v3.0と同じvaeファイルをコピーして新モデルのファイル名に書き換えただけのやつでいいんでしょうか?

685 :名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK):2022/12/06(火) 14:51:29.94 ID:h7w2K1mBa.net
自分は応急手当的にそれで問題なさそうだったからそうしてる
でもなぜそれで上手くいくのか
なぜAny:ほかのモデル=0.1:0.9とか0.7:0.3で淡くなり方は違うのにvae適用でどれも同じくらい彩度持ち上がるのかとか
そういうのは理解してない
だからvaeは発見次第落として選択肢にしてる

686 :名無しさん@お腹いっぱい。 :2022/12/06(火) 17:35:25.63 ID:K/bc3+sO0.net
1111使ってるから設定でAnyのやつに固定してるわ
モデルごとに準備しなくていいから楽だなと
原理は俺も理解してない

687 :名無しさん@お腹いっぱい。 :2022/12/06(火) 17:41:29.60 ID:eCSlfg1xd.net
>>680
マジかすげぇ

688 :名無しさん@お腹いっぱい。 :2022/12/06(火) 18:22:16.59 ID:jYnJfpmZd.net
理屈は分からないけどとりあえずAnyのvae使っとけばいい感じなんですね、ありがとうございます

689 :名無しさん@お腹いっぱい。 (ワッチョイ fb6e-g9pY):2022/12/06(火) 18:44:38.15 ID:+vo4LHGA0.net
>>652
これ使ってみたけどめっちゃいいわありがとう

690 :名無しさん@お腹いっぱい。 :2022/12/06(火) 20:31:31.73 ID:sDYyXkjk0.net
なるほど、見映えのvaeということか

691 :名無しさん@お腹いっぱい。 :2022/12/06(火) 21:09:06.36 ID:TrpIOPPL0.net
Any3の画風でnsfwするには、naiと3:7でマージするのがいいって聞いたんだけどうまくいかない…間違った情報かな?

692 :名無しさん@お腹いっぱい。 (ワッチョイ e202-L2rH):2022/12/06(火) 21:16:59.84 ID:I+ZJ9VY10.net
なんか更新したらHypernetworkの学習できなくなった?

693 :名無しさん@お腹いっぱい。 :2022/12/06(火) 21:42:02.58 ID:h7w2K1mBa.net
いつものこと
動いてたSHA256とってcheckout

694 :名無しさん@お腹いっぱい。 :2022/12/06(火) 22:28:18.35 ID:3JFob8cN0.net
>>691
その情報の所に行って正しいやり方聞いた穂がいいと思うけどな
本当に間違ってるかもしれないし、その人が言ってることが理解できてないだけなのかもしれないし

695 :名無しさん@お腹いっぱい。 :2022/12/06(火) 23:18:25.00 ID:tXtpXv5k0.net
SD2.0のFineTuneモデル来た
https://huggingface.co/nitrosocke/redshift-diffusion-768

少し試してみたけどグニョグニョの奇形になるのは変わらんね
https://i.imgur.com/irFaVmg.jpg
https://i.imgur.com/WUWufi6.jpg

696 :名無しさん@お腹いっぱい。 :2022/12/07(水) 00:12:38.63 ID:QBo/jucC0.net
目がこわい

697 :名無しさん@お腹いっぱい。 :2022/12/07(水) 00:27:40.81 ID:boIb8gxA0.net
一枚目の方向性好き
写実と漫画の融合を突き詰めてえちえちコスプレイヤー絵を量産してほしい

698 :名無しさん@お腹いっぱい。 :2022/12/07(水) 00:37:34.23 ID:HRazAn7qa.net
わいも2.5次元目指してるけどこれはきもさが勝つ

699 :名無しさん@お腹いっぱい。 :2022/12/07(水) 00:39:13.87 ID:Nzy9oCd00.net
2枚目のうにょうにょ感も頭身下げればコミカルでいいかもしれないけど
多分chibiにするとそれはそれで崩れるんだろうな

700 :名無しさん@お腹いっぱい。 :2022/12/07(水) 01:28:39.88 ID:ESgqaW+r0.net
>>695
kawaiiと3をネガティブプロンプトに入れるとキモさは減るかも

701 :名無しさん@お腹いっぱい。 :2022/12/07(水) 01:29:04.82 ID:ESgqaW+r0.net
3D

702 :名無しさん@お腹いっぱい。 :2022/12/07(水) 06:43:47.18 ID:Mv3jCvTP0.net
確定でアニメ塗りで出力されるモデルかプロンプトないですかね

703 :名無しさん@お腹いっぱい。 :2022/12/07(水) 06:54:22.64 ID:syYgb19e0.net
>>695
ぬうう、ある意味質感が上がってるが…
イラスト系のクリーンモデルって難しいのかな

704 :名無しさん@お腹いっぱい。 :2022/12/07(水) 10:00:59.43 ID:DmTGftkf0.net
https://huggingface.co/nitrosocke/redshift-diffusion-768
男が出てこない…どうするん?と思ったけど
https://i.imgur.com/ZzDpXhJ.jpg
https://i.imgur.com/uoIpwRX.jpg
黒人問題も解消してるし
https://i.imgur.com/4rtdUOO.jpg
https://i.imgur.com/LWxPnYq.jpg
セクシー表現もできるし
https://i.imgur.com/N6JOsgZ.jpg
リアリスティックも有効だし、SD2.0リリース時よりはだいぶ明るい未来が…
https://i.imgur.com/EHcZRyi.jpg
https://i.imgur.com/GLGWEeT.jpg
テスト生成にcolab用意されてるのは気が楽でいいな

705 :名無しさん@お腹いっぱい。 :2022/12/07(水) 11:57:27.23 ID:e0bYM8SVa.net
novelAIでi2iしたら必ず水墨画みたいに線が太くなるんですか設定とかの問題ですか?
マスピ絵で出力したいのに…

706 :名無しさん@お腹いっぱい。 :2022/12/07(水) 12:13:53.37 ID:NYYREAONd.net
元絵の影響度抑えるかプロンプトなおそう

707 :名無しさん@お腹いっぱい。 :2022/12/07(水) 12:53:16.74 ID:c/D53YGIa.net
マスピ絵は絵の具の原色みたいなものかな
プロンプトやi2iなど手を加えるたびにすこしずつ色が濁っていくような感じでマスピ要素も薄れてしまう

708 :名無しさん@お腹いっぱい。 :2022/12/07(水) 13:22:28.88 ID:z94Gb4P/0.net
waifuは2.1ベースか

709 :名無しさん@お腹いっぱい。 :2022/12/07(水) 13:40:02.74 ID:Nzy9oCd00.net
Waifu2.1が出る前にSDがより高品質な2.2出しまぁす!って発表してWDも再延期、とかありそう

710 :名無しさん@お腹いっぱい。 :2022/12/07(水) 13:47:01.65 ID:muv6N//xa.net
しないって言ってたぞ

711 :名無しさん@お腹いっぱい。 :2022/12/07(水) 13:47:38.41 ID:muv6N//xa.net
延期しないというかそれで出しますって言ってた

712 :名無しさん@お腹いっぱい。 :2022/12/07(水) 14:49:41.97 ID:h/v2GDuir.net
今週1.35が出るって見たけど本当?

713 :名無しさん@お腹いっぱい。 :2022/12/07(水) 14:52:29.78 ID:kxMyHgz60.net
なんでこのスレの住人が最新情報の正偽を知ってると思ったんだよ

714 :名無しさん@お腹いっぱい。 :2022/12/07(水) 14:57:31.38 ID:meLfYj3O0.net
ある程度の人は参加してるとは思うけどね
質問どころかジョークにも乗ってくれるしEmadよりは親近感がある

715 :名無しさん@お腹いっぱい。 :2022/12/07(水) 15:00:16.91 ID:ZWOR65u1a.net
.ptファイルでマージみたいな事が出来たら便利なのに…
ということを最近思うんだけど、設計上無理なんですか?

716 :名無しさん@お腹いっぱい。 :2022/12/07(水) 15:24:19.98 ID:DuNZnzYZa.net
HyperNetworkか?
いけるんじゃね

717 :名無しさん@お腹いっぱい。 :2022/12/07(水) 15:27:49.14 ID:muv6N//xa.net
TouhouAI入ろう?

718 :名無しさん@お腹いっぱい。 :2022/12/07(水) 15:30:19.39 ID:P2nel2540.net
samplerってどれを選べばいいんですか?
CFGっていくつがいいんですか?

719 :名無しさん@お腹いっぱい。 :2022/12/07(水) 15:49:55.57 ID:YErKSArcd.net
hypernetworkのマージはフォークがあったと思う
1111に取り込まれればいいんだけど

720 :名無しさん@お腹いっぱい。 :2022/12/07(水) 16:29:13.11 ID:muv6N//xa.net
まず個人的に使い物になるサンプラー一覧
Euler a, PLMS, DDIM, DPM fast, DPM++ 2M(Karras), DPM++ SDE(Karras)

とりあえず呪文模索する時やシード値探しする時はSDE KarrasのStep6
良さげなシードだけどこかに控えて後から好きなサンプラーでXY Plotで色んなStep数を試す
なおシード値探しをSDE Karrasで行っている以上「SDE Karrasではハズレだったけどあるサンプラーでは当たりになるはずだったシード」「SDE Karrasでは当たりだったけど違うサンプラーではハズレになる」ことは避けられない

リアル系とかは知らないけどNAI系の萌え(死語)なアニメイラストが出したい場合はEuler a > DPM fast(高steps) > その他サンプラー >> DPM fast(低steps)
背景とかはDDIMやDPM系の20~50stepsくらいがちょうど良さそう

721 :名無しさん@お腹いっぱい。 :2022/12/07(水) 16:31:48.27 ID:muv6N//xa.net
CFG Scaleに限らずSamplerにも言えることだけど
モデルによってちょうどいいCFG ScaleやSamplerやそのStep数はだいぶ変わる
使うモデルをいくつかのプロンプトでCFG ScaleとSamplerでXY Plotして自分の好みを見つけるのが早い

722 :名無しさん@お腹いっぱい。 :2022/12/07(水) 16:41:42.58 ID:d0P9NnBTa.net
>>706,707
ありがとう返信もらえると思ってなかった
生成した絵をそのままimageに取り込むならならないのに一回加工して持ってくると全部濃淡薄くて線が太い絵になるんだよな
どんな元絵でも、thick outlineとblack outline強調してネガにぶち込んでも全然ダメ
rength0.6以上にすると元の画像無視するし手詰まりになってる…
他になにか無いかな?

723 :名無しさん@お腹いっぱい。 :2022/12/07(水) 17:01:05.35 ID:n1/JdS/ja.net
>>716
>>719
ありがとう、調べてみます

724 :名無しさん@お腹いっぱい。 :2022/12/07(水) 17:35:24.55 ID:muv6N//xa.net
Kaggleの自分のDatasetにNotebookで落としたモデルを送り込むってできない?

Datasetの追加のところにあるRemoteLinkでHuggingFaceに置いてあるモデルの直リン入れてみたらエラーが出るみたいで
かと言ってローカルから十数のモデルをアップロードするのもうんち回線だからちょっと辛い
だからNotebookを通じてHuggingFaceから高速で落としてDatasetに突っ込めないかなって思ってググってみたんだけど検索ワードのそれぞれの単語が強すぎて上手く見つけられなかった

725 :名無しさん@お腹いっぱい。 :2022/12/07(水) 18:28:27.98 ID:HvIImAF20.net
DAの威力に腰が砕けた
設定がよく解らんからほぼデフォやけど30000stepでもええんかこれ?

726 :名無しさん@お腹いっぱい。 :2022/12/07(水) 18:30:01.42 ID:jYLyVilD0.net
huggingfaceでモデルを探していたら
anime系を全部ぶちこんだckpt作ってる人がいて
考えることは同じなんだなって

727 :名無しさん@お腹いっぱい。 :2022/12/07(水) 18:30:26.47 ID:g4ov3FbE0.net
kaggleでエロ画像生成は笑うわ

728 :名無しさん@お腹いっぱい。 :2022/12/07(水) 18:31:21.23 ID:muv6N//xa.net
さすがにそこまでの勇気は無いwww

729 :名無しさん@お腹いっぱい。 :2022/12/07(水) 18:32:04.99 ID:muv6N//xa.net
でもワンチャンColabよりはそのへん緩いかもしれんね

730 :名無しさん@お腹いっぱい。 :2022/12/07(水) 19:00:02.03 ID:NYYREAONd.net
>>726
くやしく、クリムゾンふうに

731 :名無しさん@お腹いっぱい。 :2022/12/07(水) 19:03:00.72 ID:zwH74zW/0.net
>>725
よかったら成果貼ってくれないか?

732 :名無しさん@お腹いっぱい。 :2022/12/07(水) 19:44:24.18 ID:P2nel2540.net
>>720
なるほど、ありがとうございます

733 :名無しさん@お腹いっぱい。 :2022/12/07(水) 20:06:47.68 ID:syzdcebS0.net
ここ親切な人が多くて平和過ぎて草
他の板がおかしいだけか

734 :名無しさん@お腹いっぱい。 :2022/12/07(水) 21:23:39.98 ID:UAeRP+C00.net
流行りにつられたあたおかさん達は別のブームに住処を移動したんじゃない?

735 :名無しさん@お腹いっぱい。 :2022/12/08(木) 02:34:46.95 ID:qZl9gbPz0.net
nijijourney入れたけどこれすごいわね
日本語の簡単なプロンプトで限りなく欲しい絵に近いものがぽんぽん出てくる
画像生成aiで初めて課金してもいいと思ったわ

736 :名無しさん@お腹いっぱい。 :2022/12/08(木) 05:38:19.33 ID:OdilId63a.net
それは本当に限りなく欲しい絵に近いものか?🤔
絵ができてから欲しい絵が決まってこれは自分が欲しかったものだって人が多くてやや猜疑的である

737 :名無しさん@お腹いっぱい。 :2022/12/08(木) 06:09:29.66 ID:5AW3AB+D0.net
>>735
エロは出来ますかね?

738 :名無しさん@お腹いっぱい。 :2022/12/08(木) 06:12:28.09 ID:5AW3AB+D0.net
i2iと追加学習はどっちが良いんだろう?
ピクシブを見てると学習って意外と量産性が低い気がする

739 :名無しさん@お腹いっぱい。 :2022/12/08(木) 06:24:49.57 ID:xvavsqJka.net
でも当たりを引いてしまえばもはや誰も真似出来ない絵が出せるわけで
ロマンがある

740 :名無しさん@お腹いっぱい。 :2022/12/08(木) 06:25:30.49 ID:xvavsqJka.net
あっi2iの特徴だこれ
i2iでいいなもう(適当)

741 :名無しさん@お腹いっぱい。 :2022/12/08(木) 06:42:40.38 ID:nXGnwmXq0.net
>>738
汎用AIで生成→DB,HNで絞るみたいな感じで両方使えよ

742 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:11:01.21 ID:8vZ5dYP6a.net
実写画像を生成してi2iでいいじゃん
構図は実写の方が豊富だし

743 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:11:06.91 ID:5AW3AB+D0.net
>>741
学習しても最後はi2iで修正する人が多いのかな

744 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:23:09.04 ID:OdilId63a.net
実写は物理的に限られた構図が無限なのに対し
絵は物理的無視することもできる上で有限
なんか数字の数みたいな話だな

745 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:25:24.94 ID:5AW3AB+D0.net
学習やったことないけど
エロは出しにくいのかな?
ピクシブ見てると学習はエロが苦手な気がする

746 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:31:38.56 ID:OdilId63a.net
追加学習やったことないけどそれは学習の方向性によるのでは🤔
そもそもpixivに追加学習したモデルを使用してるって明言してる人そんな多いかな
マージもファインチューニングもしたしHNも使ってるしTIも使ってるとなった場合
分類に困ったからとりあえずStable DiffusionタグかNovelAIタグをつける人は多い

747 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:37:39.65 ID:5AW3AB+D0.net
>>746
dreamboothタグはありますね

748 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:51:55.48 ID:UFpmDrIu0.net
>>745
なぜ来週からエロ制限が厳しくなるピクシブ基準なのか視野が狭いわ…無料で試せるものなのに意味不明だわ
SD1.4の実写学習潰してDanbooru画像を学習したのがNAIで、マスピに2D版権キャラが上書きされタグとエロのバリエーションが増えてる
エロ同人売ったら捕まるような国でNAIに追加学習したのがAnythingだし
そもそもマスピ減らしてでも塗や指の再現を優先したかったわけで…その先にmeituがある
NAIに2D性器を学習させたGapeのサンプルでも見てまだ弱いって言えるのかどうかだな
ベースモデルを何に特化させるのかっていうだけで、黒人や障碍者入ったi2iで消えるっていちゃもん付ける屑にならんようにな
オープンソースなんだから好きなもの学習させて公開して、これ使えっていうのが筋だしな
文句言うだけなら日本の野党でもできる。何ができないかじゃなくて、何ができるかっていうのが技術発展でありお金になる

749 :名無しさん@お腹いっぱい。 :2022/12/08(木) 07:54:42.39 ID:qZl9gbPz0.net
>>737
エロが出来ないからWD1.4次第だよな
理論上NAIは軽々超えられるカタログスペックはある訳だから、あとは学習のやり方なわけで
これでしょうもない結果だったら結局クローズドソースが最強というオチ

750 :名無しさん@お腹いっぱい。 :2022/12/08(木) 08:09:15.68 ID:OdilId63a.net
wd1.35もwd1.4もすげー楽しみ
イラストのみを学習した1.35はこれまでの上位互換を期待してるし
色々データセットを増やした1.4にはイラストとより正確な絵的構造を兼ね備えたモデルを期待してる
楽しみだ

751 :名無しさん@お腹いっぱい。 :2022/12/08(木) 08:10:05.15 ID:OdilId63a.net
※これまでとは
wd1.3, 1.3 penultimateのこと

752 :名無しさん@お腹いっぱい。 :2022/12/08(木) 09:12:36.99 ID:5AW3AB+D0.net
>>748
詳しい解説ありがとうございます
Gapeのサンプルってどこで見れるんですかね?
検索しても全然でないですね

753 :名無しさん@お腹いっぱい。 :2022/12/08(木) 09:30:34.85 ID:d+FKQ96Xa.net
nijiの学習データもリークされねーかな
どうせvaeなんかも使って相当に縛ってるからこそのクオリティなんだろうけど
自前で好き勝手に使いたい

754 :名無しさん@お腹いっぱい。 :2022/12/08(木) 09:33:02.21 ID:tVb5Zpxo0.net
>>752
ここはエロNGだから詳しい話はpinkのほうに

755 :名無しさん@お腹いっぱい。 :2022/12/08(木) 09:41:57.85 ID:qZl9gbPz0.net
リークはともかくniji上で学習もimpaintもoutpaintingも出来るようになって欲しいのはあるな
NAIもそうだけど細かい修正が効かなきゃ玩具以上の価値はない

756 :名無しさん@お腹いっぱい。 :2022/12/08(木) 09:53:40.10 ID:OdilId63a.net
gapeってNAIに追加学習したものだったんだ……

757 :名無しさん@お腹いっぱい。 :2022/12/08(木) 11:06:00.85 ID:qSxW78m40.net
別にdanbooruから学習したってことはわかってたんだからリーク使わなくても同じ方法でモデル作ればNAIと同じものが出来るだろ
特許とか取ってなきゃ誰でも同じモデル作って問題ない

758 :名無しさん@お腹いっぱい。 :2022/12/08(木) 11:08:29.11 ID:fH0n6ugdM.net
nijiってつまり基本midjourneyだろ
これまでリークされたらマジ無法地帯だな

759 :名無しさん@お腹いっぱい。 :2022/12/08(木) 11:12:14.60 ID:cOIadzDGM.net
>>724
gdriveなんたら使ってGoogleドライブ経由で入れるとか

760 :名無しさん@お腹いっぱい。 :2022/12/08(木) 11:27:04.19 ID:fdkqxRPT0.net
Any3でエロやるならNAIと混ぜるといいらしいけど、
皆さんどんな割合でやってる?

761 :名無しさん@お腹いっぱい。 :2022/12/08(木) 11:44:35.12 ID:OX/wmBEY0.net
だからエロはエロスレでやれと
【NovelAI】AIエロ画像情報交換 9【Waifu Diffusion】
https://mercury.bbspink.com/test/read.cgi/erocg/1670389707/

762 :名無しさん@お腹いっぱい。 :2022/12/08(木) 12:35:28.51 ID:r1+FtCNM0.net
>>748
文章が無駄に長いよ
基本的に偏った認識をしやすい・思い込みが激しい傾向があるようだけれど、それはできるだけ短く書くようにすれば対外的にはある程度改善されるから説明が苦手なら最低限だけ書くようにすりゃいい

763 :名無しさん@お腹いっぱい。 :2022/12/08(木) 13:43:38.98 ID:RZMUSkSm0.net
>>762
かま...うな...

764 :名無しさん@お腹いっぱい。 :2022/12/08(木) 13:45:34.29 ID:9jm4PJsua.net
>>763
わろた

765 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:09:42.67 ID:AEpqI/Jk0.net
なんでそんなに元気なんだ?
waifu2.1、nijiリーク、追加学習できるchatGPT辺りがくるまで暇なのに

766 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:14:45.69 ID:OdilId63a.net
waifu2.1!?

767 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:14:52.78 ID:5xFct4MU0.net
え?知らないの?
ここの他にも人間ているんだよ
そしてAIお絵かきのことを知ってここを訪れたりするんだよ

768 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:16:01.56 ID:OdilId63a.net
かま……うな……
>>767

769 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:18:30.39 ID:3rduiZj70.net
>>768
わろた

770 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:21:36.47 ID:9jm4PJsua.net
再放送するな

771 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:39:42.90 ID:HIt5HbB20.net
いつの間にかSD2.1公開されてんじゃん。ギリギリ最低限のNSFW成分を含めて追加学習したみたいだな

772 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:41:00.47 ID:b4HE66NI0.net
Stable Diffusion 2.1はリリースされたから試さないと。
2.0ではNSFWフィルターがきつ過ぎたと反省した版らしい

773 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:49:50.36 ID:mW/Rh8j30.net
ベースモデルは毒にも薬にもならなくてエエ
SD2ベースのエロモデルが出てからが本番だが現状でもかなりお腹いっぱい

774 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:50:15.29 ID:vivnITa/0.net
v2-1_768-ema-pruned.ckptをダウンロードすりゃいいのか
v2-1_768-nonema-pruned.ckptはサイズが同じなんだな。emaとnoemaってどう違うんだっけ

775 :名無しさん@お腹いっぱい。 :2022/12/08(木) 14:56:46.50 ID:BZj8awSVM.net
redditにあるちょっとした比較見ても差がわからんな
流石にこれだけで判断出来んが

776 :名無しさん@お腹いっぱい。 :2022/12/08(木) 15:01:43.70 ID:vivnITa/0.net
AUTOMATIC1111だとv2-1_768-ema-pruned.ckptを選ぶとランタイムエラーが出るな
またどこかからyamlを持ってこないといけないのかな

777 :名無しさん@お腹いっぱい。 :2022/12/08(木) 15:09:05.23 ID:HIt5HbB20.net
とりあえず2.0用のyamlで動いたよ
意外とグラビア系行けそうな感じだ、1.4時代よりはマシって感じ。より酷かった2.0より遥かにいい

778 :名無しさん@お腹いっぱい。 (ワッチョイ 4c10-D86U):2022/12/08(木) 15:38:33.94 ID:duEbMsjl0.net
vram24GBクラスのVGAって4スロット占有するんだな…
他の用途と兼用してるPCへの取り付けが無理で絶望
PC1台生やすことになると+10万円コースでさらに絶望

779 :名無しさん@お腹いっぱい。 (ワッチョイ d0f2-4FAg):2022/12/08(木) 15:51:08.32 ID:vivnITa/0.net
>>777
本当だ、768-v-ema.yamlを複製してv2-1_768-ema-pruned.yamlにしたら動いた
ありがとう

780 :名無しさん@お腹いっぱい。 :2022/12/08(木) 16:33:48.19 ID:VGBYhHdo0.net
F222のほうがいまのところはいいおもちゃだな
sd2.1の遊び方も見つけたい

781 :名無しさん@お腹いっぱい。 :2022/12/08(木) 16:39:01.69 ID:jRcSCzag0.net
もともと人体生成弱いのに裸類消しちゃったらよけい生成弱くなるわけだから、そこは反省したということか2.1

782 :名無しさん@お腹いっぱい。 :2022/12/08(木) 16:43:02.87 ID:iQbKfPWj0.net
はよ蒸留なんちゃらとやらで1秒で生成できるようにしろよ

783 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:07:04.12 ID:dhfMXWey0.net
>>778
ケースだけ取り替えればいいんでない
高さ350mm許容できるならinwin a03とかasus ap201とか電源フロントマウントのmatxケースで比較的コンパクトに収まるよ

784 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:27:10.35 ID:8MK9PiV00.net
出力足りなくて電源ユニットも交換になってりして

785 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:30:15.04 ID:duEbMsjl0.net
いまVGAの他にスロット3つ使ってるから他の用途捨てるか新規に生やすしかないんだ
colabに1月3000円払ったとしても3年で10万くらいだし新規にPC生やすくらいならこっちかな…

786 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:33:42.64 ID:8MK9PiV00.net
スロット足りないならライザーカード追加しなよ

787 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:36:53.34 ID:duEbMsjl0.net
なんか役に立つかもしれないとライザーカード2つもってたな
検討してみる。提案感謝

788 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:45:46.22 ID:jRcSCzag0.net
2.1VRAM要求厳しくなったのかな? 2.0では大丈夫だったのに真っ黒画像になる
xformaers有効にすると2.1でも絵は出るんだけど

789 :名無しさん@お腹いっぱい。 :2022/12/08(木) 17:52:29.48 ID:IcSdI6nja.net
>>788
たぶん--no-half-vaeで治るやつだわ

790 :名無しさん@お腹いっぱい。 :2022/12/08(木) 18:09:43.29 ID:OdilId63a.net
githubにその対応方法が書いてあったはず

791 :名無しさん@お腹いっぱい。 :2022/12/08(木) 18:12:03.05 ID:OdilId63a.net
AUTOMATIC1111の方のことならこれ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/5503
ただしfp16固定になるっぽくて、コミット固定が推奨されているというほんとに一時的な解決策

Invokeは知らない

792 :名無しさん@お腹いっぱい。 :2022/12/08(木) 19:01:53.75 ID:jRcSCzag0.net
>>791
まさにこれだったわ とりあえずxformersで使ってく

793 :名無しさん@お腹いっぱい。 :2022/12/08(木) 20:24:53.93 ID:kaXfkflp0.net
>>777
image to image だとランタイムエラーがでる・・・

794 :名無しさん@お腹いっぱい。 :2022/12/08(木) 20:49:06.46 ID:OdilId63a.net
そのエラーを設定すべてと共にissueに投げると喜ぶ人がいるよ

795 :名無しさん@お腹いっぱい。 :2022/12/08(木) 20:56:06.88 ID:Z+XmntM50.net
エロの無いmidjourney系統に
ハッキング仕掛けるだけの情熱を持った変態が目を向けるとも思えん。
ああいうのは変態が偏執的に執着するからガードを破れるんであって
何が言いたいかっていうと変態はつええし、なんやかんや文明を発展させるってこった。
NAIリークで明らかにイラストAIの時代は進んだしな。

796 :名無しさん@お腹いっぱい。 :2022/12/08(木) 21:36:35.44 ID:DKqZU0Ry0.net
ハッキングをしかける必要すらないぞ
それっぽいのを作るだけなら出力した絵を食わせればいいんだから
こんなんはっきり言ってビジネスにならないと思う

797 :名無しさん@お腹いっぱい。 :2022/12/08(木) 22:17:03.57 ID:AEpqI/Jk0.net
クリーン化して幅広く情弱に売りつけるか
TIファイルを裏で売買するのかの2択しかないよ

798 :名無しさん@お腹いっぱい。 :2022/12/08(木) 22:30:22.30 ID:iwgtMGMj0.net
中国産じゃないmeitu使いたい人はいるだろう
ユーザー5億人で課金率0.1%で$1としてもそれが毎月なら金になる
人がやらないことをやるっていうのはそうそういうことだ

799 :名無しさん@お腹いっぱい。 :2022/12/08(木) 22:55:59.37 ID:+hLRH/U/0.net
meituはバズってから株価1ヶ月で倍になったし、セルシス(クリスタ)はAIやめますって言って株価10%下がった

800 :名無しさん@お腹いっぱい。 :2022/12/08(木) 23:03:17.86 ID:mW/Rh8j30.net
AIは次ステップ前夜って感じ
NAI/Anyで一段落かと思ったらSD/WD1.4ベースのElysiumが次の可能性を示した
来年がSD2派生モデルの時代になるのは確定としても、それだけじゃ絶対に済まない確信がある

801 :名無しさん@お腹いっぱい。 :2022/12/08(木) 23:09:00.84 ID:tVb5Zpxo0.net
ElysiumはAnyベースだってばよ
なんでWDってことになってんだ
NaiとAnyとElyでシード合わせて検証したし
一番近いのはAny

802 :名無しさん@お腹いっぱい。 :2022/12/08(木) 23:20:41.22 ID:mW/Rh8j30.net
>>801
公式見ろ

803 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:17:14.89 ID:P5MO61Kn0.net
>>802
VAEにwaifuを推奨してるだけでモデル自体がwaifu由来とはどこにも記述ないぞ
そもそも出力結果があれだけNAIとANYに寄ってるのにwaifuは無いわ

804 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:31:33.18 ID:mXvgO1Zad.net
meituに絵放り込んだら色んな絵柄の高クオリティの絵出てくるからマジで凄い。エロ絵解禁されたらなんぼでも出したい

805 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:32:58.19 ID:wGcAFEKA0.net
NAI/Any系列かWD系列かと言われたら、NAI/Any系列だわな
これでWD系列と言われても信じられん
https://imgur.com/a/YBQhQnx.png

806 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:36:00.26 ID:MAME8oGE0.net
>>796
言うても箱庭のwd1.3にnijiの絵を食わせたやつを触った感じ、ベースモデルがゴミなら何食わせたとて構図や人体の歪みや描き込み量は変わらん、少なくとも数千枚単位の追加ならな
今んとこウン百万枚単位の学習をしてるのは企業の支援もらってるharuだけだから、haruがいなくなったら十分ビジネスになる

807 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:36:01.03 ID:/UA9uRzka.net
ですよね

808 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:36:29.50 ID:/UA9uRzka.net
あれnijiの絵だったんだ

809 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:37:17.73 ID:Y3ZicX0x0.net
Anyが一番良いな

810 :名無しさん@お腹いっぱい。 :2022/12/09(金) 00:40:34.60 ID:/UA9uRzka.net
一生trinとwdのマージしたやつベースにsfw生成してるわ
1.35早くして

811 :名無しさん@お腹いっぱい。 :2022/12/09(金) 01:10:31.56 ID:Lc07xj9Bd.net
今日突然colabでHN/TIのトレーニングできなくなったな
webuiは更新されてないし、多分torchか追加でcloneするrepositoriesのなにかが更新されておかしくなったんだと思うけど

812 :名無しさん@お腹いっぱい。 :2022/12/09(金) 02:46:00.55 ID:Lc07xj9Bd.net
とりあえずtorchの過去バージョンをインストールしたら使えるようになったけど
過去バージョンにするとトレーニングのクオリティ面でなにか不都合があるならアレだな…
1111さん対応お願いします

813 :名無しさん@お腹いっぱい。 :2022/12/09(金) 04:02:59.53 ID:/UA9uRzka.net
へーtorchのバージョンでクオリティ変わったりするんだ

814 :名無しさん@お腹いっぱい。 :2022/12/09(金) 04:06:14.55 ID:Lc07xj9Bd.net
いや、知らない
テキトーなこと言っただけ
そんなことがあったら嫌だなーと言ったまでのことさ

815 :名無しさん@お腹いっぱい。 :2022/12/09(金) 09:13:57.44 ID:ViRvp01sM.net
>>799
呪文詠唱の工夫にハマるような言語能力の高い人なんて一握りだからなあ
twitterに対するtiktokみたいな立ち位置

816 :名無しさん@お腹いっぱい。 :2022/12/09(金) 13:57:50.43 ID:8teFVW/s0.net
AIに投げるプロンプトもAIに作ってもらうとすごく楽ね

817 :名無しさん@お腹いっぱい。 :2022/12/09(金) 14:01:37.75 ID:8teFVW/s0.net
AI絵師の仕事がAIに奪われるなんて
絵師に厳しすぎだぜ

818 :名無しさん@お腹いっぱい。 :2022/12/09(金) 14:06:30.55 ID:T8NlaYqy0.net
1枚1円未満なら奪われて良いのでは?
https://crowdworks.jp/public/jobs/8547433

819 :名無しさん@お腹いっぱい。 :2022/12/09(金) 14:15:29.99 ID:2GU4YxFva.net
>>817
それいうならまずはいらすとやだろ
仮にいらすとやがいない世界線でもAIがやってただけだしいずれ難度にもよるがこういうのはあったでしょう
と思いました

820 :名無しさん@お腹いっぱい。 :2022/12/09(金) 14:52:27.11 ID:68JYZmrc0.net
>>818
電気代で赤字になりそう。

821 :名無しさん@お腹いっぱい。 :2022/12/09(金) 15:04:42.47 ID:bKWkpFXMa.net
一切指示無しで寝てる間にマスピ顔のハンコを量産するだけで500円ならまぁ…と思ったけど
それならマイニングの方がマシか

822 :名無しさん@お腹いっぱい。 :2022/12/09(金) 15:06:54.91 ID:XTwC0IfPa.net
1枚生成に5分かけるとして500枚で作業時間42時間=2日だよ
よほど電気食いまくりPCじゃない限り電気代赤字にはならないだろ

823 :名無しさん@お腹いっぱい。 :2022/12/09(金) 15:07:08.53 ID:TkgAIDQU0.net
今応募してる奴は何考えてるんだ?
失敗作のゴミだけ500枚渡すんだろうな

824 :名無しさん@お腹いっぱい。 :2022/12/09(金) 15:18:19.91 ID:8teFVW/s0.net
>>819
すまん、煽るわけじゃないんだけど
いらすとやに仕事奪われた話と
どうつながってるのかよくわからんかった・・・

>>818
500枚分指示書用意するんやろか

825 :名無しさん@お腹いっぱい。 :2022/12/09(金) 15:35:21.60 ID:TJKLdSWud.net
破綻なしの要望に沿った絵じゃないと意味ないだろうしそれを一枚1円はAIだとしても買い叩かれてるなw

826 :名無しさん@お腹いっぱい。 :2022/12/09(金) 17:30:18.37 ID:8teFVW/s0.net
1枚1円×500はいくらなんでもないね
相手の要求がどの程度かわからないけど
1枚100円×500くらいならやる人おるかの

827 :名無しさん@お腹いっぱい。 :2022/12/09(金) 17:35:54.31 ID:0PfZ+C0g0.net
一つプロンプト決めて
それで500枚出すだけでいいなら500円でいいんちゃう
なんに使うのか知らんが

828 :名無しさん@お腹いっぱい。 :2022/12/09(金) 17:54:06.39 ID:2dxQBXB90.net
全部別の呪文でとかでもDynamicPromptとandomiz
あとは完全にダメなやつを弾くためのスコアラー入れとけば簡単

でも500円のために自分の情報登録したくはない

829 :名無しさん@お腹いっぱい。 :2022/12/09(金) 18:13:01.23 ID:L0Sm9RnA0.net
間を取って1枚30-50円ならいいやつ作って選別して出してくれる人いそうだな

830 :名無しさん@お腹いっぱい。 :2022/12/09(金) 18:15:53.41 ID:XTwC0IfPa.net
この三か月で腐るほど出力してるだろ?
フォルダ漁ってランダムに500枚選び出して渡すだけのお仕事よ
そう考えたらおいしいな

831 :名無しさん@お腹いっぱい。 :2022/12/09(金) 18:22:47.02 ID:jTR7zHsur.net
あとで何か問題発生したときに、
「俺は依頼しただけで、違法な手段で生成したとは知らなかった! 悪いのは生成した奴だ!」
って責任問われる役目押しつけてくるんでしょ? 知ってる

832 :名無しさん@お腹いっぱい。 :2022/12/09(金) 18:42:57.19 ID:MObUDpnZ0.net
まあでもやるやついるだろうなあこれ
なんせまじで誰でもできるし

833 :名無しさん@お腹いっぱい。 (アウアウウー Sa08-9L44):2022/12/09(金) 19:07:34.76 ID:n8lOV6dZa.net
何が狙いなのかわからんな
グラボ非搭載PCしかないけどAIイラストが欲しいって話なら有料サービスを使えばいいだけだし
グラボ搭載PC持ちならなおさら他人に依頼する必要がない

834 :名無しさん@お腹いっぱい。 (ワッチョイ bc5f-6IzU):2022/12/09(金) 19:21:20.54 ID:eYxJlOWM0.net
技術の話題なにか無いんか

835 :名無しさん@お腹いっぱい。 (スッップ Sd70-+8rS):2022/12/09(金) 19:25:40.45 ID:Bi8si8xFd.net
技術なら、なんUの方がよほど詳しい話してて草

836 :名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK):2022/12/09(金) 19:26:11.74 ID:/UA9uRzka.net
技術ってそういう技術じゃないです

837 :名無しさん@お腹いっぱい。 (アウアウウー Sa83-3nuK):2022/12/09(金) 19:31:06.25 ID:/UA9uRzka.net
読むべき論文は山のようにあるけど一向に読む気が起きないのです
GAN, CLIP, DDPM, DDIM, GLIDE, DM, LDM
D多すぎ

838 :名無しさん@お腹いっぱい。 (ワッチョイ b901-6Epl):2022/12/09(金) 19:34:23.30 ID:+A2KQp2Y0.net
唐突に読むべき論文がーとか言い出して対抗心見え見えなの草

839 :名無しさん@お腹いっぱい。 :2022/12/09(金) 19:40:11.33 ID:/UA9uRzka.net
そのひとつ上のレス見て思っただけだから!
対抗意識とかないから!!

クリススレとかに貼られてたアートか贋作かみたいなタイトルのやつとか新しいんじゃない
自分は開いて秒で閉じたけど

840 :名無しさん@お腹いっぱい。 :2022/12/09(金) 19:40:24.57 ID:/jDgHJ6z0.net
transformer is 何?

841 :名無しさん@お腹いっぱい。 :2022/12/09(金) 19:40:56.13 ID:/UA9uRzka.net
わからない
俺たちは雰囲気で画像を生成している

842 :名無しさん@お腹いっぱい。 :2022/12/09(金) 19:51:03.07 ID:L0Sm9RnA0.net
難しいことは任せた
要約して使い方教えてくれ

843 :名無しさん@お腹いっぱい。 :2022/12/09(金) 19:52:23.84 ID:X5NH6UVf0.net
>>835
君と同じようにほとんど同じ住人だよ
エロ画像とプロンプトや版権再現は向こうっていうなんとなく区別してるだけ
隔離スレの有効利用ともいうけどな

844 :名無しさん@お腹いっぱい。 :2022/12/09(金) 20:03:52.51 ID:uNCF86Sd0.net
生成出来るパソコン持ちで1枚1円の
内職やりたい程金困ってるやつなんて
いねぇだろ

845 :名無しさん@お腹いっぱい。 :2022/12/09(金) 20:21:58.08 ID:L0Sm9RnA0.net
>>844
そりゃそうだな
割と高いおもちゃだからな

846 :名無しさん@お腹いっぱい。 :2022/12/09(金) 20:49:21.52 ID:2dxQBXB90.net
Vision Transformer入門 (Computer Vision Library)
読んでかいつまんで教えて

847 :名無しさん@お腹いっぱい。 :2022/12/09(金) 21:14:50.72 ID:LugO24Uy0.net
最近の気になる技術といえばこれ
https://github.com/cloneofsimo/lora

軽量版dreamboothみたいなもの?
本家DBと比べて学習が速く、出力物がめちゃ軽量で、品質でも上回るとかいわれてる

848 :名無しさん@お腹いっぱい。 :2022/12/09(金) 21:31:21.59 ID:hXtYx0cE0.net
>>847
うわー気になるけどDBと同一のデータセットでどういう結果を作れるかが重要だな~

849 :名無しさん@お腹いっぱい。 :2022/12/10(土) 00:15:07.16 ID:n5CDVfMP0.net
SD2.1、普通に生成すると相変わらず微妙な絵になりやすいけど
Hentai Diffusionのネガティブプロンプトを入れると高確率で萌え系になるのを発見した
もしかしてSD2もプロンプトの研究で化ける?

hatsune miku
ネガティブなし https://i.imgur.com/WRoDKRU.png
HDネガティブ https://i.imgur.com/wui1wrS.png
masterpiece, a girl, anime style, high quality, highly detailed, full body shot, hd, hq, 4k, 8k
ネガティブなし https://i.imgur.com/1fd7JPN.png
HDネガティブ https://i.imgur.com/9VyirKK.png
masterpiece, a girl, anime style, high quality, highly detailed, face, hd, hq, 4k, 8k
ネガティブなし https://i.imgur.com/xk1Xjlg.png
HDネガティブ https://i.imgur.com/tpEetOn.png
masterpiece, a girl, anime style, beautiful face, high quality, highly detailed, full body shot, hd, hq, 4k, 8k, artstation
ネガティブなし https://i.imgur.com/7KPEDUP.png
HDネガティブ https://i.imgur.com/lzyuvxK.png

850 :名無しさん@お腹いっぱい。 :2022/12/10(土) 00:15:41.55 ID:+AkehUGL0.net
そういやあ、ナタリーとかいうのはどのくらいの進捗なのか詳しい人おる?

https://github.com/Sygil-Dev/nataili

851 :名無しさん@お腹いっぱい。 :2022/12/10(土) 00:33:36.44 ID:o6m2SUXi0.net
>>849
マジかスゲェ
昨日の夜散々いじくり回して諦めたわ

852 :名無しさん@お腹いっぱい。 :2022/12/10(土) 01:00:52.44 ID:wQs3u6oT0.net
>>849
SD2.1はデモ版触っただけだけど
かなり適当なプロンプトでやったらガチャ当たりかハイレベルの二次絵が出てビビったわ
潜在能力がすごい高いイメージある

853 :名無しさん@お腹いっぱい。 :2022/12/10(土) 01:10:27.66 ID:Pmx9QPOF0.net
情報のアンテナの感度高い人すげえわ

854 :名無しさん@お腹いっぱい。 :2022/12/10(土) 02:13:49.72 ID:FQR4EU8W0.net
colabのwebuiでのトレーニング系全部エラー出るんだけど、普通に動いてる人居ます?

855 :名無しさん@お腹いっぱい。 :2022/12/10(土) 02:46:07.82 ID:NgUyceir0.net
4070のRAMは12GBになるかもだってよ
https://pbs.twimg.com/media/FjhB_SYakAAhNE3.jpg
https://twitter.com/harukaze5719/status/1601102245327929344
(deleted an unsolicited ad)

856 :名無しさん@お腹いっぱい。 :2022/12/10(土) 02:54:52.62 ID:gmc5qugr0.net
いろんな拡張機能とか触れるようになって思うんだけども
githubの連中ってなんで使い方の具体的な説明しねえ奴ばかりなの?
使ってほしいのかほしくないのかどっちなんだよ

857 :名無しさん@お腹いっぱい。 :2022/12/10(土) 03:02:10.88 ID:o6m2SUXi0.net
説明を求めるレベルのやつは相手にしとらんのやろな

858 :名無しさん@お腹いっぱい。 :2022/12/10(土) 03:23:01.89 ID:vlIFV1eE0.net
ソース嫁

859 :名無しさん@お腹いっぱい。 :2022/12/10(土) 04:46:10.65 ID:TuDVLiAl0.net
自分のために作ったのをオープンしてるだけだ

860 :名無しさん@お腹いっぱい。 :2022/12/10(土) 05:20:14.18 ID:3f5Svhqx0.net
>>856
他で開発されたものをプラグイン登録してもらってるだけなので
オープンソースの開発元の解説すら読む気のないやつには使って欲しくない時代だよ

861 :名無しさん@お腹いっぱい。 (ワッチョイ 67e6-spfw):2022/12/10(土) 07:11:22.21 ID:j0Aj6OFI0.net
導入方法まで抽象化して欲しい連中が
githubに来るなと言いたいわ

862 :名無しさん@お腹いっぱい。 :2022/12/10(土) 07:23:36.95 ID:BYBQQUSN0.net
スレチな流れかもしれんけど
でもオープンソースが世界トップを取るためには、技術者側のそういう意識の改革も要ると思うわMeituがあんだけバズってたりdreambooth叩くだけで大金せしめるビジネスとか見ると
現状SDはautomatic1111っていう一人のボランティアに依存しすぎでしょ。彼が失踪したら一瞬で廃れそう

863 :名無しさん@お腹いっぱい。 :2022/12/10(土) 07:27:24.43 ID:vlIFV1eE0.net
解説サイトや技術スレが立ち上がってるやろ?
エヴァンジェリオンって奴だ

864 :名無しさん@お腹いっぱい。 :2022/12/10(土) 07:34:43.87 ID:9KxUpIzt0.net
>>862
まぁわかる。自分のために作ったプログラム(簡単なフォーク)とかをワークフロー込で解説動画作ってアップしても(3,4万回ぐらいは再生されたが)
結局だれも使ってない(2,3人使ってくれたぐらい)経験があるからな🥺
一個のGUIプログラムとして完結させないとほとんどの人が手にとることはないのが現状なのだと思う

865 :名無しさん@お腹いっぱい。 :2022/12/10(土) 07:43:15.66 ID:BYBQQUSN0.net
>>864
解説動画まで作ってくれたら技術者としては十分すぎるくらいだし、すごく尊敬するけど
実際、特に英語圏のプログラムは余程誰でも試せる状態じゃないと情報がこっちまで回ってこないね
reddit常時眺めてるような猛者が何人いるのって話だし
個人的には是非Twitterで告知してほしい、大体の層は情報源Twitterで終わってると思う

866 :名無しさん@お腹いっぱい。 :2022/12/10(土) 07:54:51.65 ID:Yn+7mkMqM.net
そのために裁判制度がある
お気持ちを公に思う存分表明できる素晴らしい制度だ

867 :名無しさん@お腹いっぱい。 :2022/12/10(土) 08:16:12.38 ID:H+gHFmi+a.net
オープンソースって機械で言えばネジとか歯車の話でしょ(「ネジ」や「歯車」に権利があって一つの企業が独占してたら発展なんて出来ないよね)
一般人はネジや歯車なんて買わないよ

868 :名無しさん@お腹いっぱい。 :2022/12/10(土) 09:43:46.58 ID:5ok7G53Q0.net
>>847
アテンション層の重みだけ弄るってのはHNと似てるな
HNがkvだけなのに対してこっちはqkvoだから表現力は上になるのかな
ただDBみたいなオブジェクトを覚えさせると言うよりHNと同様に画風向きっぽい?
サンプルもスタイルの変更だし

869 :名無しさん@お腹いっぱい。 :2022/12/10(土) 11:55:30.70 ID:FB56fkH+0.net
>>864
流石に打率低すぎんか? あまりにもニッチすぎたんだよきっと

870 :名無しさん@お腹いっぱい。 :2022/12/10(土) 12:11:57.90 ID:8EL4NWy50.net
Unstable Diffusion、キックスターターに現る
https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd?ref=77gx3x

有料の非公開モデルかな。自由にモデルマージできないかこれじゃ

871 :名無しさん@お腹いっぱい。 :2022/12/10(土) 12:13:36.75 ID:8KDMHF0Da.net
AIイラストじゃないけどUnrealEngineやBlenderの使い方の解説を丁寧にやってたチャンネルが
再生数3桁くらいしか伸びなくて半年くらい前に更新停止しちゃったな
俺はめちゃくちゃ参考にしてたけど解説動画を見て手を動かそうと思う人って考えてる以上に少ないのかもしれない

872 :名無しさん@お腹いっぱい。 :2022/12/10(土) 12:17:50.11 ID:uG5fIDrVa.net
誤爆レベルで何の話だ

873 :名無しさん@お腹いっぱい。 :2022/12/10(土) 12:20:47.07 ID:N/gzEDw7a.net
使い方で万再生いったけど使ってるの数人って話に対してだろ
数個上のレスぐらい見ろよ

874 :名無しさん@お腹いっぱい。 :2022/12/10(土) 12:25:14.93 ID:uG5fIDrVa.net
10レスくらいまたいでんじゃねーかハゲ

875 :名無しさん@お腹いっぱい。 :2022/12/10(土) 12:50:44.73 ID:Jaf3pwa/0.net
>>870
>This model (and it's in progress checkpoints) will be given first to backers,
>and later released open source for all
って書いてあるじゃん。オープンソース(予定)でしょ
しかし人雇って人力でラベル付けするって力技だなぁ。2500万枚とか気が遠くなるな

876 :名無しさん@お腹いっぱい。 :2022/12/10(土) 13:25:31.77 ID:8EL4NWy50.net
>>875
人力ラベルかぁ。人がやるからといって精度が高いとは言えないんだよね
作業者の人選がめっちゃ大事になりそうだな

877 :名無しさん@お腹いっぱい。 :2022/12/10(土) 13:34:05.72 ID:8EL4NWy50.net
>>837
そのあたりの理解度が、描かせる絵の自由度にも影響しそうだな
今日は俺もそのあたり読むかぁ

878 :名無しさん@お腹いっぱい。 :2022/12/10(土) 13:41:53.61 ID:uG5fIDrVa.net
大事なのはDDPM(世界初のDiffusion Modelで使われたサンプラーの論文)とLDM(SDの核となっている技術)とGLIDE(Diffusion ModelををCLIPを介して動かすもの)って教えてくれた人は言ってた

DDPMはDiffusion Modelにおける世界初のサンプラーだからいちばん詳しくどのようにサンプラーが機能しているかが書いてある
LDMは多分特徴空間がどうたらこうたらを採用したDMだから大事、vaeがどのように動くかわかる
GLIDEは人の言語(t2iなど)からどのようにCLIPが機能してDMを動かしているのかわかる

だそうだ
頑張って

879 :名無しさん@お腹いっぱい。 :2022/12/10(土) 13:45:09.30 ID:uG5fIDrVa.net
GANはDMの前に流行ってた画像生成に使われてたもの
DDIMはDDPMを改良したもの
DMはLDMの前身
だからそこまで最優先で重要視するものでも無い

880 :名無しさん@お腹いっぱい。 :2022/12/10(土) 14:05:13.52 ID:Xx51Z09z0.net
金出すよりもむしろ人力ラベリングを手伝いたいくらいだな
1日100枚で100日くらいなら手伝えるぞ。俺があと2500人居ればすぐ終わるんだが

881 :名無しさん@お腹いっぱい。 :2022/12/10(土) 14:33:13.24 ID:kxWW74v6M.net
ラベリングは結構な部分を人力に頼らざる得ないんだよな
テスラもその為に1000人くらい雇ってたはず

882 :名無しさん@お腹いっぱい。 (ワッチョイ 675f-jpzT):2022/12/10(土) 14:50:16.72 ID:PJ19cZoI0.net
スコアリングのための人力点数付けはやってる
1万枚ぐらいで自分の趣味をなんとなく理解してくれるようになった気がするがとても手間

883 :名無しさん@お腹いっぱい。 (ワッチョイ bfa5-CN4g):2022/12/10(土) 15:09:09.15 ID:PqzsL1230.net
スコアリングってそういうアドオンがあるんか?

884 :名無しさん@お腹いっぱい。 (ワッチョイ 675f-jpzT):2022/12/10(土) 15:17:25.16 ID:PJ19cZoI0.net
https://github.com/grexzen/SD-Chad
これとかとしあきWikiのやつとか

885 :名無しさん@お腹いっぱい。 :2022/12/10(土) 15:34:24.10 ID:n5CDVfMP0.net
>>870
Unstable DiffusionはSDがアーティストを排除したと言ってるけど
RedditでLAION 2Bに含まれるGreg Rutkowskiの作品は26枚だけとかいう話を見たな
むしろGreg Rutkowskiにあれだけバイアスがかかってたことの方がおかしい

886 :名無しさん@お腹いっぱい。 :2022/12/10(土) 15:37:57.92 ID:5jDn5ugGa.net
別にAIは画像だけが学習元じゃないからね
「ベンドールという画家は暖色系を主に用いて女性の油絵を多数描いたことで知られる。とくに光の表現が評価が高い。」
という文章を学習していればベンドールの絵が学習画像に一枚もなくてもプロンプトでベンドールと入れると効果を持つ

887 :名無しさん@お腹いっぱい。 :2022/12/10(土) 15:46:22.23 ID:N/gzEDw7a.net
SD(とかNAI)は自動ラベリングしてるからな
何でラベリングしてるのか知らないけどCOCOみたいなのだと20万ラベルとかある。グレッグに似てるのがあったら全部グレッグよ
SDはNAIに技術提供してたっていうけどそういうラベリングも協力してたんだと思う
リークしたって聞いたときはこの事前処理が漏れてること期待したんだけどな・・・

888 :名無しさん@お腹いっぱい。 :2022/12/10(土) 15:48:38.02 ID:uG5fIDrVa.net
(deep danbooruじゃだめですかね……?)

889 :名無しさん@お腹いっぱい。 :2022/12/10(土) 17:35:21.99 ID:OVIkuSnc0.net
DBしたckptを1111に読み込ませたら
 Error verifying pickled file from ファイル名
 The file may be malicious, so the program is not going to read it.
 You can skip this check with --disable-safe-unpickle commandline argument.
って出たんだけど、なんだこれ?
今までこんなの無かったんだけどな

890 :名無しさん@お腹いっぱい。 :2022/12/10(土) 17:50:16.65 ID:uG5fIDrVa.net
それpickleに妙なこと書いてあったら出るやつ

891 :名無しさん@お腹いっぱい。 :2022/12/10(土) 17:51:36.02 ID:uG5fIDrVa.net
いわゆるウイルスckpt
なんだろDBやった事ないから知らないんだけど元になるckptにも出てるならDBするとpickleになんか書かれるのかな
識者求む

892 :名無しさん@お腹いっぱい。 :2022/12/10(土) 17:52:23.24 ID:uG5fIDrVa.net
×元になる方にも出てるなら
〇元になる方に出てないなら

893 :名無しさん@お腹いっぱい。 :2022/12/10(土) 18:10:14.61 ID:OVIkuSnc0.net
>>891
マジか、TheLastBenのFastDreamBoothが無料colabでも使えるように修正されてたから
NAIリークモデルでやっただけだわ
もちろん元のNAIモデルでも、今までのFastDB結果でもこんなのは出なかった

894 :名無しさん@お腹いっぱい。 :2022/12/10(土) 19:31:04.43 ID:Jaf3pwa/0.net
zipファイルが壊れてたりメモリ不足だったり原因が何であれロードに失敗すれば
そのメッセージは出るから何で読み込めなかったのはエラーメッセージを見るべし
本当に危ないファイルなら許可されてないモジュール名が表示される筈

895 :名無しさん@お腹いっぱい。 :2022/12/10(土) 20:22:24.34 ID:OVIkuSnc0.net
>>894
ありがとう、エラーメッセージの意味を調べてみる
参考までに、こんな感じのエラー
https://i.imgur.com/0pJxyZg.png

896 :名無しさん@お腹いっぱい。 (ワッチョイ dfbe-KKgq):2022/12/10(土) 21:18:40.55 ID:9KxUpIzt0.net
>>895
そのDBのCkpt壊れてない?試しに--disable~を起動引数でやってみそ
信用するかどうかは別だけど再DLしても駄目なら壊れてないか試してみて

897 :名無しさん@お腹いっぱい。 (ワッチョイ dfa5-u86g):2022/12/10(土) 21:22:18.80 ID:Jaf3pwa/0.net
>>895
書庫内ファイル名チェックで失敗してるみたいだけど
data.pklで止まってる事はフォルダ名がダメな可能性?二バイト文字使ってるとか?
書庫内のルートフォルダの名前をarchiveに変えたら通るかも知れない

898 :名無しさん@お腹いっぱい。 :2022/12/10(土) 22:39:49.61 ID:Xx51Z09z0.net
>>849
はーすごいな、うにょんうにょんした人体ばっかり出るからあんまり期待してなかったけど
現時点でこれだけ出せるなら2.1ベースで学習されるWaifuは結構凄い事になるのかもしれないな。期待だわ

899 :名無しさん@お腹いっぱい。 :2022/12/10(土) 23:16:18.15 ID:bbh9VXO60.net
わからん・・・設定に詳しい人いたら教えてほしい
NMKD Stable Diffusion GUIからStable Diffusion web UIに移行はなんとかできたのだが
GUIのほうで出していた絵柄がweb UIのほうで再現できなくて困惑してる
呪文の強弱やサンプラーやCFG Scaleをいじっても質感からして違うし
同じ設定にする方法を検索してもそれらしいのはない

どうしたらいいんだこれは

900 :名無しさん@お腹いっぱい。 :2022/12/10(土) 23:37:15.55 ID:LyN4+DKi0.net
>>899
あとはCLIPかな

901 :名無しさん@お腹いっぱい。 :2022/12/10(土) 23:43:51.65 ID:+AkehUGL0.net
>>899
手元で普通に同じ生成得られているから、どういう画像をどういう生成でプロンプトはどうとか書いてくれないとわからんかも

902 :名無しさん@お腹いっぱい。 :2022/12/11(日) 01:45:51.08 ID:cQNkBJdb0.net
>>900
img2imgのCLIP interrogatorのことなら触ってないです

ん〜〜原因を探ってる
呪文同じ、シード Step CFGスケール同じ 解像度同じ modelはwd-v1-3-full
web UIの設定タブはデフォルトのままで問題ないはず
作品はシード同じだから雰囲気似た感じの別人が出てくる。服装も腕の位置も別物

サンプリングアルゴリズムはweb UIがDDIM
GUIのほうはexifデータ見ると -Addimって出てるからDDIMと違うのか?これは

使ってるグラボが4Gなので、GUIのほうがLow Memory Modeだからダメなのか

なんかweb UIの起動画面見たらモジュールがないらしい、これ必要な奴だろうか

Launching Web UI with arguments:
No module 'xformers'. Proceeding without it.
LatentDiffusion: Running in eps-prediction mode

軽くググったけど解決してない例しか出てこなかった
知らない用語だらけで読むのがムズイ

903 :899 :2022/12/11(日) 01:47:28.69 ID:cQNkBJdb0.net
>>901
設定は特にいじってない感じですか?

904 :899 :2022/12/11(日) 01:56:40.93 ID:cQNkBJdb0.net
>>902
>使ってるグラボが4Gなので、GUIのほうがLow Memory Modeだからダメなのか
補足。低メモリだと機能しないexclusion words は呪文から消した

寝る!

905 :dd :2022/12/11(日) 03:49:45.91 ID:tMRnLmhg0.net
テスト書き込み

906 :dd :2022/12/11(日) 03:51:39.04 ID:tMRnLmhg0.net
https://imgur.com/zFYIvJO.jpg

Meituでボタン一発で
スゲーイラストができてビックリ
でもよく見たらリボンが後頭部に繋がってて草

907 :ddd :2022/12/11(日) 03:55:38.42 ID:tMRnLmhg0.net
スレ間違えたか
なんか技術的なレス多いね
場違いだったスマン

908 :名無しさん@お腹いっぱい。 :2022/12/11(日) 06:13:36.66 ID:nN2eGObJa.net
>>902
NMKDの方の画像をPNG infoにでも突っ込んで運良く設定が埋まってたら真似しよう
ちなみにそこでのCLIPというのはClip Skipという項目のことか、最近話題になったsd_hijack.pyの書き換えで別のCLIPを使うやつのことだと思う

あとはEta Noiseという項目が怪しい
31337だっけNovelAIのエミュレートの時に使うやつって
あれがNMKD GUIでデフォルトで設定されてたりとかないかな

909 :名無しさん@お腹いっぱい。 :2022/12/11(日) 06:33:56.47 ID:QRNNvM1M0.net
>>906
ええやん、なんか味があるね

910 :名無しさん@お腹いっぱい。 :2022/12/11(日) 09:09:08.80 ID:qAF6PGCJ0.net
>>903
特にいじってなかったはず

automatic1111のsettingにある、eta (noise multiplier) for DDIMの値が0じゃないとかかな?
とりあえず、ごく単純なプロンプトで比較生成してみたらどうか
negativeや強調も無しで photo of a girl ぐらいのを

911 :名無しさん@お腹いっぱい。 :2022/12/11(日) 11:20:50.83 ID:LqCSeivU0.net
>>896
>>897
情報ありがとう
別のモデルでDBしたりもしてみたけど、同じエラーが出たからDL失敗とかでは無さそう
--disableで起動して使ってみたら、ちゃんと学習成功してた
FastDreamBoothがいまさら何か仕込んでるとも思いにくいし、
そのうち更新されて解消するの待ちかな

912 :名無しさん@お腹いっぱい。 :2022/12/11(日) 11:26:47.18 ID:dD7TkWyl0.net
>>902
一応言い切れる事と言えばNMKDよりAUTOMATIC1111のほうが圧倒的に設定項目が多く、NMKDの設定をAUTOMATIC1111で再現することは出来ても逆は出来ない、はず

あと1111の設定でCLIPって言われたらそれは設定にある
Stop At last layer of CLIP model
のことだと思う
通常は1だけどNAIとかNAI派生モデルの場合は2のほうは正確な描写になる可能性が高い

913 :名無しさん@お腹いっぱい。 :2022/12/11(日) 13:21:41.52 ID:LGG8OOJz0.net
2,3日前からstabl diffusionをgoogle colabde上でトレーニングを使おうとすると
RuntimeError: indices should be either on cpu or on the same device as the indexed tensor (cpu)
がでてトレーニングができないのですが、誰か解決方法を知っている人いますか?

914 :名無しさん@お腹いっぱい。 :2022/12/11(日) 14:25:08.37 ID:UrgBltFj0.net
絵描きなんだけど、構図の案だしとか、完成した絵をAIで添削してもらったりして画力上げる参考にしたい。
novelもニジジャーニーもmeituも、そこら辺は一通りできてどれ選んでも遜色ない感じですか?

915 :名無しさん@お腹いっぱい。 :2022/12/11(日) 14:35:45.54 ID:zHYZUCfT0.net
デザインや塗りなんかは参考になるけど構図はたいしたもの出てこなくて参考にならん印象
というか構図はまずフレームがあってその上に成り立つもんだけど学習段階で正方形にトリミングされるからそもそも構図を正しく学習できてない気がする

916 :名無しさん@お腹いっぱい。 :2022/12/11(日) 15:03:19.33 ID:Ud/URT2L0.net
全部試したわけじゃないから比較はできんけど、絵描きはAIを上手く使えば結構遊べる
面倒な背景とか絵の色調に合わせて出してくれるのも便利だわ

917 :名無しさん@お腹いっぱい。 :2022/12/11(日) 17:33:16.36 ID:1JfVql0ka.net
>>914
AIは現状では添削には使えない
i2iをやると細部が溶けたり手足が奇形化する

918 :名無しさん@お腹いっぱい。 :2022/12/11(日) 18:02:55.82 ID:Ig8PAyJ+0.net
たいした構図が出ないと言う意見が言えるのは、相当ハイレベルな絵描きか、もしくはまるでAIを使いこなせていないかのどちらかだな
プロンプト次第では最大公約数的に『良し』とされる構図をたくさん排出出来る
一般的な絵師が参考にするのであれば充分なクオリティだと思うよ

919 :名無しさん@お腹いっぱい。 :2022/12/11(日) 18:47:00.06 ID:sBCL8F0H0.net
ヘタクソな絵でも複雑なデザインを保ちつつ綺麗にできるか独自に調査した結果
強度0.3前後で何度もi2iを繰り返せば多少はマシな絵になる事が判明した
単純なデザインなら0.6前後でも読み取ってくれる
構図が壊滅的にダメでなければ体型も多少は補正してくれる
ただし近似色は融合するので濃淡をはっきりさせないといけない
指は0.2ぐらいじゃないとダメっぽい

920 :名無しさん@お腹いっぱい。 (ワッチョイ dfa7-u86g):2022/12/11(日) 20:04:41.15 ID:uMqMS7Zl0.net
返信ありがとう

>>908
合わせられる数字は合わせてみたけど同じ絵にはならなかった
>Eta Noise
いくつか試してみたけど絵柄レベルでは合わなかった。数字にキリがないので一旦保留する

>>910
>eta (noise multiplier) for DDIM
config.jsonを削除してデフォでゼロだった。

>ごく単純なプロンプト photo of a girl
途中から呪文は最低限で試してるけど進展なしでした

>>912
>Stop At last layer of CLIP model
設定下のほうの、「Clip skip」を触ったら「1 settings changed: CLIP_stop_at_last_layers.」
って出たからこれかな。
デフォの1が一番NMKDに近かったです


NMKDのほうの設定「Use Full Precision」、GTX16xxの修正目的の欄のチェックを外して
別のグラボで試したら同じ呪文、同じシードでも別画像になるのが分かった
見た感じ絵柄は同じなので内部的にシードが違っているのか、Sampling methodが多少変わったかだと思う
なお、webUIに近い画像が出るのはGTX16xx設定した時のほうだった

現状手詰まりなので、とりあえずNMKDで続行しつつ、webUIで別に呪文を研究して
暇なときに全部再インストールしてやり直してみるとする

以上!

921 :名無しさん@お腹いっぱい。 (アウアウウー Sa6b-BaBv):2022/12/11(日) 20:16:04.20 ID:exfoNnj+a.net


922 :名無しさん@お腹いっぱい。 :2022/12/11(日) 23:03:51.62 ID:nNF8jIoY0.net
GeForce GTX 16xxは半精度浮動小数点数(FP16)をサポートしてないとかで
問題が起こりやすいからトラブルシューティングにまとめられてるよ
1111版WebUIはデフォルトがFP16で、--no-halfオプションを使うとFP32になる
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Troubleshooting

そもそも別ソフトだと処理の違いで同じ設定でもまったく同じ絵にはならないし
FP16とFP32でも絵が変わる。1111版WebUI自体もアップデートを繰り返すうちに結構変わってる
Waifu Diffusion v1.2が出たばかりのこれとか、今生成すると別物になる
https://twitter.com/InwerwmA/status/1571018804242808833
https://i.imgur.com/2H5LWJe.png
(deleted an unsolicited ad)

923 :名無しさん@お腹いっぱい。 :2022/12/11(日) 23:24:57.09 ID:stueLxgN0.net
昔euler aのバッチだと再現性がないって話が出てきたときに
他のサンプラーとて1111のverが変われば結局再現性はないという結論になってたな

924 :名無しさん@お腹いっぱい。 :2022/12/11(日) 23:45:08.79 ID:y/v2/uBf0.net
>>922
自分もそういう認識だったけど、
試しにno-halfつけて生成してみたらつけない時と同じ絵が出てきたので混乱してる

>>923
昔は75トークンの制限解除まわりで二転三転してたり、
1111の更新で生成の仕様が変わる理由があったけど、最近はそうでもなくない?

925 :名無しさん@お腹いっぱい。 :2022/12/11(日) 23:49:28.10 ID:vIb0fQtKa.net
10月ぐらいからは生成結果が変わるような変更入る場合はオプション用意されてるだろ
ただメタデータに設定が保存されてないから再現するのが困難になってる
ま、再現考えてるならgit pullのたびに111のフォルダとpip listを残して1111をbatで起動しなければいいだけ

926 :名無しさん@お腹いっぱい。 :2022/12/12(月) 00:34:31.46 ID:o10qa92U0.net
9月末にはAUTOMATIC1111の生成データもメタデータ入ってるからNAI以降の人は保存されてると思う
あの頃とはCLIPやらデノイズやらいろいろ設定増えて普段使いはだいぶ変わってるからねぇ
textでこんなロボも
https://i.imgur.com/cpqRsS2.png
i2iでアウトペインティングガチャすると予想外のもの描いてくれたけど今はおとなしくなってしまってさみしいな
行儀よく真面目なんてできないAIに感動してたのに
https://i.imgur.com/2t8Boif.jpg

927 :名無しさん@お腹いっぱい。 :2022/12/12(月) 00:52:56.95 ID:c6Fy3qpba.net
メタデータに設定が保存されてないってのは、メタデータに全パラメーター保存されてるわけじゃないって意味
バッチだと再現性がないって話も、その時のバッチサイズと開始シードまで設定として残したら再現できるみたいな

928 :名無しさん@お腹いっぱい。 :2022/12/12(月) 00:53:54.79 ID:jIUWRKVD0.net
>>924
モデルデータがpruneでFP16になってるんじゃない?
wd-v1-2-full-ema.ckptなら若干絵が変わる

デフォルト https://i.imgur.com/2H5LWJe.png
--no-half https://i.imgur.com/6hdfHOZ.png

929 :名無しさん@お腹いっぱい。 :2022/12/12(月) 01:37:20.90 ID:D+Qohspq0.net
>>928
final-prunedだけど、あれってfp32だったような?

930 :名無しさん@お腹いっぱい。 :2022/12/12(月) 01:52:07.61 ID:jIUWRKVD0.net
>>929
FP16 pruneツールにかけるとエラーが出て失敗するからFP16だと思う
つうか、フォルダー名からしてprune済みじゃんw

931 :名無しさん@お腹いっぱい。 :2022/12/12(月) 02:51:44.14 ID:OXjM3D5l0.net
prunedでも4GBあるならfp32だぞ。ファイル名にprunedって付いてても、
単に不要なデータを削除しただけの場合(レアケース?出力は変わらない筈)や
emaの値で上書き済みだったり(大体コレ)半精度化されてたり(そこそこある)でややこしい

932 :名無しさん@お腹いっぱい。 :2022/12/12(月) 03:08:32.51 ID:D+Qohspq0.net
Anyv3のprunedがfp32で4GB、fp16で2GBだから、
final-prunedも4GBなのでfp32かなと思ってるけど実際はわからん。
マージする時にfloat16押すと2GBになるけどそれは傍証にならんか?

933 :名無しさん@お腹いっぱい。 :2022/12/12(月) 09:23:40.82 ID:ScIxrjGBd.net
>>918
ありがとうございます。
どの画像生成AIも変わりませんか?
個人的にニジジャーニーが気になってます。

934 :名無しさん@お腹いっぱい。 :2022/12/12(月) 11:47:59.95 ID:S8YAx9ml0.net
車屋に行って、どれでも変わりませんかって聞くぐらい愚かな質問。
得意とする分野や画風があるから、
サンプル見ながら比較しろ

935 :名無しさん@お腹いっぱい。 :2022/12/12(月) 11:50:29.92 ID:1DRO0WWu0.net
多少のプロンプトの理解力の差はあれ、どうせ良い構図が出るまでガチャるんだから
最終判断は人間だし、どれが良いですかってのもないんじゃない。

936 :名無しさん@お腹いっぱい。 :2022/12/12(月) 12:17:39.55 ID:mQfy4Ak0a.net
初心者向け簡単説明拾ったので貼っとくね

https://i.imgur.com/wjG9aV4.jpg

937 :名無しさん@お腹いっぱい。 :2022/12/12(月) 12:48:56.91 ID:699LnEINp.net
>>936
AIの考えたリンゴがコピーだって言われそう

938 :名無しさん@お腹いっぱい。 :2022/12/12(月) 12:56:51.22 ID:DPNCF+OV0.net
>>936
分かりやすい
レオナルド・ダ・ビンチが壁のしみから絵を想起した話があるけど
ノイズを与えられて絵を生み出す部分は作成法が少し似てる気もした

939 :名無しさん@お腹いっぱい。 :2022/12/12(月) 12:57:58.88 ID:Y5UNDqN3r.net
人間が頭で描いた完成図であっても、「リスペクト」とか「パクリ」とか状況で変わるけど、
AIの場合は「結局は電子データ(具体的なデータ)を参考にしてるんでしょ?」
っていう永久ループの論争不可避だろうからな……

940 :名無しさん@お腹いっぱい。 :2022/12/12(月) 13:29:57.86 ID:dfaXlA1U0.net
圧縮や暗号化されたデータはオリジナルを元にはしているけど意味のわからないデータになってるから
何らかのキーを与えたりして解凍や復号でこねこねしたら、その生成物はみんなワイのもんや
ただしそれを自分のものとして公開すると何らかの法律にひっかかる可能性はあるって、子供向けなら注釈はいれといてほしいな

941 :名無しさん@お腹いっぱい。 :2022/12/12(月) 13:36:36.77 ID:AACh2cLa0.net
学習元が特定できるレベルで露骨にコピーして出力されるケースも報告されてるけどね

942 :名無しさん@お腹いっぱい。 :2022/12/12(月) 13:36:53.35 ID:KJEhmQ37a.net
>>936
明らかにAI賛成側に偏った人が描いてるから
その真逆でAI反対派に偏った人のこういうのを見てみたいね

どちらも技術的知識という背景を持った上での

943 :名無しさん@お腹いっぱい。 :2022/12/12(月) 13:40:41.69 ID:uRyChprRa.net
>>941
古塔罪だな

944 :名無しさん@お腹いっぱい。 :2022/12/12(月) 14:00:24.09 ID:k313VnTD0.net
技術系の質問いいですか?
DBやHNが学習画像のサイズ512x512推奨なのってどういう理由なのでしょうか。
単にデカい画像だとその分VRAM食うとかで、余裕があるなら画像サイズは正方形以外でも自由に設定してもいいんでしょうか?

945 :名無しさん@お腹いっぱい。 :2022/12/12(月) 14:03:54.48 ID:njpu+iyf0.net
>>933
エロいらないなら2Dはニジジャーニーが頭一つ出てる印象はあるけど、それはあくまでも塗りや雰囲気も含めてなので構図まではなんとも評価出来ないかな
このスレ含めてほとんどのAIお絵描きスレはエロ無しは不人気なのさ
ニジジャーニーみたいな表のAIはTwitterのほうが情報が多いかもね

946 :名無しさん@お腹いっぱい。 :2022/12/12(月) 14:35:11.03 ID:cKzPmOPza.net
そもそも鬼滅の刃を読んだ人間の脳みその中身をくまなくスキャンしたとしても鬼滅の刃の画像は出てこないだろうな
でも炭治郎の絵を描くことができる
AIだって同じだよ

947 :名無しさん@お腹いっぱい。 :2022/12/12(月) 14:38:54.68 ID:1DRO0WWu0.net
>>944
なるべく32の倍数にしたほうがメモリの負担が軽いから。
まあメモリに余裕あるなら可能な範囲で例えば1024x768とかでやるといいんじゃないかな

948 :名無しさん@お腹いっぱい。 :2022/12/12(月) 14:46:38.22 ID:xzeX5Nf70.net
>>942
こういうのは?
AI反対派というわけでもないし簡潔でもないけど、どちらにも偏ってはいないと思う
https://www.youtube.com/watch?v=aNdb_RUxtOM&list=WL&index=8

949 :名無しさん@お腹いっぱい。 :2022/12/12(月) 15:34:20.65 ID:TemOADz60.net
そういう技術外の話が好きな人は、こっちへどうぞだ

【Midjourney】AI関連総合23【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1670061516/

950 :名無しさん@お腹いっぱい。 :2022/12/12(月) 15:37:36.11 ID:P+Vk7Oa2M.net
どんなに複雑なデジタルタトゥー施しても一回印刷してスキャナー取り込みしたら終わりじゃないのかな
今でさえ簡単にPNG情報消えちまうのに

951 :名無しさん@お腹いっぱい。 :2022/12/12(月) 15:52:24.21 ID:c6Fy3qpba.net
スクリーンショット撮っただけで消えるなんちゃって透かしもあれば
スクショぐらいじゃ消せないけど、画像縮小やカメラやスキャナ通したら読み取れなくなる透かしもあれば
スキャナ、カメラや多少のピンボケでも残る透かしもあるよ

952 :名無しさん@お腹いっぱい。 :2022/12/12(月) 15:56:40.05 ID:RC4E6V+V0.net
TI学習時の画像みたいにベクトルで再構築されたら流石に消えるかデータ破損しそうだなぁ

953 :名無しさん@お腹いっぱい。 :2022/12/12(月) 16:07:40.05 ID:KJEhmQ37a.net
つまりスクショ撮ってi2iなり適当なwatermark removerなりでしまいよ
雑魚が

954 :名無しさん@お腹いっぱい。 :2022/12/12(月) 16:08:19.18 ID:KJEhmQ37a.net
スクショ撮っても残るRGB以外の情報なんか無いだろうし

955 :名無しさん@お腹いっぱい。 :2022/12/12(月) 16:11:09.32 ID:f4lsQFfa0.net
>>941
再現データが公開されてない上にi2iじゃないと再現性が確認できないデマだったけどにゃー

956 :名無しさん@お腹いっぱい。 :2022/12/12(月) 16:19:53.64 ID:KJEhmQ37a.net
へー
abstractしか読んでなかったけどこれ?
https://arxiv.org/abs/2212.03860

957 :名無しさん@お腹いっぱい。 :2022/12/12(月) 17:44:01.31 ID:10q/0PDka.net
ちょっと過学習気味になったかな?微調整して…というのを繰り返してるうちに自分の中の目標の絵柄が迷子になる事が多い
モニターとかソフトのリセットみたいに人間側の認識のリセットボタンが欲しい

958 :名無しさん@お腹いっぱい。 :2022/12/12(月) 17:48:15.63 ID:qELSaCSD0.net
NHKやってんぞ

959 :名無しさん@お腹いっぱい。 :2022/12/12(月) 17:50:06.16 ID:qELSaCSD0.net
終わったぞ

960 :名無しさん@お腹いっぱい。 :2022/12/12(月) 18:35:19.47 ID:gXOAWN0V0.net
>>956
ざっと翻訳サイトにかけて読んだ感じ
選別した高クオリティのサブセットで調整してるから
その過学習が出るって感じか?
流石にちゃんとした専門家の意見が欲しい

961 :名無しさん@お腹いっぱい。 :2022/12/12(月) 18:40:02.82 ID:f4lsQFfa0.net
TIとか小規模なやつだと起きるケースはありそう

962 :名無しさん@お腹いっぱい。 :2022/12/12(月) 18:48:16.01 ID:DPNCF+OV0.net
>>958
NHKは割とAIのニュースやるね
ヨミコとかAI音声でニュース読ませたりもしてるし

963 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:03:42.83 ID:c6Fy3qpba.net
劣化トレース一発で出て笑った

論文のプロンプト使ってsd1.5で生成
https://i.imgur.com/h8XrwCx.png
ぐぐって出たやつ
https://i.imgur.com/ZwvR51D.png

964 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:30:22.84 ID:BRPKq2K2a.net
>>963
プロンプト教えてくれ
俺もやってみるわ

965 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:40:34.58 ID:aAWuh7cqa.net
>>963

こういうのをMembership Inference AttackだとかなんとかInversionとかって論文に書いてたっけ
面白いよな

966 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:42:32.90 ID:aAWuh7cqa.net
推論攻撃とかでググれば日本語でもその例みたいなの出てくる
推論攻撃
かっこいい

967 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:48:07.98 ID:ISxy2Siu0.net
>>963
textとseedだけでコレ出たら、さすがにこれを商用で使ったら大問題だなぁ……

968 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:49:07.78 ID:1DRO0WWu0.net
まあムンクが出たのは見たから完全にありえないとはいえないな

969 :名無しさん@お腹いっぱい。 :2022/12/12(月) 19:53:17.99 ID:c6Fy3qpba.net
>>964
>>956のpdf開けばいくつか載ってる

970 :名無しさん@お腹いっぱい。 :2022/12/12(月) 20:07:18.88 ID:IZoML+Fwa.net
>>963
完全にアウトやろこれ

971 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:11:21.79 ID:GL11S4Tka.net
ブラッドボーンってプロンプトに入れたらブラッドボーンの画像出てくるのは当たり前じゃね
例えばエッフェル塔って入れて架空のエッフェル塔によく似た建物出されても困るだろ

972 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:24:41.92 ID:lkXcbUfZd.net
>>963
LAION-5Bに含まれるデータを「Blood borne」というテキストで検索してみたけどこの構図の画像がたくさんでてきたw
まあ学習データが偏っていれば生成物も当然偏るよな

973 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:25:48.38 ID:TemOADz60.net
アポロ計画の画像生成やると見たことある写真みたいなのばっか出てくるのと同じじゃねえの?

974 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:30:19.27 ID:0LCpuJMca.net
>>971
そうなんだけど背景から構図まで丸ごとコピペになってるのが問題
よく「AIはコピペしてるんじゃない。特徴を学習してるだけ」っていわれてるけど、特徴どころか全部覚えちゃってる

975 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:34:22.75 ID:f4lsQFfa0.net
さすがにこれはアウトだぬー

976 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:37:11.31 ID:lkXcbUfZd.net
まあ人間だって意図せずとも丸パクしてしまうこともあるしな
パクらないように気をつけるという人間的な仕組みがないAIなら尚更パクリがちなのではないだろうかと思う
特に「1枚だけ有名な画像がある」とかそういうコンテンツは
AI画像を表に出したいならその前にGoogle画像検索は必須かもね
かなりパクリを気をつけてる人は手描きの絵でもそうするみたいだけど

977 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:45:02.56 ID:RC4E6V+V0.net
この場合は「知らなかった、AIが勝手にやった」が通らないからまだいいけどね

978 :名無しさん@お腹いっぱい。 :2022/12/12(月) 21:48:22.73 ID:TAvkr8kf0.net
これってプロンプトに紐付いてる学習要素が限定的過ぎるって事なんかな? 新旧拡散モデル論文目は通したけど難し過ぎて目が滑りまくって全く理解出来なかったからバイアス掛かってない説明見たい

979 :名無しさん@お腹いっぱい。 (アウアウウー Sa6b-Eu4/):2022/12/12(月) 22:03:26.48 ID:D5I+1AOVa.net
あー、でもiPhone Case、Galaxy caseはやべーな
seed変えても構図が3パターンくらいしかないぞw

980 :名無しさん@お腹いっぱい。 :2022/12/12(月) 23:28:33.39 ID:onDXedDY0.net
AMD Radeon RX 7900 XTX Radeon RX 7900 XT レビュー
https://www.4gamer.net/games/660/G066019/20221212075/

AMDが想定する税込の国内販売価格は,RX 7900 XTXが17万9800円前後で,RX 7900 XTが15万9800円前後となっている。
RTX 4080搭載カードが,税込実勢価格20~23万円で販売されているのに比べると,RX 7900 XTXはそれより2~5万円ほども安く,RX 7900 XTに至っては,4~7万円ほど差が開いている。
RX 7900シリーズのお買い得感はかなり高い。

981 :名無しさん@お腹いっぱい。 :2022/12/12(月) 23:32:42.32 ID:wvskn1WZ0.net
ここでは今のところお呼びでないのがなあ

982 :名無しさん@お腹いっぱい。 (ワッチョイ 7f10-rh2/):2022/12/13(火) 00:03:06.54 ID:u8apcbES0.net
Radeonいろいろ弄り回して生成できても学習できないし

983 :名無しさん@お腹いっぱい。 :2022/12/13(火) 01:37:53.24 ID:ysLnNLCV0.net
AMDさん次世代GPUはSDに最適化よろしく

984 :名無しさん@お腹いっぱい。 :2022/12/13(火) 01:40:09.97 ID:cf+JQSkZ0.net
AMD「CUDA実装します」

これで頼む
全てが解決する

985 :名無しさん@お腹いっぱい。 :2022/12/13(火) 02:09:36.96 ID:BW5+jjp00.net
ああ、CUDAをOPEN CLに変換するレイヤーとかあれば解決・・・いや、パフォーマンス出るかどうか怪しいな。

986 :名無しさん@お腹いっぱい。 :2022/12/13(火) 02:24:18.15 ID:b2/BGl3B0.net
用途不明のAIチップが搭載されているらしいがAMDだし期待度はないな……

987 :名無しさん@お腹いっぱい。 :2022/12/13(火) 03:24:03.81 ID:5AI2oR7J0.net
>>931-932
すまん、NAIのckpt解析したらFP32で合ってた

デフォルトと--no-halfでNAI、FP32、FP16と色々試したけど
うちはどのモデルを使っても絵が変わる。環境によって違うとか?う~ん、謎

988 :名無しさん@お腹いっぱい。 :2022/12/13(火) 04:04:50.98 ID:B5L3sz6n0.net
>>987
Euler aとかxformers使ったら微妙に変わるんだけど、
DDIMとかでxformersオフでfp32モデルを--no-halfアリとナシでやっても変わらんのよね
GPUは2070

989 :名無しさん@お腹いっぱい。 :2022/12/13(火) 05:58:49.18 ID:xVWV/+YJ0.net
xformersとFP16とvae使ってなければ基本的にはFP32だけになるのでその場合--no-halfはいらんけどな
環境やほかのオプションやプラグイン等何かのバグでエラーが起きて黒画面になるのを回避できる程度の役割しかないけど
この時間頭がまだ頭が起きてないのでその半精度から解説するにはかなりの長文になったので省くけど(笑)

990 :名無しさん@お腹いっぱい。 :2022/12/13(火) 07:32:33.44 ID:oPffJmvZ0.net
>>983
オープンソースだからAMDがAMD対応のコードを開発して追加すればよいはずか

991 :名無しさん@お腹いっぱい。 :2022/12/13(火) 08:23:43.17 ID:LicY4zh1d.net
>>985
オロチ、あるよ
https://gpuopen.com/orochi/
Orochiライブラリは、HIPとCUDA®のAPIを動的にロードし、実行時に切り替えて使用することができます。Orochiは、1つの体に8つの頭と8つの尾を持つ伝説的な日本の龍にちなんで名付けられました。その名前にふさわしく、Orochiは1つのライブラリで複数のバックエンドを実行時に使用することを可能にします。

992 :名無しさん@お腹いっぱい。 :2022/12/13(火) 09:01:01.16 ID:Ucn0Fo280.net
>>990
AMDはドライバ関連やチューニングもオープンソースで丸投げしてたような…

993 :名無しさん@お腹いっぱい。 :2022/12/13(火) 09:14:49.76 ID:oPffJmvZ0.net
NVIDIAが主導権握るの上手いということでもあるけれど、個人が高性能PC買う時にはAIに何かさせるのを気にする時代だから、
AMDもそこを頑張らないといかんという意識はあるでしょう。頑張って欲しい

994 :名無しさん@お腹いっぱい。 :2022/12/13(火) 09:16:24.50 ID:KPgJ3vRr0.net
遊んでるレイトレコアも使って欲しい、なんか利用出来るところないのかな

995 :名無しさん@お腹いっぱい。 :2022/12/13(火) 09:17:26.86 ID:8hPMeHRBa.net
NVIDIAに今更パワーみたいな同じ方向で追いつけるか?
廉価版だからユーザーついたんじゃないの
そこ放ったらかしにして変な方進んだら次こそ死ぬんじゃない

996 :名無しさん@お腹いっぱい。 :2022/12/13(火) 09:21:56.46 ID:6jBibpn+0.net
こういう場に居たりするとAI方面が重要となるけど
一般的にはゲーム関係のほうが重要度は遥かに強いだろうからなあ

997 :名無しさん@お腹いっぱい。 :2022/12/13(火) 09:29:30.13 ID:oPffJmvZ0.net
>>996
>>995
の言うようにゲーム用途ならミドルレンジから下で済む時代になっていると思う。
あえてハイエンドを買う人達は何を欲するか

998 :名無しさん@お腹いっぱい。 :2022/12/13(火) 10:45:01.48 ID:+WPoeIPla.net
20年前のゲーマー「VRAM40MB揃えたぞ!」
20年前のゲームメーカー「よっしゃ、60MB使うゲーム出すで!」

現代のゲーマー「VRAM32GB揃えたぞ!」
現代のゲームメーカー「よっしゃ、40GB使うゲーム出すで!」

999 :名無しさん@お腹いっぱい。 :2022/12/13(火) 10:48:25.54 ID:XYScPyQXa.net
>>974
人間の意図する特徴が必ずしもAIの認識する特徴ではないってこと

DreamBoothでメタバース画像30枚ほどぶっ込んだらキャラを認識する前に背景を認識して紐付けしちゃったことがあった

色合いやら構図を特徴だと認識することもある

1000 :名無しさん@お腹いっぱい。 :2022/12/13(火) 10:53:21.87 ID:XesJ3Cs8M.net
学習素材が少ないと構図とかもまとめて物体って認識するんじゃないの

1001 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 1001
247 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200