2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

【StableDiffusion】AI動画生成スレ1

1 :名無しさん@お腹いっぱい。:2023/04/25(火) 17:47:32.98 ID:V5JBD3KF.net
AIで【動画】を生成するスレです。以下は全て可とします。

・ゼロから動画を作る技術
・既存動画をAIで加工する技術
・全フレームi2iする技術
・節度あるアダルトの話題
・webUI、単体サービス問わず
・著作権についての適度な話題
・新しいニュース等の貼り付け

動画生成はまだ始まったばかりですので流行りや方向性は定まっていません。
情報を集めて良い動画制作を目指しましょう。

2 :名無しさん@お腹いっぱい。:2023/04/25(火) 17:51:12.66 ID:V5JBD3KF.net
Text to Video
https://huggingface.co/models?pipeline_tag=text-to-video

AIサービス
https://research.runwayml.com/gen2
https://wonderdynamics.com/
https://www.adobe.com/sensei/generative-ai/firefly.html

3 :名無しさん@お腹いっぱい。:2023/04/28(金) 15:14:15.99 ID:8cXABFWU.net
試しに作ったけど難しい
生成に時間かかるし単体画像のように気軽に何個も作れないのがね
i2iと外部ツール使用

https://i.imgur.com/CSvVb0Z.gifv
https://i.imgur.com/e0EDg9q.gifv

4 :名無しさん@お腹いっぱい。:2023/04/28(金) 16:47:13.19 ID:KGqMrwec.net
https://i.imgur.com/iMflO36.jpg

5 :名無しさん@お腹いっぱい。:2023/04/29(土) 07:23:52.38 ID:Y94QP80p.net
gif2gifとかmov2movとか試してみたけどうしても顔が安定せんよな。Twitterでバズったやつも元動画と輪郭変えないようにして安定させてるだけだし応用は効かない。

6 :名無しさん@お腹いっぱい。:2023/04/29(土) 09:41:09.01 ID:mhsRs6ry.net
gen-2かnvidiaのやつ待ちだな

7 :名無しさん@お腹いっぱい。:2023/04/29(土) 11:08:07.35 ID:1SYFty31.net
>>5
ただの劣化コピー機だからなぁ
オリジナルがあるのに悪くなっても仕方ないだろうという…
SD使ってる限りは1枚ずつ生成になるから、前後のフレーム関係維持できないしね
顔だけならLoRAで固める手もあるが、フレームごとにブレてしまうようなものを補正しない限り
30年前のいろんな作者に描かせた絵をGIFのように並べてCM作っていた程度の事にしかならない

8 :名無しさん@お腹いっぱい。:2023/04/29(土) 13:11:50.94 ID:K4FfKEPj.net
wonder studio使えたけどマジで凄かった
10数秒でエンコードは80分かかったけど違和感ない
3Dモデルが色々用意出来ればかなり楽しい事が出来る

9 :名無しさん@お腹いっぱい。:2023/05/06(土) 04:22:53.01 ID:blVCkIOB.net
サンイチ!

マルチGPUで学習しとるニキおらんか?
NCCLとかがないって怒られるんやがこれWindowsでは無理なやつか?

10 :名無しさん@お腹いっぱい。:2023/05/06(土) 04:38:56.76 ID:blVCkIOB.net
すまない、誤爆した

11 :名無しさん@お腹いっぱい。:2023/05/06(土) 11:59:02.24 ID:RoC6YJP6.net
誘導されてきましたDeforum部の者です、よろしゅう。
挨拶だけなのもアレなので、いまのAI動画に関する自分の認識。めちゃ偏ってるし知識不足だと思うから、そのつもりで。

・Deforum
 SD初期からあるAI動画機能。T2V、V2Vでの作成が可能で、CNとの連携も有り。
 今も活発にアップデートされてる。
 T2Vでの作り方は、制御系とかやってるプログラマーの人は理解しやすいと思う。

・外部ツールでのビデオ作製を利用したV2V
 3Dモデルを動かして動画化、それをさらにCN等で変換して動画化する手法。
 手間ではあるが、人体を安定してアニメーションできるのが強い。
 広範囲の技術と知識が必要だけど、当面の主流はこっちになる気がしてる。
 (というか、MMD動画関係の人が流れてきたら本当に化けるかも)

・Text2Video
 SDの追加機能の一つ。短時間かつ小さいサイズだが、連続性のある動画が作れる、らしい。
 将来、VGA性能が大きく向上したら化けると、個人的には思ってます。

・外部サービスによるAI動画作成
 AI淫夢動画でお馴染み。ツール使ってないので詳細不明。
 基本的にはV2Vなのかな。

12 :名無しさん@お腹いっぱい。:2023/05/06(土) 16:57:31.65 ID:Xqk6wNej.net
3DモデルのV2Vについては結局モーションの問題がつきまとうわね
AIの発展に比して3Dモーションの数とバリエーションはあまりに少なく高い

13 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:16:17.77 ID:rTBrfpSU.net
GW最終日、自分でも少しラインでダンスした感があるので、戒めも込めて。
ただのチラ裏お気持ち表明なので、スルーでおけ。

AIエロ動画作成時の注意点

1.静止画で出るなら動画でもできる。程度はともかく。
2.ライン越えのロリ・グロ・ケモ、どれもモデルとLora次第で作れる。品質はともかく。
3.ゆえに作った時点でSAN値吹っ飛ばしていると認識すること。
4.エロ作品を掲示板等でオープンにする場合、性器モザイク・パスワードはかならずかける。
5.加えて、時限式のあぷろだを使って、むやみに無制限公開しない。
6.使うあぷろだも、念のため、エロ動画アップしても問題なさそうなところを選ぶ。
7.警戒しすぎかもだが、動画は作品の破壊力がハンパなくなるので、今はオーバーなくらいでいい。

14 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:18:07.01 ID:X3rfiXyn.net
モザはどこでもしっかりやるべきやけどロリとかグロとか版権じゃなきゃ
そこまで神経質にならんでもええと思うよ

15 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:33:53.48 ID:rTBrfpSU.net
>>14
たしかに、普通の洋エロ基準+モザイク有りなら、そこまで警戒しなくてもとは自分でも思ってる。

ただ怖いのは、作り慣れてしまって、ボーダー超えてることに自分で気が付かない場合というのもあってな。
とくにロリは、成人体型なのにフラット胸にするだけでロリ判定されてナゼ!?ってのが、静止画でもよく聞くし。

このあたりの塩梅は、周囲の状況が見えてくるまでは、ちょっと警戒心高めでいこうと思ってる。

16 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:41:51.41 ID:X3rfiXyn.net
「海外の鯖で削除された なんでやねん!」とかはそういうもんだと思えばよくて
それが騒動になるとかじゃないと思う

版権でしかもロリ気味とかだと気をつけたほうがええやろけどな
結局版権かどうかが一番大きいんじゃないかと

17 :名無しさん@お腹いっぱい。:2023/05/09(火) 00:01:52.81 ID:mGvaNOQX.net
https://kaiber.ai/

これは中々良さそう
ウェブサービスの中では最先端かな?
ローカルになってくれないと困るがね

18 :名無しさん@お腹いっぱい。:2023/05/09(火) 10:58:21.12 ID:x5OlESAu.net
t2vはまだまだオモチャだと思うんだよな
v2vのワチャワチャ感を解決する技術はよう

いちおう「前のフレームと比較して考えるに、この人間が次のフレームで
ここに移動したんやな」みたいのはもう技術的にはできるはずよな

19 :名無しさん@お腹いっぱい。:2023/05/11(木) 04:00:49.90 ID:w8iPGJ8+.net
AIフレーム補完ツールみたいなのもあるみたいだが雑に使ってみた限りはうーんという感じだったなあ

20 :名無しさん@お腹いっぱい。:2023/05/11(木) 20:22:08.85 ID:UDlwaldd.net
もう時間軸を学習対象にした拡散モデルは公開されてローカルで追加学習もできる
StableDiffusion使った継ぎ接ぎとかより滑らかである意味奇麗なものを出力するポテンシャルはある
まだハード要件とか学習の難易度とかいろいろ厳しい点があるが

21 :名無しさん@お腹いっぱい。:2023/05/11(木) 20:23:33.49 ID:6S/F4C8s.net
出力例とかある?

22 :名無しさん@お腹いっぱい。:2023/05/11(木) 21:47:47.86 ID:UDlwaldd.net
まだ見栄えするものが作れてないけども
https://imgur.com/a/6HXp3zs

最初のは某配信者、後者は某国会議員をアニメ系で微調整したモデルでv2vにかけたもの
生成フレーム数に比例してVRAM消費する仕様で24GBあっても512x512だと45フレームが精一杯w
あとこれはモデルの学習次第で改善しそうだけど全身映った動き回るダンス動画とかで試すと色々崩壊してまだ見れたものではない
でも伸びしろはだいぶありそうだから個人的にはこの技術を応援したい

23 :名無しさん@お腹いっぱい。:2023/05/11(木) 22:23:41.49 ID:6S/F4C8s.net
なるほど荒っぽいけどなんかSDのi2iつないだのとは違う一貫性を感じるわね

24 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:11:40.61 ID:cZYer9WG.net
ただ、この手の最大の問題点は、やっぱりVRAM容量ですな・・・。
24GBでこの状態は、動画全体の一体感は確かに魅力的だけど、もう一声欲しい。

25 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:18:11.10 ID:6S/F4C8s.net
AI関係はどれも「えっこのVRAMでこれが出るの!? 半年前は2倍必要だったはずやで!?」
みたいなのがあるからそういう部分に期待するしかないわね

6090とかまでいったら48GBとかで出てくるんかなあ……

26 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:22:39.49 ID:JZxG7LIs.net
まだ世間は動画を作ろうとしてないからこれからよ
ショートでも、実用に耐えうる動画が出来れば一気に盛り上がるはず

27 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:24:16.61 ID:6S/F4C8s.net
まあ現時点でもi2i連番方式でそれなりのもんは出来るけどね

28 :名無しさん@お腹いっぱい。:2023/05/12(金) 00:34:32.39 ID:btJBwNUC.net
これってcivitaiにあった3x3マスで出力された画像を切って繋げば9フレームの動画にできるってやつと同じイメージかな?
VRAMで制限かかるのはきついな

29 :名無しさん@お腹いっぱい。:2023/05/12(金) 00:37:11.34 ID:btJBwNUC.net
とはいえ45フレームあればちょっとしたリピートgif作るには十分そうね

30 :名無しさん@お腹いっぱい。:2023/05/12(金) 03:57:55.97 ID:Dc80F5S8.net
Stability AIは開発者向けの強力なテキストからアニメーションを生成するツール、「Stable Animation SDK」をリリース

https://ja.stability.ai/blog/stable-animation-sdk

https://youtu.be/xsoMk1EJoAY

Stability AIも出して来たな

31 :名無しさん@お腹いっぱい。:2023/05/12(金) 12:12:46.51 ID:sRQN2250.net
これは試してみたいな

32 :名無しさん@お腹いっぱい。:2023/05/12(金) 12:45:41.11 ID:Ff/upsjj.net
んーこのワチャワチャ暴れ具合は従来の手法とあまり変化を感じないなあ
t2vの精度が上がりましたってことなんかな

当面は>>22の手法の進化に期待したいわ
そうじゃなきゃi2i連番画像でまだええかな

33 :名無しさん@お腹いっぱい。:2023/05/12(金) 15:41:20.43 ID:Ff/upsjj.net
https://twitter.com/Kdawg5000/status/1656810826114768899
何がどうなっとるのかしらんけどマジでできるならこれは結構すごい
(deleted an unsolicited ad)

34 :名無しさん@お腹いっぱい。:2023/05/12(金) 19:53:33.40 ID:XZDeOQsl.net
Stability AI、DeforumのGitに「これよく似てるね、有料SDKかい?」とか煽り来ててワラタ。

しかし流行るかなぁ、結局のところエロ出せるような汎用性ないと、一気に廃れる気もするが。
有料サービスで出すには・・・ちょっと早いんじゃないかなぁ。

35 :名無しさん@お腹いっぱい。:2023/05/12(金) 19:54:38.06 ID:nN5iKj2n.net
アニメの中割みたいなのを作りたいんだが
前後の画像を透明度半々で合成するみたいなソフトある?

36 :名無しさん@お腹いっぱい。:2023/05/12(金) 19:59:55.68 ID:nN5iKj2n.net
追加学習できなきゃゴミ
有料ソフトとして売ってくれ

37 :名無しさん@お腹いっぱい。:2023/05/12(金) 20:00:59.46 ID:Ff/upsjj.net
https://twitter.com/riravr/status/1656965716057391104
当面こんな感じの使い方は結構出てきそうやな
エフェクトとかで微妙に誤魔化しつつ低めのi2iかければ
結構それっぽくなる
(deleted an unsolicited ad)

38 :名無しさん@お腹いっぱい。:2023/05/12(金) 20:33:40.33 ID:sFpXbCc5.net
>>33
引RTのリプ等で書いてる人がいるが左のアニメをBlenderで連番で書き出してSDでテクスチャ化してから再度Blenderで書き出してSDに入れてるぽいね
直接変換してるわけじゃないけど手法としては現実味がある

39 :名無しさん@お腹いっぱい。:2023/05/12(金) 21:36:57.24 ID:Ff/upsjj.net
テクスチャをベイクするのはDreamTexturesとかいう奴やろか
何にしても髪とか服の基本的な形とかは事前にモデリングが
できていないといけないっぽいわね

あと後半部分は要するに3Dモデル→i2i法と何ら変わらないと
思うんやけど、それにしてはガチャガチャ感が少ないような印象が

40 :名無しさん@お腹いっぱい。:2023/05/12(金) 21:50:21.92 ID:/sadlaNL.net
モデルあさってたら見つけたんだけどこういうのどうやって作ってるんや
https://civitai.com/posts/205189
https://civitai.com/posts/204734
https://civitai.com/posts/199708
https://civitai.com/posts/196337

41 :名無しさん@お腹いっぱい。:2023/05/12(金) 21:54:21.71 ID:Ff/upsjj.net
これはリアル系の3Dモデル動かして連番画像をi2iしとるだけちゃう?
DAZ Studioとか、あと名前忘れたけどVR系で有名な奴とか

https://i.imgur.com/45Cs83U.mp4
このスレでも今んとこ3Dモデル→連番画像i2iが主力の方法
(Control Netとかも併用する)
見てわかるとおり出力結果がどうもガチャガチャするし
モーションも大事になる

42 :名無しさん@お腹いっぱい。:2023/05/12(金) 22:21:28.97 ID:zZrrPtxU.net
TemporalKit(中身はほぼEbSynthというやつ?)方式だと一枚のキーフレームを元動画の全フレームに適用するから滑らかになるみたいな仕組みっぽいね。ただこれはSDはほぼ関係ない技術だし、キーフレームからかけ離れたフレームは作れないから用途は限られそう

43 :名無しさん@お腹いっぱい。:2023/05/12(金) 22:25:52.34 ID:Ff/upsjj.net
まあエロループアニメとかならそれでいいんやけどね
今度試してみるかな

44 :名無しさん@お腹いっぱい。:2023/05/13(土) 03:42:31.25 ID:BSBV34YL.net
激しくうごくやつだと無理だな
前後のやつを何%か適用するのがないのか・・・

45 :名無しさん@お腹いっぱい。:2023/05/13(土) 04:43:50.81 ID:Bm0Hpmg4.net
フレーム単位のi2iをTopaz Video AIでフレーム補完したのと変わらんレベルだしな…
半年前にはもうやってたレベルの話だけど…StableAIさんは自分が一番だと思う所があるけどいつも後出し感がな

46 :名無しさん@お腹いっぱい。:2023/05/13(土) 10:29:18.18 ID:AtgtPAak.net
3Dモーション関係についてもAIでの進化もっとしてほしいんだよね
今はまだまだ手付けと既成アセットに頼るところが大きい

47 :名無しさん@お腹いっぱい。:2023/05/13(土) 10:35:01.34 ID:BSBV34YL.net
SDXLも動画のやつも、最適化されてないだけで最新の技術が取り入れられてるんだろう

48 :名無しさん@お腹いっぱい。:2023/05/13(土) 15:18:30.66 ID:ad3bBtee.net
>>22
動きがアメリカのアニメみたいで面白いな

49 :名無しさん@お腹いっぱい。:2023/05/13(土) 15:41:12.02 ID:Wd+gaXcZ.net
ちょっと前にEasyMocapってやつを試して単眼視点、つまり普通の動画1個からけっこう精度よくモーション取れてて個人的には感動したな
他との比較はしてないしドキュメントがクソで導入大変だったけど

50 :名無しさん@お腹いっぱい。:2023/05/13(土) 15:47:20.65 ID:AtgtPAak.net
EasyMocapからBVH吐き出してUnityに読み込んで……とかやってみるかな

51 :名無しさん@お腹いっぱい。:2023/05/13(土) 23:10:51.43 ID:XFhSHnre.net
Stability AI SDKのサンプル見て、「あれ、これ仕様面がほぼDeforumじゃね?」とか思ってみてたら、
DeforumのGitに、「元開発者の何名かがStability AIに参加してるよ」とか言ってて、さらにワラタ。

・・・って、それって、無料のDeforumでよくね?となるな・・すくなくともワイらにとっては。

52 :名無しさん@お腹いっぱい。:2023/05/14(日) 03:49:57.64 ID:BE/ftVYg.net
>>47
SD2.xも最新の技術だった(ポリコレ意見を反映したよ!いらんわ~ってな)。3DTVだって・・・
最新がいつもユーザーの望む声を反映しているとは…ケホケホ

53 :名無しさん@お腹いっぱい。:2023/05/14(日) 14:31:10.16 ID:tlQ098eS.net
ティザームービーがほぼdeforumであっ…てなった

54 :名無しさん@お腹いっぱい。:2023/05/14(日) 14:32:15.16 ID:nAcM9I28.net
NVA部で>>33のを実践しとるニキがおったな
ロボじゃなくてキャラで見せられるとわかりやすいわ

55 :名無しさん@お腹いっぱい。:2023/05/21(日) 00:38:06.61 ID:Kztt3AwK.net
Reference onlyで情報固定してgif2gifで、うまいことできないもんかな

56 :名無しさん@お腹いっぱい。:2023/05/21(日) 00:38:58.04 ID:dx3bSncP.net
いまはMasaCtrlによるブレイクスルーが流行りやろ
なぜかここじゃなくなんUのNVA部が主戦場やけど

57 :名無しさん@お腹いっぱい。:2023/05/21(日) 02:15:23.10 ID:14hF9D+5.net
みんな人のいるところに集まる
極論あのスレがあれば他は要らないくらい
それはそうとMasaCtrlってのもまたすごいな
新しいのがポンポンでてくる

58 :名無しさん@お腹いっぱい。:2023/05/21(日) 02:45:14.01 ID:Kztt3AwK.net
スレが消滅してると思って見てなかったわ
スレ番号いくつあたりから見ればいい?

59 :名無しさん@お腹いっぱい。:2023/05/21(日) 08:59:32.64 ID:dx3bSncP.net
208の終わり

60 :名無しさん@お腹いっぱい。:2023/05/21(日) 09:50:29.44 ID:Kztt3AwK.net
あんがと

61 :名無しさん@お腹いっぱい。:2023/05/21(日) 23:59:00.69 ID:14hF9D+5.net
ModelScopeの高解像度版でないかなあ
おそらく元のもの以上で追加学習してるけど元が低いとやはり崩れやすく画質悪くなりやすいっぽい

62 :名無しさん@お腹いっぱい。:2023/05/22(月) 18:06:26.52 ID:Rfox9sea.net
人動画作る場合は、コイカツとかの3DモデルからCNのposeを起こして、masaでテクスチャを作ってCNtileでm2mしてEbsynthでチラつき補正かけるみたいなのが一つの流れかな

63 :名無しさん@お腹いっぱい。:2023/05/22(月) 18:12:17.55 ID:zhDF0eIK.net
アニメっぽい画風とかならEbsynth言うほど要らないかも

64 :名無しさん@お腹いっぱい。:2023/05/22(月) 18:36:45.02 ID:zhDF0eIK.net
https://i.imgur.com/6HRgf5t.mp4
こんなのとか

65 :名無しさん@お腹いっぱい。:2023/05/22(月) 19:02:30.56 ID:Rfox9sea.net
ダメなフレーム抜いたりとかなしでこれはすごいな。背景がないのも安定する要因かな

66 :名無しさん@お腹いっぱい。:2023/05/22(月) 19:11:37.64 ID:zhDF0eIK.net
背景を自動で抜けるようになりゃまた可能性が広がるんだがね
これくらいの数ならフォトショ+手動で気合いで抜けなくもないが

67 :名無しさん@お腹いっぱい。:2023/05/22(月) 22:08:34.17 ID:zhDF0eIK.net
https://i.imgur.com/HeCNDuj.mp4
ってかAnime Segmentationの背景抜き十分いけるやん!
これで背景を別に静止画で出して合成できるわ

68 :名無しさん@お腹いっぱい。:2023/05/22(月) 22:17:28.48 ID:bvF81nYr.net
いいね

69 :名無しさん@お腹いっぱい。:2023/05/22(月) 22:57:43.00 ID:Rfox9sea.net
おお~

70 :名無しさん@お腹いっぱい。:2023/05/23(火) 00:08:48.90 ID:0ky3bgpk.net
すごいな
もうこれほぼ実用レベルだろ

71 :名無しさん@お腹いっぱい。:2023/05/23(火) 10:15:42.66 ID:oLp/FlTS.net
https://i.imgur.com/vHvapQe.mp4
背景を白に近くすることで抜きミスを目立たなくさせる戦法

72 :名無しさん@お腹いっぱい。:2023/05/25(木) 16:08:00.95 ID:UmKYW6f1.net
>>40の投稿者はi2i使ってないんだな
解説記事出してたわ
https://civitai.com/models/71685/gif-controlnet-m2m-script

73 :名無しさん@お腹いっぱい。:2023/05/25(木) 22:04:36.80 ID:uKAme7hX.net
記事読んだがプリプロセス周りをいろいろ説明してくれてるのはいいね。controlnetを十枚くらい使える設定にしててすげえと思ったけどその辺の解説がなかったのは残念…

74 :名無しさん@お腹いっぱい。:2023/05/26(金) 10:38:20.74 ID:ToaQkoAT.net
>>72
GTX1070使っとるちうのが嬉しいニュースかもしれんねその人

75 :名無しさん@お腹いっぱい。:2023/05/26(金) 19:33:59.67 ID:9hGkOc2P.net
英語で書かない言い訳がウザい
すげえ性格悪そう

76 :名無しさん@お腹いっぱい。:2023/05/27(土) 08:47:46.53 ID:zl3AhxDP.net
>>72
CNの中身はi2iの部類だろ…

77 :名無しさん@お腹いっぱい。:2023/05/30(火) 00:58:03.75 ID:qzOAncGu.net
画像のノリで動画が出せるようになるにはどのぐらいかかるんだろう

78 :名無しさん@お腹いっぱい。:2023/05/30(火) 04:49:19.38 ID:I6omtO+U.net
おはようございます
ふたばにAI板ができていますね
ここの人たちはご存知かもしれませんが

79 :名無しさん@お腹いっぱい。:2023/06/04(日) 01:31:01.21 ID:pr6us+7o.net
gen-2とか、comming very soonとか言いながらもう2ヶ月半が経つ
結局半端なAI企業より、ガンガン出していく在野の技術者の方が上だな

80 :名無しさん@お腹いっぱい。:2023/06/04(日) 12:44:41.21 ID:UrwVwm68.net
>>79
そりゃあ検証は他ユーザーに丸投げできるし、問題起きても知らんぷりできるからな

81 :名無しさん@お腹いっぱい。:2023/06/07(水) 07:52:14.70 ID:ep5aifrw.net
個人で1024x576とかわりと高解像度での動画学習に挑戦してる人とか出てきてるな
ちょっとサンプル見る限りけっこう奇麗にできてるし

82 :名無しさん@お腹いっぱい。:2023/06/07(水) 22:32:03.31 ID:mg/HcfsF.net
gen2が出たな

https://youtu.be/BpoOVEEDiFA

83 :名無しさん@お腹いっぱい。:2023/06/09(金) 15:15:59.67 ID:OI3Uh+ub.net
顔のみ変換自動化の実験サンプルとして改変再配布可能なブスの動画欲しい

84 :名無しさん@お腹いっぱい。:2023/06/10(土) 12:30:32.82 ID:g7wxEi3O.net
>>82
試したけど思い通りの作るの難しい
gen2は部分的には奇麗だけど大きなパーツの雑な切り貼り感があるんだよな
全体的にちょっと歪でもプロンプトに比較的柔軟なModelScopeのほうが好き

85 :名無しさん@お腹いっぱい。:2023/06/11(日) 17:07:13.68 ID:VsG9/Wt2.net
gen-2には敵わないがpotat1ってモデルもなかなか良い
>>81が言ってるのもこれの事かも

86 :名無しさん@お腹いっぱい。:2023/06/12(月) 22:17:38.45 ID:CdQzXQvi.net
>>85
それだね
potatモデルからさらに特定概念を学習させてみた
画像数十枚程度でもまあまあ似せられる
動画ブームもそろそろくるか?
https://imgur.com/a/uVvnknc

87 :名無しさん@お腹いっぱい。:2023/06/13(火) 02:59:59.75 ID:h0xD1nDm.net
Twitterで海外からも色々流れてくるけど、ロトスコープ系はもう実用レベルに来始めてるな
ゼロから生成するものは、3Dの動きとタグ付けしないと最後まで粗が抜けない気もする
両方の手法で保管しあってブレイクスルー来ないかな

88 :名無しさん@お腹いっぱい。:2023/06/14(水) 16:38:02.67 ID:Izwu26ye.net
Stable Diffusionで出力した後パワーディレクターのAIで味付けしてみた
AI七日目だけど結構うまくできたから見てください
どうだろう
https://xxup.org/n0It8.mp4

89 :名無しさん@お腹いっぱい。:2023/06/14(水) 17:00:24.45 ID:U/eHFB/g.net
ええやん
あからさまにズレたコマをカットするなりi2iし直せばもっと良くなるだろな

90 :名無しさん@お腹いっぱい。:2023/06/14(水) 19:00:17.54 ID:Izwu26ye.net
>>89
ありがとう!!
嬉しい!
自分を撮ってやったら何故か上手くいかなかったw
色々試してみます!

91 :名無しさん@お腹いっぱい。:2023/06/15(木) 06:58:05.08 ID:VyYDkl30.net
自分で撮影したのをそのまま使ったらダメ
1分以内かつプレミアとかで修正しろ

92 :名無しさん@お腹いっぱい。:2023/06/15(木) 13:35:43.67 ID:mk7oiuBg.net
規制待ったなし

AI悪用で巧妙化する性的恐喝 存在しないわいせつ画像をでっち上げ 米国では自殺者も [香味焙煎★]
https://asahi.5ch.net/test/read.cgi/newsplus/1686801507/

93 :名無しさん@お腹いっぱい。:2023/06/15(木) 15:35:10.04 ID:kmENr7xQ.net
悪いことするやつが悪い

94 :名無しさん@お腹いっぱい。:2023/06/15(木) 15:41:04.81 ID:J5kxiTYb.net
>>88
自分では作ったこと無い身で言うのもなんだけど、SD側では10fpsとかで作って、flowflameみたいな補完(中割り)ソフトで滑らかにすればSD側での破綻が少なくなる気がする

95 :名無しさん@お腹いっぱい。:2023/06/23(金) 18:24:43.15 ID:kxTsLhIM.net
rerenderのコード公開楽しみだな

96 :名無しさん@お腹いっぱい。:2023/06/29(木) 14:56:04.21 ID:pA0BcpXN.net
動画はまだまだか

97 :名無しさん@お腹いっぱい。:2023/07/01(土) 17:29:28.29 ID:zdyDc2Gi.net
ちょい前から追ってたtext2videoの動画生成系のDiscordサーバーがちょっとずつ盛り上がってきているが
解像度が上がって奇麗になったりはしてるもののベース技術の革新について目立ったものはあんまりだな
画像から動画を作成できるとかそのくらいか
ロト系は追ってないけど最近どうなんだろ

98 :名無しさん@お腹いっぱい。:2023/07/01(土) 20:52:00.42 ID:dxlLbclT.net
今更wonder studioがtwitterではバズり始めてるな
3Dモデルを自作出来る人なら楽しめるのだろうが
あと変換がローカルじゃないのがキツイな

99 :名無しさん@お腹いっぱい。:2023/07/02(日) 23:08:02.01 ID:p0euAbkQ.net
>>98
3Dモデル作れるけど面倒だし時間がかかる。
早くAIで自動生成できるようになってほしい。

100 :名無しさん@お腹いっぱい。:2023/07/03(月) 17:12:58.31 ID:7MQfMqhU.net
3Dはぶっちゃけ顔パーツのテクスチャだけ自動生成できりゃそれで事足りる気はする
髪型もパーツの組み合わせで大体行けるし
あとはアバターエディタみたいなの使ったほうが早い

101 :名無しさん@お腹いっぱい。:2023/07/05(水) 22:43:43.40 ID:hrUJULTL.net
なんか進化がイマイチだな
既存動画突っ込んでプロンプトでキャラをどんどん仕上げる、ぐらい出来ないもんか

102 :名無しさん@お腹いっぱい。:2023/07/16(日) 00:08:18.69 ID:QfNhsqMa.net
rerenderはまだこないのか

103 :名無しさん@お腹いっぱい。:2023/07/19(水) 20:21:51.57 ID:dA43gKmF.net
動画のinpaint機能が欲しくて某リポジトリを色々弄ってみたが素人にはやっぱ無理だった

104 :名無しさん@お腹いっぱい。:2023/07/23(日) 06:16:54.89 ID:Nvl5XCMN.net
wonder studioと同じことをローカルでやる方法ない?

105 :名無しさん@お腹いっぱい。:2023/07/23(日) 17:14:21.81 ID:AfQQtjaJ.net
ない

106 :名無しさん@お腹いっぱい。:2023/07/23(日) 19:48:26.89 ID:xGYya0Li.net
ある

107 :名無しさん@お腹いっぱい。:2023/07/23(日) 21:30:00.18 ID:X5/kcTND.net
ついてる

108 :名無しさん@お腹いっぱい。:2023/07/23(日) 23:41:43.97 ID:1FuPd7ow.net
ついてない

109 :名無しさん@お腹いっぱい。:2023/07/23(日) 23:52:32.00 ID:KJ6e2CeF.net
ついてる

110 :名無しさん@お腹いっぱい。:2023/07/24(月) 11:43:19.05 ID:KqwARjVV.net
アレどっちどっちTRANCE、TRANCE、TRANCE

111 :名無しさん@お腹いっぱい。:2023/09/06(水) 10:07:13.53 ID:7kJ5g0kd.net
調べても良くわかんねえからスレ探してきたけど、ここも良くわかんねえな
悲しい

112 :名無しさん@お腹いっぱい。:2023/09/07(木) 15:14:43.88 ID:K9AD+GhN.net
1.6にしたらmov2movのタブなくなったんだけどわかる人いる?

113 :名無しさん@お腹いっぱい。:2023/09/23(土) 15:38:02.82 ID:lBQrCGZs.net
animateDiffは画像よりかそれとも動画よりかどちらだろう

114 :名無しさん@お腹いっぱい。:2023/09/24(日) 15:17:52.47 ID:R3Hstf6f.net
mov2movは4月からアップデートが止まっているので元を削除して別の作者の改変版を入れる必要がある

115 :名無しさん@お腹いっぱい。:2023/11/27(月) 20:30:00.91 ID:8viQ2T2u.net
AIだとなんでツルツルした肌になってしまうん?
出来ても艶消し程度
もっとザラッとした質感に出来ないの

116 :名無しさん@お腹いっぱい。:2023/11/28(火) 01:18:34.63 ID:Q+JKjYqq.net
>>115
プロンプトでザラザラにすればいいじゃないか
ザラザラ スキンって

117 :名無しさん@お腹いっぱい。:2023/11/28(火) 07:50:03.54 ID:PyPi/IVv.net
raw skin

118 :名無しさん@お腹いっぱい。:2023/12/02(土) 06:08:35.66 ID:o7MywLfy.net
画像から動画を生成できるってことは、未来を予測できる能力があるってこと
つまり、これ因果推論ができるってことなのよね

119 :名無しさん@お腹いっぱい。:2023/12/02(土) 06:08:38.55 ID:o7MywLfy.net
画像から動画を生成できるってことは、未来を予測できる能力があるってこと
つまり、これ因果推論ができるってことなのよね

120 :名無しさん@お腹いっぱい。:2023/12/02(土) 06:21:14.34 ID:4Cim3LgM.net
予測なんかしてない
やってることは画像生成とまったく同じで、学習結果を適当につなぎ合わせてるだけ

121 :名無しさん@お腹いっぱい。:2023/12/02(土) 18:38:58.53 ID:TvblqHa9.net
よくメモリは大量に必要でCPUはそんなんでもないって言うけど
そういうところがおすすめしてるPCは20万ぐらいする
メモリが大量に積んでればいいんなら数万の格安ノートPCでもいいんじゃね

122 :名無しさん@お腹いっぱい。:2023/12/02(土) 22:36:15.37 ID:4Cim3LgM.net
>>121
メモリー対して必要なくて
VRAM が重要

123 :名無しさん@お腹いっぱい。:2023/12/02(土) 23:52:44.98 ID:cZ+sZi2c.net
ライフルの学習データとか配布されてない?

124 :名無しさん@お腹いっぱい。:2023/12/03(日) 13:26:34.88 ID:c8EqufWx.net
そこにAIはあるんか

125 :名無しさん@お腹いっぱい。:2023/12/03(日) 14:12:35.55 ID:Hf2W5L5d.net
webuiだけ使うならメインメモリ16GBでも行けるが、指の修正にフォトショップ立ち上げたりすると32GB、可能なら64GB欲しくなる。メモリは安いから黙って64GB積めば何の心配も要らなくなる。

126 :名無しさん@お腹いっぱい。:2023/12/06(水) 19:09:15.42 ID:2yqUUbSC.net
フォトショップはVRAMも持ってくからPC分けた方が良くないか?

127 :名無しさん@お腹いっぱい。:2023/12/07(木) 17:44:22.48 ID:NSQfYRAQ.net
VRAMって何時のPCだよw

128 :名無しさん@お腹いっぱい。:2023/12/07(木) 17:57:47.39 ID:0g041Fzu.net
>>127
U BIOS

129 :名無しさん@お腹いっぱい。:2023/12/09(土) 09:11:29.93 ID:b29uHZ0T.net
>>127
https://dosparaplus.com/library/details/000734.html

130 :名無しさん@お腹いっぱい。:2023/12/11(月) 14:43:45.36 ID:666lkiWg.net
今のフォトショはAIはもちろん生成もするしな
VRAM使うか使わないかは使う機能次第だが、無知ほど草生やすのが5chだなと

131 :名無しさん@お腹いっぱい。:2023/12/18(月) 01:44:29.65 ID:eGye5r1x.net
i2vgen-xlってリポジトリが急激に伸びてるようだけど今週は試せなかったな・・・やりたいことが多すぎる

132 :名無しさん@お腹いっぱい。:2024/02/19(月) 23:47:20.73 ID:1EpBHjR0.net
キャラが古いけどサクラ大戦のアイリスの騎乗位
https://uploader.purinka.work/src/30681.gif

stablediffusionのmov2movでもある程度キャラに一貫性のあるエロ動画を作れるようになった
生成された動画を元動画にして蒸留するみたいになんとか生成しなおしていけば
ある程度一貫性が保てる
でも、一からの生成ではなく元動画が必要
ここからもっと洗練されたものを作りたいんだけど
何か良いアイデアはないですかね?

133 :名無しさん@お腹いっぱい。:2024/02/19(月) 23:55:00.93 ID:3Pawlx0m.net
なんでこんなチラチラするの?
直せない?

134 :名無しさん@お腹いっぱい。:2024/02/20(火) 00:06:02.85 ID:kSIoQDwZ.net
mp4をgifに変換する時に劣化したみたい
mp4をそのままあげてみるかな?

135 :名無しさん@お腹いっぱい。:2024/02/20(火) 00:49:55.36 ID:kSIoQDwZ.net
https://uploader.purinka.work/src/30682.mp4
元のmp4動画、自分でリピートしてね

で、これはmmdのフランドールのエロ動画から作ったもの
色々試して見たけど、黒髪から金髪キャラへ金髪から黒髪キャラは変更しにくいね

31 KB
新着レスの表示

掲示板に戻る 全部 前100 次100 最新50
名前: E-mail (省略可) :

read.cgi ver.24052200