【StableDiffusion】AI動画生成スレ1
- 1 :名無しさん@お腹いっぱい。:2023/04/25(火) 17:47:32.98 ID:V5JBD3KF.net
- AIで【動画】を生成するスレです。以下は全て可とします。
・ゼロから動画を作る技術
・既存動画をAIで加工する技術
・全フレームi2iする技術
・節度あるアダルトの話題
・webUI、単体サービス問わず
・著作権についての適度な話題
・新しいニュース等の貼り付け
動画生成はまだ始まったばかりですので流行りや方向性は定まっていません。
情報を集めて良い動画制作を目指しましょう。
- 2 :名無しさん@お腹いっぱい。:2023/04/25(火) 17:51:12.66 ID:V5JBD3KF.net
- Text to Video
https://huggingface.co/models?pipeline_tag=text-to-video
AIサービス
https://research.runwayml.com/gen2
https://wonderdynamics.com/
https://www.adobe.com/sensei/generative-ai/firefly.html
- 3 :名無しさん@お腹いっぱい。:2023/04/28(金) 15:14:15.99 ID:8cXABFWU.net
- 試しに作ったけど難しい
生成に時間かかるし単体画像のように気軽に何個も作れないのがね
i2iと外部ツール使用
https://i.imgur.com/CSvVb0Z.gifv
https://i.imgur.com/e0EDg9q.gifv
- 4 :名無しさん@お腹いっぱい。:2023/04/28(金) 16:47:13.19 ID:KGqMrwec.net
- https://i.imgur.com/iMflO36.jpg
- 5 :名無しさん@お腹いっぱい。:2023/04/29(土) 07:23:52.38 ID:Y94QP80p.net
- gif2gifとかmov2movとか試してみたけどうしても顔が安定せんよな。Twitterでバズったやつも元動画と輪郭変えないようにして安定させてるだけだし応用は効かない。
- 6 :名無しさん@お腹いっぱい。:2023/04/29(土) 09:41:09.01 ID:mhsRs6ry.net
- gen-2かnvidiaのやつ待ちだな
- 7 :名無しさん@お腹いっぱい。:2023/04/29(土) 11:08:07.35 ID:1SYFty31.net
- >>5
ただの劣化コピー機だからなぁ
オリジナルがあるのに悪くなっても仕方ないだろうという…
SD使ってる限りは1枚ずつ生成になるから、前後のフレーム関係維持できないしね
顔だけならLoRAで固める手もあるが、フレームごとにブレてしまうようなものを補正しない限り
30年前のいろんな作者に描かせた絵をGIFのように並べてCM作っていた程度の事にしかならない
- 8 :名無しさん@お腹いっぱい。:2023/04/29(土) 13:11:50.94 ID:K4FfKEPj.net
- wonder studio使えたけどマジで凄かった
10数秒でエンコードは80分かかったけど違和感ない
3Dモデルが色々用意出来ればかなり楽しい事が出来る
- 9 :名無しさん@お腹いっぱい。:2023/05/06(土) 04:22:53.01 ID:blVCkIOB.net
- サンイチ!
マルチGPUで学習しとるニキおらんか?
NCCLとかがないって怒られるんやがこれWindowsでは無理なやつか?
- 10 :名無しさん@お腹いっぱい。:2023/05/06(土) 04:38:56.76 ID:blVCkIOB.net
- すまない、誤爆した
- 11 :名無しさん@お腹いっぱい。:2023/05/06(土) 11:59:02.24 ID:RoC6YJP6.net
- 誘導されてきましたDeforum部の者です、よろしゅう。
挨拶だけなのもアレなので、いまのAI動画に関する自分の認識。めちゃ偏ってるし知識不足だと思うから、そのつもりで。
・Deforum
SD初期からあるAI動画機能。T2V、V2Vでの作成が可能で、CNとの連携も有り。
今も活発にアップデートされてる。
T2Vでの作り方は、制御系とかやってるプログラマーの人は理解しやすいと思う。
・外部ツールでのビデオ作製を利用したV2V
3Dモデルを動かして動画化、それをさらにCN等で変換して動画化する手法。
手間ではあるが、人体を安定してアニメーションできるのが強い。
広範囲の技術と知識が必要だけど、当面の主流はこっちになる気がしてる。
(というか、MMD動画関係の人が流れてきたら本当に化けるかも)
・Text2Video
SDの追加機能の一つ。短時間かつ小さいサイズだが、連続性のある動画が作れる、らしい。
将来、VGA性能が大きく向上したら化けると、個人的には思ってます。
・外部サービスによるAI動画作成
AI淫夢動画でお馴染み。ツール使ってないので詳細不明。
基本的にはV2Vなのかな。
- 12 :名無しさん@お腹いっぱい。:2023/05/06(土) 16:57:31.65 ID:Xqk6wNej.net
- 3DモデルのV2Vについては結局モーションの問題がつきまとうわね
AIの発展に比して3Dモーションの数とバリエーションはあまりに少なく高い
- 13 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:16:17.77 ID:rTBrfpSU.net
- GW最終日、自分でも少しラインでダンスした感があるので、戒めも込めて。
ただのチラ裏お気持ち表明なので、スルーでおけ。
AIエロ動画作成時の注意点
1.静止画で出るなら動画でもできる。程度はともかく。
2.ライン越えのロリ・グロ・ケモ、どれもモデルとLora次第で作れる。品質はともかく。
3.ゆえに作った時点でSAN値吹っ飛ばしていると認識すること。
4.エロ作品を掲示板等でオープンにする場合、性器モザイク・パスワードはかならずかける。
5.加えて、時限式のあぷろだを使って、むやみに無制限公開しない。
6.使うあぷろだも、念のため、エロ動画アップしても問題なさそうなところを選ぶ。
7.警戒しすぎかもだが、動画は作品の破壊力がハンパなくなるので、今はオーバーなくらいでいい。
- 14 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:18:07.01 ID:X3rfiXyn.net
- モザはどこでもしっかりやるべきやけどロリとかグロとか版権じゃなきゃ
そこまで神経質にならんでもええと思うよ
- 15 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:33:53.48 ID:rTBrfpSU.net
- >>14
たしかに、普通の洋エロ基準+モザイク有りなら、そこまで警戒しなくてもとは自分でも思ってる。
ただ怖いのは、作り慣れてしまって、ボーダー超えてることに自分で気が付かない場合というのもあってな。
とくにロリは、成人体型なのにフラット胸にするだけでロリ判定されてナゼ!?ってのが、静止画でもよく聞くし。
このあたりの塩梅は、周囲の状況が見えてくるまでは、ちょっと警戒心高めでいこうと思ってる。
- 16 :名無しさん@お腹いっぱい。:2023/05/07(日) 10:41:51.41 ID:X3rfiXyn.net
- 「海外の鯖で削除された なんでやねん!」とかはそういうもんだと思えばよくて
それが騒動になるとかじゃないと思う
版権でしかもロリ気味とかだと気をつけたほうがええやろけどな
結局版権かどうかが一番大きいんじゃないかと
- 17 :名無しさん@お腹いっぱい。:2023/05/09(火) 00:01:52.81 ID:mGvaNOQX.net
- https://kaiber.ai/
これは中々良さそう
ウェブサービスの中では最先端かな?
ローカルになってくれないと困るがね
- 18 :名無しさん@お腹いっぱい。:2023/05/09(火) 10:58:21.12 ID:x5OlESAu.net
- t2vはまだまだオモチャだと思うんだよな
v2vのワチャワチャ感を解決する技術はよう
いちおう「前のフレームと比較して考えるに、この人間が次のフレームで
ここに移動したんやな」みたいのはもう技術的にはできるはずよな
- 19 :名無しさん@お腹いっぱい。:2023/05/11(木) 04:00:49.90 ID:w8iPGJ8+.net
- AIフレーム補完ツールみたいなのもあるみたいだが雑に使ってみた限りはうーんという感じだったなあ
- 20 :名無しさん@お腹いっぱい。:2023/05/11(木) 20:22:08.85 ID:UDlwaldd.net
- もう時間軸を学習対象にした拡散モデルは公開されてローカルで追加学習もできる
StableDiffusion使った継ぎ接ぎとかより滑らかである意味奇麗なものを出力するポテンシャルはある
まだハード要件とか学習の難易度とかいろいろ厳しい点があるが
- 21 :名無しさん@お腹いっぱい。:2023/05/11(木) 20:23:33.49 ID:6S/F4C8s.net
- 出力例とかある?
- 22 :名無しさん@お腹いっぱい。:2023/05/11(木) 21:47:47.86 ID:UDlwaldd.net
- まだ見栄えするものが作れてないけども
https://imgur.com/a/6HXp3zs
最初のは某配信者、後者は某国会議員をアニメ系で微調整したモデルでv2vにかけたもの
生成フレーム数に比例してVRAM消費する仕様で24GBあっても512x512だと45フレームが精一杯w
あとこれはモデルの学習次第で改善しそうだけど全身映った動き回るダンス動画とかで試すと色々崩壊してまだ見れたものではない
でも伸びしろはだいぶありそうだから個人的にはこの技術を応援したい
- 23 :名無しさん@お腹いっぱい。:2023/05/11(木) 22:23:41.49 ID:6S/F4C8s.net
- なるほど荒っぽいけどなんかSDのi2iつないだのとは違う一貫性を感じるわね
- 24 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:11:40.61 ID:cZYer9WG.net
- ただ、この手の最大の問題点は、やっぱりVRAM容量ですな・・・。
24GBでこの状態は、動画全体の一体感は確かに魅力的だけど、もう一声欲しい。
- 25 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:18:11.10 ID:6S/F4C8s.net
- AI関係はどれも「えっこのVRAMでこれが出るの!? 半年前は2倍必要だったはずやで!?」
みたいなのがあるからそういう部分に期待するしかないわね
6090とかまでいったら48GBとかで出てくるんかなあ……
- 26 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:22:39.49 ID:JZxG7LIs.net
- まだ世間は動画を作ろうとしてないからこれからよ
ショートでも、実用に耐えうる動画が出来れば一気に盛り上がるはず
- 27 :名無しさん@お腹いっぱい。:2023/05/11(木) 23:24:16.61 ID:6S/F4C8s.net
- まあ現時点でもi2i連番方式でそれなりのもんは出来るけどね
- 28 :名無しさん@お腹いっぱい。:2023/05/12(金) 00:34:32.39 ID:btJBwNUC.net
- これってcivitaiにあった3x3マスで出力された画像を切って繋げば9フレームの動画にできるってやつと同じイメージかな?
VRAMで制限かかるのはきついな
- 29 :名無しさん@お腹いっぱい。:2023/05/12(金) 00:37:11.34 ID:btJBwNUC.net
- とはいえ45フレームあればちょっとしたリピートgif作るには十分そうね
- 30 :名無しさん@お腹いっぱい。:2023/05/12(金) 03:57:55.97 ID:Dc80F5S8.net
- Stability AIは開発者向けの強力なテキストからアニメーションを生成するツール、「Stable Animation SDK」をリリース
https://ja.stability.ai/blog/stable-animation-sdk
https://youtu.be/xsoMk1EJoAY
Stability AIも出して来たな
- 31 :名無しさん@お腹いっぱい。:2023/05/12(金) 12:12:46.51 ID:sRQN2250.net
- これは試してみたいな
- 32 :名無しさん@お腹いっぱい。:2023/05/12(金) 12:45:41.11 ID:Ff/upsjj.net
- んーこのワチャワチャ暴れ具合は従来の手法とあまり変化を感じないなあ
t2vの精度が上がりましたってことなんかな
当面は>>22の手法の進化に期待したいわ
そうじゃなきゃi2i連番画像でまだええかな
- 33 :名無しさん@お腹いっぱい。:2023/05/12(金) 15:41:20.43 ID:Ff/upsjj.net
- https://twitter.com/Kdawg5000/status/1656810826114768899
何がどうなっとるのかしらんけどマジでできるならこれは結構すごい
(deleted an unsolicited ad)
- 34 :名無しさん@お腹いっぱい。:2023/05/12(金) 19:53:33.40 ID:XZDeOQsl.net
- Stability AI、DeforumのGitに「これよく似てるね、有料SDKかい?」とか煽り来ててワラタ。
しかし流行るかなぁ、結局のところエロ出せるような汎用性ないと、一気に廃れる気もするが。
有料サービスで出すには・・・ちょっと早いんじゃないかなぁ。
- 35 :名無しさん@お腹いっぱい。:2023/05/12(金) 19:54:38.06 ID:nN5iKj2n.net
- アニメの中割みたいなのを作りたいんだが
前後の画像を透明度半々で合成するみたいなソフトある?
- 36 :名無しさん@お腹いっぱい。:2023/05/12(金) 19:59:55.68 ID:nN5iKj2n.net
- 追加学習できなきゃゴミ
有料ソフトとして売ってくれ
- 37 :名無しさん@お腹いっぱい。:2023/05/12(金) 20:00:59.46 ID:Ff/upsjj.net
- https://twitter.com/riravr/status/1656965716057391104
当面こんな感じの使い方は結構出てきそうやな
エフェクトとかで微妙に誤魔化しつつ低めのi2iかければ
結構それっぽくなる
(deleted an unsolicited ad)
- 38 :名無しさん@お腹いっぱい。:2023/05/12(金) 20:33:40.33 ID:sFpXbCc5.net
- >>33
引RTのリプ等で書いてる人がいるが左のアニメをBlenderで連番で書き出してSDでテクスチャ化してから再度Blenderで書き出してSDに入れてるぽいね
直接変換してるわけじゃないけど手法としては現実味がある
- 39 :名無しさん@お腹いっぱい。:2023/05/12(金) 21:36:57.24 ID:Ff/upsjj.net
- テクスチャをベイクするのはDreamTexturesとかいう奴やろか
何にしても髪とか服の基本的な形とかは事前にモデリングが
できていないといけないっぽいわね
あと後半部分は要するに3Dモデル→i2i法と何ら変わらないと
思うんやけど、それにしてはガチャガチャ感が少ないような印象が
- 40 :名無しさん@お腹いっぱい。:2023/05/12(金) 21:50:21.92 ID:/sadlaNL.net
- モデルあさってたら見つけたんだけどこういうのどうやって作ってるんや
https://civitai.com/posts/205189
https://civitai.com/posts/204734
https://civitai.com/posts/199708
https://civitai.com/posts/196337
- 41 :名無しさん@お腹いっぱい。:2023/05/12(金) 21:54:21.71 ID:Ff/upsjj.net
- これはリアル系の3Dモデル動かして連番画像をi2iしとるだけちゃう?
DAZ Studioとか、あと名前忘れたけどVR系で有名な奴とか
https://i.imgur.com/45Cs83U.mp4
このスレでも今んとこ3Dモデル→連番画像i2iが主力の方法
(Control Netとかも併用する)
見てわかるとおり出力結果がどうもガチャガチャするし
モーションも大事になる
- 42 :名無しさん@お腹いっぱい。:2023/05/12(金) 22:21:28.97 ID:zZrrPtxU.net
- TemporalKit(中身はほぼEbSynthというやつ?)方式だと一枚のキーフレームを元動画の全フレームに適用するから滑らかになるみたいな仕組みっぽいね。ただこれはSDはほぼ関係ない技術だし、キーフレームからかけ離れたフレームは作れないから用途は限られそう
- 43 :名無しさん@お腹いっぱい。:2023/05/12(金) 22:25:52.34 ID:Ff/upsjj.net
- まあエロループアニメとかならそれでいいんやけどね
今度試してみるかな
- 44 :名無しさん@お腹いっぱい。:2023/05/13(土) 03:42:31.25 ID:BSBV34YL.net
- 激しくうごくやつだと無理だな
前後のやつを何%か適用するのがないのか・・・
- 45 :名無しさん@お腹いっぱい。:2023/05/13(土) 04:43:50.81 ID:Bm0Hpmg4.net
- フレーム単位のi2iをTopaz Video AIでフレーム補完したのと変わらんレベルだしな…
半年前にはもうやってたレベルの話だけど…StableAIさんは自分が一番だと思う所があるけどいつも後出し感がな
- 46 :名無しさん@お腹いっぱい。:2023/05/13(土) 10:29:18.18 ID:AtgtPAak.net
- 3Dモーション関係についてもAIでの進化もっとしてほしいんだよね
今はまだまだ手付けと既成アセットに頼るところが大きい
- 47 :名無しさん@お腹いっぱい。:2023/05/13(土) 10:35:01.34 ID:BSBV34YL.net
- SDXLも動画のやつも、最適化されてないだけで最新の技術が取り入れられてるんだろう
- 48 :名無しさん@お腹いっぱい。:2023/05/13(土) 15:18:30.66 ID:ad3bBtee.net
- >>22
動きがアメリカのアニメみたいで面白いな
- 49 :名無しさん@お腹いっぱい。:2023/05/13(土) 15:41:12.02 ID:Wd+gaXcZ.net
- ちょっと前にEasyMocapってやつを試して単眼視点、つまり普通の動画1個からけっこう精度よくモーション取れてて個人的には感動したな
他との比較はしてないしドキュメントがクソで導入大変だったけど
- 50 :名無しさん@お腹いっぱい。:2023/05/13(土) 15:47:20.65 ID:AtgtPAak.net
- EasyMocapからBVH吐き出してUnityに読み込んで……とかやってみるかな
- 51 :名無しさん@お腹いっぱい。:2023/05/13(土) 23:10:51.43 ID:XFhSHnre.net
- Stability AI SDKのサンプル見て、「あれ、これ仕様面がほぼDeforumじゃね?」とか思ってみてたら、
DeforumのGitに、「元開発者の何名かがStability AIに参加してるよ」とか言ってて、さらにワラタ。
・・・って、それって、無料のDeforumでよくね?となるな・・すくなくともワイらにとっては。
- 52 :名無しさん@お腹いっぱい。:2023/05/14(日) 03:49:57.64 ID:BE/ftVYg.net
- >>47
SD2.xも最新の技術だった(ポリコレ意見を反映したよ!いらんわ~ってな)。3DTVだって・・・
最新がいつもユーザーの望む声を反映しているとは…ケホケホ
- 53 :名無しさん@お腹いっぱい。:2023/05/14(日) 14:31:10.16 ID:tlQ098eS.net
- ティザームービーがほぼdeforumであっ…てなった
- 54 :名無しさん@お腹いっぱい。:2023/05/14(日) 14:32:15.16 ID:nAcM9I28.net
- NVA部で>>33のを実践しとるニキがおったな
ロボじゃなくてキャラで見せられるとわかりやすいわ
- 55 :名無しさん@お腹いっぱい。:2023/05/21(日) 00:38:06.61 ID:Kztt3AwK.net
- Reference onlyで情報固定してgif2gifで、うまいことできないもんかな
- 56 :名無しさん@お腹いっぱい。:2023/05/21(日) 00:38:58.04 ID:dx3bSncP.net
- いまはMasaCtrlによるブレイクスルーが流行りやろ
なぜかここじゃなくなんUのNVA部が主戦場やけど
- 57 :名無しさん@お腹いっぱい。:2023/05/21(日) 02:15:23.10 ID:14hF9D+5.net
- みんな人のいるところに集まる
極論あのスレがあれば他は要らないくらい
それはそうとMasaCtrlってのもまたすごいな
新しいのがポンポンでてくる
- 58 :名無しさん@お腹いっぱい。:2023/05/21(日) 02:45:14.01 ID:Kztt3AwK.net
- スレが消滅してると思って見てなかったわ
スレ番号いくつあたりから見ればいい?
- 59 :名無しさん@お腹いっぱい。:2023/05/21(日) 08:59:32.64 ID:dx3bSncP.net
- 208の終わり
- 60 :名無しさん@お腹いっぱい。:2023/05/21(日) 09:50:29.44 ID:Kztt3AwK.net
- あんがと
- 61 :名無しさん@お腹いっぱい。:2023/05/21(日) 23:59:00.69 ID:14hF9D+5.net
- ModelScopeの高解像度版でないかなあ
おそらく元のもの以上で追加学習してるけど元が低いとやはり崩れやすく画質悪くなりやすいっぽい
- 62 :名無しさん@お腹いっぱい。:2023/05/22(月) 18:06:26.52 ID:Rfox9sea.net
- 人動画作る場合は、コイカツとかの3DモデルからCNのposeを起こして、masaでテクスチャを作ってCNtileでm2mしてEbsynthでチラつき補正かけるみたいなのが一つの流れかな
- 63 :名無しさん@お腹いっぱい。:2023/05/22(月) 18:12:17.55 ID:zhDF0eIK.net
- アニメっぽい画風とかならEbsynth言うほど要らないかも
- 64 :名無しさん@お腹いっぱい。:2023/05/22(月) 18:36:45.02 ID:zhDF0eIK.net
- https://i.imgur.com/6HRgf5t.mp4
こんなのとか
- 65 :名無しさん@お腹いっぱい。:2023/05/22(月) 19:02:30.56 ID:Rfox9sea.net
- ダメなフレーム抜いたりとかなしでこれはすごいな。背景がないのも安定する要因かな
- 66 :名無しさん@お腹いっぱい。:2023/05/22(月) 19:11:37.64 ID:zhDF0eIK.net
- 背景を自動で抜けるようになりゃまた可能性が広がるんだがね
これくらいの数ならフォトショ+手動で気合いで抜けなくもないが
- 67 :名無しさん@お腹いっぱい。:2023/05/22(月) 22:08:34.17 ID:zhDF0eIK.net
- https://i.imgur.com/HeCNDuj.mp4
ってかAnime Segmentationの背景抜き十分いけるやん!
これで背景を別に静止画で出して合成できるわ
- 68 :名無しさん@お腹いっぱい。:2023/05/22(月) 22:17:28.48 ID:bvF81nYr.net
- いいね
- 69 :名無しさん@お腹いっぱい。:2023/05/22(月) 22:57:43.00 ID:Rfox9sea.net
- おお~
- 70 :名無しさん@お腹いっぱい。:2023/05/23(火) 00:08:48.90 ID:0ky3bgpk.net
- すごいな
もうこれほぼ実用レベルだろ
- 71 :名無しさん@お腹いっぱい。:2023/05/23(火) 10:15:42.66 ID:oLp/FlTS.net
- https://i.imgur.com/vHvapQe.mp4
背景を白に近くすることで抜きミスを目立たなくさせる戦法
- 72 :名無しさん@お腹いっぱい。:2023/05/25(木) 16:08:00.95 ID:UmKYW6f1.net
- >>40の投稿者はi2i使ってないんだな
解説記事出してたわ
https://civitai.com/models/71685/gif-controlnet-m2m-script
- 73 :名無しさん@お腹いっぱい。:2023/05/25(木) 22:04:36.80 ID:uKAme7hX.net
- 記事読んだがプリプロセス周りをいろいろ説明してくれてるのはいいね。controlnetを十枚くらい使える設定にしててすげえと思ったけどその辺の解説がなかったのは残念…
- 74 :名無しさん@お腹いっぱい。:2023/05/26(金) 10:38:20.74 ID:ToaQkoAT.net
- >>72
GTX1070使っとるちうのが嬉しいニュースかもしれんねその人
- 75 :名無しさん@お腹いっぱい。:2023/05/26(金) 19:33:59.67 ID:9hGkOc2P.net
- 英語で書かない言い訳がウザい
すげえ性格悪そう
- 76 :名無しさん@お腹いっぱい。:2023/05/27(土) 08:47:46.53 ID:zl3AhxDP.net
- >>72
CNの中身はi2iの部類だろ…
- 77 :名無しさん@お腹いっぱい。:2023/05/30(火) 00:58:03.75 ID:qzOAncGu.net
- 画像のノリで動画が出せるようになるにはどのぐらいかかるんだろう
- 78 :名無しさん@お腹いっぱい。:2023/05/30(火) 04:49:19.38 ID:I6omtO+U.net
- おはようございます
ふたばにAI板ができていますね
ここの人たちはご存知かもしれませんが
- 79 :名無しさん@お腹いっぱい。:2023/06/04(日) 01:31:01.21 ID:pr6us+7o.net
- gen-2とか、comming very soonとか言いながらもう2ヶ月半が経つ
結局半端なAI企業より、ガンガン出していく在野の技術者の方が上だな
- 80 :名無しさん@お腹いっぱい。:2023/06/04(日) 12:44:41.21 ID:UrwVwm68.net
- >>79
そりゃあ検証は他ユーザーに丸投げできるし、問題起きても知らんぷりできるからな
- 81 :名無しさん@お腹いっぱい。:2023/06/07(水) 07:52:14.70 ID:ep5aifrw.net
- 個人で1024x576とかわりと高解像度での動画学習に挑戦してる人とか出てきてるな
ちょっとサンプル見る限りけっこう奇麗にできてるし
- 82 :名無しさん@お腹いっぱい。:2023/06/07(水) 22:32:03.31 ID:mg/HcfsF.net
- gen2が出たな
https://youtu.be/BpoOVEEDiFA
- 83 :名無しさん@お腹いっぱい。:2023/06/09(金) 15:15:59.67 ID:OI3Uh+ub.net
- 顔のみ変換自動化の実験サンプルとして改変再配布可能なブスの動画欲しい
- 84 :名無しさん@お腹いっぱい。:2023/06/10(土) 12:30:32.82 ID:g7wxEi3O.net
- >>82
試したけど思い通りの作るの難しい
gen2は部分的には奇麗だけど大きなパーツの雑な切り貼り感があるんだよな
全体的にちょっと歪でもプロンプトに比較的柔軟なModelScopeのほうが好き
- 85 :名無しさん@お腹いっぱい。:2023/06/11(日) 17:07:13.68 ID:VsG9/Wt2.net
- gen-2には敵わないがpotat1ってモデルもなかなか良い
>>81が言ってるのもこれの事かも
- 86 :名無しさん@お腹いっぱい。:2023/06/12(月) 22:17:38.45 ID:CdQzXQvi.net
- >>85
それだね
potatモデルからさらに特定概念を学習させてみた
画像数十枚程度でもまあまあ似せられる
動画ブームもそろそろくるか?
https://imgur.com/a/uVvnknc
- 87 :名無しさん@お腹いっぱい。:2023/06/13(火) 02:59:59.75 ID:h0xD1nDm.net
- Twitterで海外からも色々流れてくるけど、ロトスコープ系はもう実用レベルに来始めてるな
ゼロから生成するものは、3Dの動きとタグ付けしないと最後まで粗が抜けない気もする
両方の手法で保管しあってブレイクスルー来ないかな
- 88 :名無しさん@お腹いっぱい。:2023/06/14(水) 16:38:02.67 ID:Izwu26ye.net
- Stable Diffusionで出力した後パワーディレクターのAIで味付けしてみた
AI七日目だけど結構うまくできたから見てください
どうだろう
https://xxup.org/n0It8.mp4
- 89 :名無しさん@お腹いっぱい。:2023/06/14(水) 17:00:24.45 ID:U/eHFB/g.net
- ええやん
あからさまにズレたコマをカットするなりi2iし直せばもっと良くなるだろな
- 90 :名無しさん@お腹いっぱい。:2023/06/14(水) 19:00:17.54 ID:Izwu26ye.net
- >>89
ありがとう!!
嬉しい!
自分を撮ってやったら何故か上手くいかなかったw
色々試してみます!
- 91 :名無しさん@お腹いっぱい。:2023/06/15(木) 06:58:05.08 ID:VyYDkl30.net
- 自分で撮影したのをそのまま使ったらダメ
1分以内かつプレミアとかで修正しろ
- 92 :名無しさん@お腹いっぱい。:2023/06/15(木) 13:35:43.67 ID:mk7oiuBg.net
- 規制待ったなし
AI悪用で巧妙化する性的恐喝 存在しないわいせつ画像をでっち上げ 米国では自殺者も [香味焙煎★]
https://asahi.5ch.net/test/read.cgi/newsplus/1686801507/
- 93 :名無しさん@お腹いっぱい。:2023/06/15(木) 15:35:10.04 ID:kmENr7xQ.net
- 悪いことするやつが悪い
- 94 :名無しさん@お腹いっぱい。:2023/06/15(木) 15:41:04.81 ID:J5kxiTYb.net
- >>88
自分では作ったこと無い身で言うのもなんだけど、SD側では10fpsとかで作って、flowflameみたいな補完(中割り)ソフトで滑らかにすればSD側での破綻が少なくなる気がする
- 95 :名無しさん@お腹いっぱい。:2023/06/23(金) 18:24:43.15 ID:kxTsLhIM.net
- rerenderのコード公開楽しみだな
- 96 :名無しさん@お腹いっぱい。:2023/06/29(木) 14:56:04.21 ID:pA0BcpXN.net
- 動画はまだまだか
- 97 :名無しさん@お腹いっぱい。:2023/07/01(土) 17:29:28.29 ID:zdyDc2Gi.net
- ちょい前から追ってたtext2videoの動画生成系のDiscordサーバーがちょっとずつ盛り上がってきているが
解像度が上がって奇麗になったりはしてるもののベース技術の革新について目立ったものはあんまりだな
画像から動画を作成できるとかそのくらいか
ロト系は追ってないけど最近どうなんだろ
- 98 :名無しさん@お腹いっぱい。:2023/07/01(土) 20:52:00.42 ID:dxlLbclT.net
- 今更wonder studioがtwitterではバズり始めてるな
3Dモデルを自作出来る人なら楽しめるのだろうが
あと変換がローカルじゃないのがキツイな
- 99 :名無しさん@お腹いっぱい。:2023/07/02(日) 23:08:02.01 ID:p0euAbkQ.net
- >>98
3Dモデル作れるけど面倒だし時間がかかる。
早くAIで自動生成できるようになってほしい。
- 100 :名無しさん@お腹いっぱい。:2023/07/03(月) 17:12:58.31 ID:7MQfMqhU.net
- 3Dはぶっちゃけ顔パーツのテクスチャだけ自動生成できりゃそれで事足りる気はする
髪型もパーツの組み合わせで大体行けるし
あとはアバターエディタみたいなの使ったほうが早い
- 101 :名無しさん@お腹いっぱい。:2023/07/05(水) 22:43:43.40 ID:hrUJULTL.net
- なんか進化がイマイチだな
既存動画突っ込んでプロンプトでキャラをどんどん仕上げる、ぐらい出来ないもんか
- 102 :名無しさん@お腹いっぱい。:2023/07/16(日) 00:08:18.69 ID:QfNhsqMa.net
- rerenderはまだこないのか
- 103 :名無しさん@お腹いっぱい。:2023/07/19(水) 20:21:51.57 ID:dA43gKmF.net
- 動画のinpaint機能が欲しくて某リポジトリを色々弄ってみたが素人にはやっぱ無理だった
- 104 :名無しさん@お腹いっぱい。:2023/07/23(日) 06:16:54.89 ID:Nvl5XCMN.net
- wonder studioと同じことをローカルでやる方法ない?
- 105 :名無しさん@お腹いっぱい。:2023/07/23(日) 17:14:21.81 ID:AfQQtjaJ.net
- ない
- 106 :名無しさん@お腹いっぱい。:2023/07/23(日) 19:48:26.89 ID:xGYya0Li.net
- ある
- 107 :名無しさん@お腹いっぱい。:2023/07/23(日) 21:30:00.18 ID:X5/kcTND.net
- ついてる
- 108 :名無しさん@お腹いっぱい。:2023/07/23(日) 23:41:43.97 ID:1FuPd7ow.net
- ついてない
- 109 :名無しさん@お腹いっぱい。:2023/07/23(日) 23:52:32.00 ID:KJ6e2CeF.net
- ついてる
- 110 :名無しさん@お腹いっぱい。:2023/07/24(月) 11:43:19.05 ID:KqwARjVV.net
- アレどっちどっちTRANCE、TRANCE、TRANCE
- 111 :名無しさん@お腹いっぱい。:2023/09/06(水) 10:07:13.53 ID:7kJ5g0kd.net
- 調べても良くわかんねえからスレ探してきたけど、ここも良くわかんねえな
悲しい
- 112 :名無しさん@お腹いっぱい。:2023/09/07(木) 15:14:43.88 ID:K9AD+GhN.net
- 1.6にしたらmov2movのタブなくなったんだけどわかる人いる?
- 113 :名無しさん@お腹いっぱい。:2023/09/23(土) 15:38:02.82 ID:lBQrCGZs.net
- animateDiffは画像よりかそれとも動画よりかどちらだろう
- 114 :名無しさん@お腹いっぱい。:2023/09/24(日) 15:17:52.47 ID:R3Hstf6f.net
- mov2movは4月からアップデートが止まっているので元を削除して別の作者の改変版を入れる必要がある
- 115 :名無しさん@お腹いっぱい。:2023/11/27(月) 20:30:00.91 ID:8viQ2T2u.net
- AIだとなんでツルツルした肌になってしまうん?
出来ても艶消し程度
もっとザラッとした質感に出来ないの
- 116 :名無しさん@お腹いっぱい。:2023/11/28(火) 01:18:34.63 ID:Q+JKjYqq.net
- >>115
プロンプトでザラザラにすればいいじゃないか
ザラザラ スキンって
- 117 :名無しさん@お腹いっぱい。:2023/11/28(火) 07:50:03.54 ID:PyPi/IVv.net
- raw skin
- 118 :名無しさん@お腹いっぱい。:2023/12/02(土) 06:08:35.66 ID:o7MywLfy.net
- 画像から動画を生成できるってことは、未来を予測できる能力があるってこと
つまり、これ因果推論ができるってことなのよね
- 119 :名無しさん@お腹いっぱい。:2023/12/02(土) 06:08:38.55 ID:o7MywLfy.net
- 画像から動画を生成できるってことは、未来を予測できる能力があるってこと
つまり、これ因果推論ができるってことなのよね
- 120 :名無しさん@お腹いっぱい。:2023/12/02(土) 06:21:14.34 ID:4Cim3LgM.net
- 予測なんかしてない
やってることは画像生成とまったく同じで、学習結果を適当につなぎ合わせてるだけ
- 121 :名無しさん@お腹いっぱい。:2023/12/02(土) 18:38:58.53 ID:TvblqHa9.net
- よくメモリは大量に必要でCPUはそんなんでもないって言うけど
そういうところがおすすめしてるPCは20万ぐらいする
メモリが大量に積んでればいいんなら数万の格安ノートPCでもいいんじゃね
- 122 :名無しさん@お腹いっぱい。:2023/12/02(土) 22:36:15.37 ID:4Cim3LgM.net
- >>121
メモリー対して必要なくて
VRAM が重要
- 123 :名無しさん@お腹いっぱい。:2023/12/02(土) 23:52:44.98 ID:cZ+sZi2c.net
- ライフルの学習データとか配布されてない?
- 124 :名無しさん@お腹いっぱい。:2023/12/03(日) 13:26:34.88 ID:c8EqufWx.net
- そこにAIはあるんか
- 125 :名無しさん@お腹いっぱい。:2023/12/03(日) 14:12:35.55 ID:Hf2W5L5d.net
- webuiだけ使うならメインメモリ16GBでも行けるが、指の修正にフォトショップ立ち上げたりすると32GB、可能なら64GB欲しくなる。メモリは安いから黙って64GB積めば何の心配も要らなくなる。
- 126 :名無しさん@お腹いっぱい。:2023/12/06(水) 19:09:15.42 ID:2yqUUbSC.net
- フォトショップはVRAMも持ってくからPC分けた方が良くないか?
- 127 :名無しさん@お腹いっぱい。:2023/12/07(木) 17:44:22.48 ID:NSQfYRAQ.net
- VRAMって何時のPCだよw
- 128 :名無しさん@お腹いっぱい。:2023/12/07(木) 17:57:47.39 ID:0g041Fzu.net
- >>127
U BIOS
- 129 :名無しさん@お腹いっぱい。:2023/12/09(土) 09:11:29.93 ID:b29uHZ0T.net
- >>127
https://dosparaplus.com/library/details/000734.html
- 130 :名無しさん@お腹いっぱい。:2023/12/11(月) 14:43:45.36 ID:666lkiWg.net
- 今のフォトショはAIはもちろん生成もするしな
VRAM使うか使わないかは使う機能次第だが、無知ほど草生やすのが5chだなと
- 131 :名無しさん@お腹いっぱい。:2023/12/18(月) 01:44:29.65 ID:eGye5r1x.net
- i2vgen-xlってリポジトリが急激に伸びてるようだけど今週は試せなかったな・・・やりたいことが多すぎる
- 132 :名無しさん@お腹いっぱい。:2024/02/19(月) 23:47:20.73 ID:1EpBHjR0.net
- キャラが古いけどサクラ大戦のアイリスの騎乗位
https://uploader.purinka.work/src/30681.gif
stablediffusionのmov2movでもある程度キャラに一貫性のあるエロ動画を作れるようになった
生成された動画を元動画にして蒸留するみたいになんとか生成しなおしていけば
ある程度一貫性が保てる
でも、一からの生成ではなく元動画が必要
ここからもっと洗練されたものを作りたいんだけど
何か良いアイデアはないですかね?
- 133 :名無しさん@お腹いっぱい。:2024/02/19(月) 23:55:00.93 ID:3Pawlx0m.net
- なんでこんなチラチラするの?
直せない?
- 134 :名無しさん@お腹いっぱい。:2024/02/20(火) 00:06:02.85 ID:kSIoQDwZ.net
- mp4をgifに変換する時に劣化したみたい
mp4をそのままあげてみるかな?
- 135 :名無しさん@お腹いっぱい。:2024/02/20(火) 00:49:55.36 ID:kSIoQDwZ.net
- https://uploader.purinka.work/src/30682.mp4
元のmp4動画、自分でリピートしてね
で、これはmmdのフランドールのエロ動画から作ったもの
色々試して見たけど、黒髪から金髪キャラへ金髪から黒髪キャラは変更しにくいね
31 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200