Blender Part89
1 :名無しさん@お腹いっぱい。 (ササクッテロ Sp23-yfoU) :[ここ壊れてます] .net ↑ スレ立ての時は上のをコピーしてください オープンソースの3Dソフトウェア Blender に関するスレッドです。 ホーム https://www.blender.org/ ダウンロード https://www.blender.org/download/ サポート https://www.blender.org/support/ 日本語マニュアル https://docs.blender.org/manual/ja/latest/ ■前スレ Blender Part87 https://mevius.5ch.net/test/read.cgi/cg/1652655150/ ■ip有スレこちら Blender Part74 https://mevius.5ch.net/test/read.cgi/cg/1583777413/ 次スレは>>970 が立ててください。 Blender Part88 https://mevius.5ch.net/test/read.cgi/cg/1657665191/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2 :名無しさん@お腹いっぱい。 :2022/09/15(木) 12:31:43.99 ID:tHzN4ow50.net ササクッテロがいなくなるまでは他所でやるわ
3 :名無しさん@お腹いっぱい。 :2022/09/15(木) 12:36:53.07 ID:HoE+IbRq0.net ちょっとウンコしてくる
4 :名無しさん@お腹いっぱい。 :2022/09/18(日) 18:52:46.50 ID:h1Cfesfmr.net Amazonにある海外のBlenderの本高すぎ スカルプトのやつ面白そうだけど基本のことしか書いてなかったら嫌だな
5 :名無しさん@お腹いっぱい。 :2022/09/18(日) 20:04:14.76 ID:UWEQ0gDdp.net 最近メカのBlender本出たよね 5000円くらいするけど本屋でさらっと見た感じその価値は無いかなと個人的に思った BlenderはYouTubeに教材ゴロゴロ転がってるからそれやった方が良いよね
6 :名無しさん@お腹いっぱい。 :2022/09/18(日) 20:09:04.35 ID:+PvpytQ/0.net コミケで売ってたblender内部構造解説本はすげーなと思った
7 :名無しさん@お腹いっぱい。 :2022/09/18(日) 20:12:40.61 ID:UWEQ0gDdp.net >>6 マジ?コミケとかそっち方面詳しくなくて詳細オナシャス
8 :名無しさん@お腹いっぱい。 :2022/09/18(日) 22:12:59.27 ID:NRYI8lBn0.net これじゃない? https://3dnchu.com/archives/blender-internals/
9 :名無しさん@お腹いっぱい。 :2022/09/18(日) 22:46:08.70 ID:k6Y0JyiFr.net 3.3LTSはいいけど、OpenData公式ベンチはなぜ未だに3.0なん 手が回らないなら別にいいけどさ
10 :名無しさん@お腹いっぱい。 :2022/09/18(日) 23:04:59.44 ID:Y9FxNeoV0.net おまかん
11 :名無しさん@お腹いっぱい。 :2022/09/19(月) 00:25:59.91 ID:l8at3qvGr.net 電子書籍なら安いんだけど技術書を電子はなー iPadとかタブレットあればいいけど
12 :名無しさん@お腹いっぱい。 :2022/09/19(月) 02:09:49.30 ID:TQBEl0+0r.net おうopendataのDLページ見たら3.1.0だったわ 解析本気になるけど紙で欲しいな 紙のほうが読める気がする
13 :名無しさん@お腹いっぱい。 :2022/09/19(月) 04:36:36.79 ID:VYZHr2Ve0.net 刷った本は欲しいなあ ネットのチュートリアルは、下手すると画面の半分が広告だもん
14 :名無しさん@お腹いっぱい。 :2022/09/19(月) 20:27:36.75 ID:aIqpuxL20.net dream texture導入しようとしたけど 環境構築のやり方がよくわからん…
15 :名無しさん@お腹いっぱい。 :2022/09/19(月) 21:03:25.85 ID:m8QrP3NT0.net >>14 こちらはササクッテロのスレなので初心者スレに書きました https://mevius.5ch.net/test/read.cgi/cg/1663078306/44
16 :名無しさん@お腹いっぱい。 :2022/09/20(火) 09:21:08.07 ID:5OLEIFhb0.net >>15 あら、今見たらそうだわ 今後スルーする
17 :名無しさん@お腹いっぱい。 :2022/09/25(日) 01:16:10.82 ID:fY4pZjnHr.net スレを誰が立てたなんて関係ないのに勝手に縛ってコミュニティを停滞させるのか
18 :名無しさん@お腹いっぱい。 :2022/09/25(日) 15:55:21.13 ID:NS7jxk6M0.net 変なのがテンプレやタイトルを改変してるって言うならともかく 普通に立ててるんだから別に問題ないわな
19 :名無しさん@お腹いっぱい。 :2022/09/25(日) 19:25:47.23 ID:+68k2aHr0.net 会社にBlender3.3のインストール申請を出したいけど、一回バグフィックスが来てからの方が無難かな~?
20 :名無しさん@お腹いっぱい。 :2022/09/26(月) 14:24:08.95 ID:39fBBRoOr.net なんかちゃんと設定したはずなのにコーティクスが反応しないお 標準のはもう諦めてluxcoreなるレンダーを試すんだけど 他の3DCGソフトって反射や透過コーティクスって簡単に普通に出るのかな
21 :名無しさん@お腹いっぱい。 :2022/09/26(月) 14:48:51.82 ID:VOFSQj+N0.net そもそもコースティクスを現実的な時間でレンダリングするのが難しいためいずれにせよ難しいはず
22 :名無しさん@お腹いっぱい。 (ワッチョイ 12ad-tX/F) :[ここ壊れてます] .net >>20 自分も動画見て普通に真似しただけじゃ機能しなくて ここ https://developer.blender.org/T99257 見て shade flat だったのを shade smooth にしたら機能した
23 :名無しさん@お腹いっぱい。 :2022/09/26(月) 17:11:02.85 ID:39fBBRoOr.net >>22 ゔぉーありがとう こういう小さいミスってほんと躓くよね でもcyclesだと反射コーティクスがまだないんだよね 車のヘッドライト作りたいけど厳しそう luxcoreも詳しくないけどopenclだからか? GPU使えないっぽいからCPUのみのレンダリングだいぶ時間かかる
24 :名無しさん@お腹いっぱい。 :2022/09/26(月) 18:05:56.48 ID:V2T25cl6p.net >>19 へえ、会社でBlender使えるんだねえ(´・ω・`)
25 :名無しさん@お腹いっぱい。 :2022/09/26(月) 18:08:55.25 ID:1JQTLJJPa.net 意外と無くはない
26 :名無しさん@お腹いっぱい。 :2022/09/26(月) 18:53:28.28 ID:V2T25cl6p.net マジかあ零細や中小クラスとかだと割とBlenderも有りになってきてる感じなんかね(´・ω・`)
27 :名無しさん@お腹いっぱい。 :2022/09/26(月) 20:10:54.99 ID:/7tAMcjv0.net なぜ零細や中小クラスに限定する?馬鹿なの?
28 :名無しさん@お腹いっぱい。 :2022/09/26(月) 21:00:36.15 ID:DDwG06VT0.net MultiResからノーマルマップ作るのはわかるんだけど逆の操作できないかな ノーマルマップを書き直すためにMultiResを介したいと思ってるんだけど ハイポリモデルをノーマルマップからディスプレイスメントして…みたいな方法取らないとダメなのかな
29 :名無しさん@お腹いっぱい。 (ササクッテロラ Sp47-bOkU) :[ここ壊れてます] .net Blender3.4の新機能の1つ「リアルタイムコンポジター」を使ってみた。 レンダリングなしでコンポジットの結果が表示される機能で、ビューポート上に反映するからこりゃすごい…。#b3d https://twitter.com/natsumori_katsu/status/1574227573789569031?s=46&t=dJxydP38w8mXQBayxyN-JA (deleted an unsolicited ad)
30 :名無しさん@お腹いっぱい。 :2022/09/27(火) 07:24:38.99 ID:N106blPsM.net >>28 それ知りたい ローポリとノーマルマップから ハイポリ生成したい 方法ないのか?
31 :名無しさん@お腹いっぱい。 :2022/09/27(火) 09:12:49.33 ID:vRtpjtMHM.net ノーマルはハイトマップにはならないからなあ 疑似変換ツールならあったような気もするけど
32 :名無しさん@お腹いっぱい。 :2022/09/27(火) 09:38:01.30 ID:iBCIoI+ra.net bumpやheightからAOやnormalが計算できた気がするが逆は無理なのか
33 :名無しさん@お腹いっぱい。 :2022/09/27(火) 09:51:13.54 ID:E6YLo8LQ0.net 昔crazyBumpでノーマル→height生成してzbrushで反映してみた事があるが、あまり正確ではなかったような記憶 まあゲームのローポリでサブディビジョン向けのトポロジーじゃなかったからかもしれんが
34 :名無しさん@お腹いっぱい。 :2022/09/27(火) 13:38:53.48 ID:kA6e+7o00.net 例えば全体が「ちょっと左に傾いてる」っていうnormalMapって簡単に作れるけど 愚直にそのmapから高低を割り出そうとすると右端に向かってひたすら盛り上がることになる っていう処理をpixelって制限のあるmap内全箇所で破綻なくやろうとするようなものだからね それこそよっぽど賢い推測AIとかを活用してやっとそれなりの再現性に届くようなものかと
35 :名無しさん@お腹いっぱい。 :2022/09/27(火) 13:47:11.73 ID:ZTKEAj6f0.net normalは生成時にnormalizeするが正規化すると高さ(Z)情報は消えてなくなる hightからnormalは作れるが、逆は不可能ってこった
36 :名無しさん@お腹いっぱい。 :2022/09/27(火) 15:54:09.14 ID:iBCIoI+ra.net なるほど
37 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:24:10.93 ID:bqzG+XAV0.net いやノーマルは傾きだから積分すれば高さは出せるが
38 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:32:19.99 ID:iBCIoI+ra.net なるほど……
39 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:52:06.97 ID:FHvXbl9k0.net 元のVector3の長さはNormal*nだろ? nは正規化で消えたので復号は出来ない nを知る方法が存在しないからだよ
40 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:56:10.66 ID:iBCIoI+ra.net なるほどな……
41 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:57:46.63 ID:bqzG+XAV0.net ベクトルの長さは関係ないだろ 必要なのは傾きとテクセルに対応する3D空間での距離
42 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:00:57.23 ID:bqzG+XAV0.net https://developer.download.nvidia.com/assets/gamedev/docs/nmap2displacement.pdf 詳しくはここに書いてる 実際にやったときの難しさも
43 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:08:13.84 ID:iBCIoI+ra.net そういうことか……
44 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:14:07.82 ID:kA6e+7o00.net >>42 おーまとまっててわかりやすいソースやね
45 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:24:55.91 ID:FHvXbl9k0.net https://i.imgur.com/rwSd7lT.png これ玉をNormalに焼いたものだけど 中心と外側が128:128:255で両方ともベクトルは1だけど ホントに出せるの?正確に ddxもddyもshaderでしかアクセス出来ない筈だけどblenderだとどうやるの?
46 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:35:07.59 ID:kA6e+7o00.net >>45 viewベースだと元ジオメトリとの比較になるからまたちょっと話違うと思う 上の話はあくまでUVベースだし で上のソースでも言ってると思うけど「正確に」ってのは困難 あくまでいくらか条件が整ったときにそれなりの再現性があるってくらい
47 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:52:25.13 ID:FHvXbl9k0.net 要はSceneDepthからddx,ddyを取ってるから視点から写った物しか取れないって事だよね
48 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:59:29.00 ID:Z61ByBJd0.net 何言ってだこいつ
49 :名無しさん@お腹いっぱい。 :2022/09/27(火) 18:08:08.54 ID:FHvXbl9k0.net https://learn.microsoft.com/ja-jp/windows/win32/direct3dhlsl/dx-graphics-hlsl-ddx ddx/ddyはスクリーンスペースなんだが
50 :名無しさん@お腹いっぱい。 :2022/09/27(火) 18:11:08.02 ID:vRtpjtMHM.net >視点から写った物しか 正確に言うと元ジオメトリメッシュのノーマル方向に検出できるデータだけってことだけど そりゃheightMapでもなんでもそうでしょ
51 :名無しさん@お腹いっぱい。 :2022/09/27(火) 19:40:59.04 ID:iBCIoI+ra.net よくわからんがHLSLの話ができそうな人が結構いて安心したわ なんかもっとコーディングアレルギーみたいなの持ったアーティスト寄りの人がメインだと思ってたから正直プチ感動
52 :名無しさん@お腹いっぱい。 :2022/09/27(火) 20:03:07.60 ID:iBCIoI+ra.net ところでBlenderってDirect3d描画なの?
53 :名無しさん@お腹いっぱい。 :2022/09/27(火) 22:55:21.17 ID:Ib97miTG0.net UE5を憎きMAYAにNTRれた辛い
54 :名無しさん@お腹いっぱい。 :2022/09/27(火) 23:04:27.00 ID:Uq0naITV0.net epicにすりゃblenderなんていつでも抱けるセフレみたいなもん
55 :名無しさん@お腹いっぱい。 :2022/09/27(火) 23:12:41.70 ID:TFEQgVfUa.net Blenderはパトロン居すぎて姫みたいな立ち位置だから……
56 :名無しさん@お腹いっぱい。 :2022/09/28(水) 00:12:11.10 ID:q+pf3cIh0.net >>29 3.4で遂に搭載されるかレアルタイムコンポジター
57 :名無しさん@お腹いっぱい。 :2022/09/28(水) 00:13:46.05 ID:WC3vjeun0.net リアルタイムコンポジターはリアルタイムでエフェクトが表示されるからゲームエンジンみたいだ
58 :名無しさん@お腹いっぱい。 :2022/09/28(水) 00:19:50.68 ID:58ns81qm0.net マテリアルプロパティで新規マテリアル作ってもベースカラーなどの設定が出てきません。ラインアートやビューポート、カスタムプロパティの項目があるだけです、 解決方法知っているかたいませんか?
59 :名無しさん@お腹いっぱい。 :2022/09/28(水) 11:35:29.78 ID:JUDQ3PWk0.net IntelのArc A770が10月12日から発売するけど Blenderに使うのはどんなものなんだろ? ゲーム用途にはイマイチらしいけどcyclesの レンダリングでそこそこ出るなら329ドルで 16GB もあるならお得そうに見えるけど
60 :名無しさん@お腹いっぱい。 (ワッチョイ 1610-my3m) :[ここ壊れてます] .net ちゃんと動けば用途次第では使えるだろうけど ちゃんと動けば…
61 :名無しさん@お腹いっぱい。 (ワッチョイ 12ad-tX/F) :[ここ壊れてます] .net 動かない状況ってどういうの?
62 :名無しさん@お腹いっぱい。 (ワッチョイ 1610-my3m) :[ここ壊れてます] .net クラッシュするとか面が落ちるとか反射がおかしいとか
63 :名無しさん@お腹いっぱい。 (ワッチョイ 12ad-tX/F) :[ここ壊れてます] .net なんでいきなりそんな想定w そういう不具合が今までも出てるの?
64 :名無しさん@お腹いっぱい。 :2022/09/28(水) 12:22:57.46 ID:Q5wwsR3C0.net 新しいから心配なんだろう
65 :名無しさん@お腹いっぱい。 :2022/09/28(水) 12:36:53.25 ID:ERKUXDzzM.net 新しいものなんだから普通に出てもおかしくないんじゃ?少なくとも最適化はまだまだやろ
66 :名無しさん@お腹いっぱい。 :2022/09/28(水) 13:07:44.60 ID:iYg6qX7N0.net >>59 安かろう悪かろうの典型
67 :名無しさん@お腹いっぱい。 :2022/09/28(水) 13:21:22.06 ID:JUDQ3PWk0.net 一応3.3でIntelのレンダリングに対応したから期待して たんだけどこればかりは実際製品が出てからのレビュー 次第かな?
68 :名無しさん@お腹いっぱい。 :2022/09/28(水) 15:32:46.50 ID:3dWIxRnYa.net 買えばいいんだよ
69 :名無しさん@お腹いっぱい。 :2022/09/28(水) 20:42:01.81 ID:Gxko3s6Qp.net AI画像生成がとうとう3Dに進出しつつあって割とヤバイ件(´・ω・`)
70 :名無しさん@お腹いっぱい。 :2022/09/28(水) 21:20:35.50 ID:FPWj9qk7M.net 5年もしたらモデリングはAIで誰でもできる時代になるかな?
71 :名無しさん@お腹いっぱい。 :2022/09/28(水) 22:50:37.94 ID:7NnQdocC0.net てかま、スターウォーズのスピンオフで、 若き日のルーク・スカイウォーカーの顔を再現するのに、 マーク・ハミルのあらゆる顔の画像映像から作り出す、ていうのを、 ようつべの ”Corridor Crew"チャンネルで見たばかりで ”Lola vfx”てとこが得意としてんのかな?
72 :名無しさん@お腹いっぱい。 :2022/09/29(木) 01:34:40.20 ID:AThgS/L5p.net >>70 Hirokazu Yokohara @Yokohara_h (2022/09/26 11:42:34) 画像生成AIで一貫性のあるキャラデザを出力。コレが出来るようになると画像生成AIの使い道が凄く増えそう https://ohayua.cyou/tweet/1574227903805390849/Yokohara_h [引用元] NovelAI @novelaiofficial (2022/09/25 09:37:33) #NovelAI Image Generation Progress Showcase: When you include tags in your prompts, you may produce more of the same character with greater consistency! https://ohayua.cyou/twimg/FddgYndXkAIszNh.jpg https://ohayua.cyou/tweet/1573834053031280641/novelaiofficial 2Dはたった数ヶ月でここまで来て平均的な絵師壊滅しそうな勢い(´・ω・`)
73 :名無しさん@お腹いっぱい。 :2022/09/29(木) 03:30:27.21 ID:wbKGx8+J0.net 実際metahumanはスキャンモデルからunrealに最適化されたキャラデータを自動生成できてるから、 3Dモデルのリソースが増えれば、いずれリアル系でもスタイライズ系でも自動生成は可能になるだろうな。 テンプレートを設定しやすい人体は特に。 ただ、だからこそ日本的なエッセンスが強みになる。 アメコミは同じような画風に収斂しがちだが、日本のマンガは一作家一画風で、遊戯王もジョジョもH×Hも全然違う。しかもそれが世界でウケてる。 最適化されやすい普遍的な作風はAIが収奪して価値が低くなり、個人のクセのある作家性はむしろ価値を増す。 これから3Dアーティストの目指すべき姿は日本的な個人作家性だよ。 成田祐輔も似たような事言ってる。https://youtu.be/c4oKRK_61KA
74 :名無しさん@お腹いっぱい。 :2022/09/29(木) 05:29:54.68 ID:oqprFZIc0.net BlenderなんてAIが進化したら消えるとか 負け惜しみで埋めたい奴が居るのね
75 :名無しさん@お腹いっぱい。 (ワッチョイ 929b-r4yT) :[ここ壊れてます] .net メカ作る予定がないのに なんとなく少年心で買ってしまってたDecalMachineの使い道何かないかな
76 :名無しさん@お腹いっぱい。 (ワッチョイ 1610-my3m) :[ここ壊れてます] .net 小物類
77 :名無しさん@お腹いっぱい。 :2022/09/29(木) 09:43:00.66 ID:pomTXBkTM.net >>75 わかるわーw
78 :名無しさん@お腹いっぱい。 :2022/09/29(木) 17:56:31.21 ID:cB9eFPcAp.net >>73 その作家性すら学習して個性的なものを作れるのがAIの怖いところなんですわ(´・ω・`) ストーリーありきの漫画ならいざ知らずイラストや3DCGモデルは個性あっても太刀打ち不可[脳]に思える(´・ω・`)
79 :名無しさん@お腹いっぱい。 :2022/09/29(木) 20:25:25.31 ID:BrAPRgqZ0.net モデリングは早く学習して楽にしてくれよん王国
80 :名無しさん@お腹いっぱい。 :2022/09/29(木) 20:30:03.99 ID:1sVKRDxsp.net ストーリーを描けないただのデジタルドカタは近い未来に駆逐されんじゃねえかなと思ってる(´・ω・`)
81 :名無しさん@お腹いっぱい。 :2022/09/29(木) 21:25:47.48 ID:wbKGx8+J0.net >>78 理論的に可能ではあるけどコスパが悪いんだよ。 漫画であれば一コマ描くだけでも「コマ割り」「コマの中の配置」「顔の角度」「表情」「線の太さ」「光の方向」「目線」とか多数の情報を全部入れて出力画像を試行錯誤していかなきゃならない。 それなら熟練者がすぐに描いた方が早い。 どんなにAIが発達しても「情報の入力」の手間は避けられないんだよ。 普遍的な作風ならまだ統一感は出せるだろうけど、作家性の強い作風になる程コスパが悪くなる。 これは3DCGでも同じ。 唯一作家性を再現するならデジタルクローンで作家の思考回路をまるごとトレースする事だけど、逆説的にまず本人が作家性を習得しなければならない。
82 :名無しさん@お腹いっぱい。 :2022/09/30(金) 04:57:54.26 ID:2Q5RqdKh0.net 3DCGでの作家性に関してはAIとの親和性高そうだけどな 既にソフトウェアに指示出してるわけだし手描きの漫画よりはるかにAI向き
83 :名無しさん@お腹いっぱい。 :2022/09/30(金) 05:35:31.48 ID:0Fhjkh8ra.net んなことよりリトポ学習させろよ
84 :名無しさん@お腹いっぱい。 :2022/09/30(金) 06:09:22.09 ID:U10Z6xHs0.net いつまで俺たちはポリゴンなんて言う前時代の遺物を使って3Dデータを作らなきゃいけないんだろうな
85 :名無しさん@お腹いっぱい。 :2022/09/30(金) 07:24:01.24 ID:rEOFyw6L0.net >>82 ボイド(群れシミュレーション)とかな シミュレーションの正確さを取るか、見栄えを取るか
86 :名無しさん@お腹いっぱい。 :2022/09/30(金) 07:35:24.39 ID:mkMAb1Ma0.net やっぱShadeか
87 :名無しさん@お腹いっぱい。 (ササクッテロラ Sp47-bOkU) :[ここ壊れてます] .net 佐藤航陽 著書「世界2.0 メタバースの歩き方と創り方」 @ka2aki86 (2022/09/30 12:35:30) [返信:フォロー/@のみ] 「AIが普及すれば人間は単純作業から解放されて創造的な活動に集中できる」って言われてきたのに、真っ先にクリエイティブな領域がAIに代替されてくのは衝撃だよな。もしかしたらテクノロジーが入り込めない泥臭い人間的な仕事だけが生き残っていくのかもしれない。 https://ohayua.cyou/tweet/1575690775874404352/ka2aki86
88 :名無しさん@お腹いっぱい。 :2022/09/30(金) 15:27:15.24 ID:992MdWOr0.net 大量のBlenderファイルを機械学習させたらモデリングとかボーンの設定を自動化できるのかな?
89 :名無しさん@お腹いっぱい。 :2022/09/30(金) 15:50:36.60 ID:U10Z6xHs0.net >>88 どうだろうなぁ その理屈で言ったらプログラムのバイナリデータをひたすら大量に与えれば勝手にプログラムを吐けるようになるAIが出来ることになるが そんな話聞こえてこないし プログラムさせるAIも研究されてるけど、やっぱり言語認識の方からアプローチしてるからね 3Dデータやプログラムのように小さなまちがいが致命的になる分野だと画像生成AIのような アプローチだとファジーすぎて上手く行かないと思う ウエイトマップを作ったりとかUVマップなら元のジオメトリをいじるわけじゃないから上手く行く可能性は高いけど
90 :名無しさん@お腹いっぱい。 :2022/09/30(金) 17:34:03.71 ID:efp4yFOS0.net 目的が「ゼロから全部作る」ならそうなるが「今の作業時間を大幅短縮」なら答えが出やすい。 人体、馬、鳥、トカゲみたいなテンプレートがあって、その関節と向きをどこに置くかだけ指定すれば6割方カバーできると思う。 物体X的なクリーチャーやトランスフォーマーとかは無理。
91 :名無しさん@お腹いっぱい。 :2022/09/30(金) 17:37:53.92 ID:U10Z6xHs0.net まぁすでにMixamoとかあるし北米の方じゃ俳優の3Dスキャンデータからオートで リトポデータ&ボーンまで吐くシステムがあるらしいし、実現してるっちゃあしてる
92 :名無しさん@お腹いっぱい。 :2022/09/30(金) 18:07:22.15 ID:rEOFyw6L0.net >>86 自由曲面のままレンダリングまで行けるし、 あとから変更も楽 Shadeモデラーだけでもオープンソースにならないかな
93 :名無しさん@お腹いっぱい。 (ワッチョイ ffbe-pIDl) :[ここ壊れてます] .net 「Bezier Mesh Shaper」てアドオンがあったんだっけか あれでもいいんかもしんね
94 :名無しさん@お腹いっぱい。 :2022/10/01(土) 01:11:42.65 ID:5qchsrHG0.net https://guytevet.github.io/mdm-page/ とうとうモーションまでAIが自動作成する時代になるのか!?
95 :名無しさん@お腹いっぱい。 :2022/10/01(土) 01:26:03.29 ID:TLTb6Si70.net モーションの自動化は結構昔からやってね 今のAIとは違うかもしれないけどEuphoria Physics Engineとか
96 :名無しさん@お腹いっぱい。 :2022/10/01(土) 01:43:15.21 ID:yvMszaHD0.net >>95 3DMaxで、足跡つけたらなぞって歩いてくれるってやつがあったっけ
97 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:37:49.07 ID:aOq4xK0/p.net Hirokazu Yokohara @Yokohara_h (2022/09/30 03:20:01) テキストから3D。メッシュへ変換も出来るみたい。すでに結構きれいな3Dが生成されてる。さっきの動画もそうだけどそのうちCGの仕事の在り方が変わっちゃいそうなスピード感! https://ohayua.cyou/tweet/1575550983341424642/Yokohara_h [引用元] AK @_akhaliq (2022/09/30 02:44:03) DreamFusion: Text-to-3D using 2D Diffusion paper: https://openreview.net/pdf?id=FjNys5c7VyY abs: https://openreview.net/forum?id=FjNys5c7VyY project page: https://dreamfusionpaper.github.io/ DeepDream on a pretrained 2D diffusion model enables text-to-3D synthesis https://ohayua.cyou/twimg/ext_tw_video/1575541838332805123/pu/vid/1218x720/0rR3pB_HuLqOfzl3.mp4 やまかず @Yamkaz (2022/09/30 03:59:44) なんて日..。 テキストから動画を生成するAIの後に、3Dを生成するAIが出てきた。(両方とも過去のものより質が高い) 名前は「DreamFusion」。作者は匿名。 ええ、速すぎる ほんとに何が起きてるの https://dreamfusionpaper.github.io https://ohayua.cyou/twimg/ext_tw_video/1575560595473997824/pu/vid/720x720/8LgZfMKB1W0oV46S.mp4
98 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:38:50.64 ID:aOq4xK0/p.net Hirokazu Yokohara @Yokohara_h (2022/09/30 04:13:33) もはやポリゴン弄ってUV開いてる時代じゃねえ。って思いつつ横目で見つつも今ポリゴンの1点1点を手で修正しながらUV開き直してる https://ohayua.cyou/tweet/1575564453910695936/Yokohara_h Hirokazu Yokohara @Yokohara_h (2022/09/30 05:55:57) 3D生成が今後凄い急速に進化するって言ってる。一カ月前は画像生成AIを対岸の火事的に見てたけど早くも3Dにも激動が訪れるのか https://ohayua.cyou/tweet/1575590226101030912/Yokohara_h [引用元] Emad @EMostaque (2022/09/30 05:34:30) Amazing advances with no 3D data! Will be some very interesting announcements in the coming months around this area, really taking off massively fast. There are a few final unlocks and will go exponential into 2024 https://ohayua.cyou/tweet/1575576632068214785/poolio https://ohayua.cyou/tweet/1575584827797307392/EMostaque
99 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:40:16.95 ID:aOq4xK0/p.net Hirokazu Yokohara @Yokohara_h (2022/09/30 02:04:06) コレが進歩していってクオリティ上がってみんなが使えるようになったら動画コンテンツ自体が色々変わるかも。その時はいよいよホントの意味で一人で映画作れるようになる? https://ohayua.cyou/tweet/1575531878836187136/Yokohara_h [引用元] Meta AI @MetaAI (2022/09/29 23:39:24) We’re pleased to introduce Make-A-Video, our latest in #GenerativeAI research! With just a few words, this state-of-the-art AI system generates high-quality videos from text prompts. Have an idea you want to see? Reply w/ your prompt using #MetaAI and we’ll share more results. https://ohayua.cyou/twimg/amplify_video/1575495314261221376/vid/720x720/FfD8xPOMEqZyBKX2.mp4 https://pbs.twimg.com/amplify_video_thumb/1575495314261221376/img/d6oW8ifmlpl9gErS.jpg https://ohayua.cyou/tweet/1575495462894723072/MetaAI
100 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:41:44.89 ID:aOq4xK0/p.net Hirokazu Yokohara @Yokohara_h (2022/09/30 08:50:16) 前から気になってるんだけど直接的に生成できるなら必ずしも従来の3DCGって必要性薄くなっていく気もしてるんだけどどうなんだろ。今のような3DCGの作り方から大きく変化していく?詳しい人に聞いてみたいね https://ohayua.cyou/tweet/1575634095270666241/Yokohara_h
236 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★
本文 スレッドタイトル 投稿者