2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

Blender Part89

1 :名無しさん@お腹いっぱい。 (ササクッテロ Sp23-yfoU):[ここ壊れてます] .net

スレ立ての時は上のをコピーしてください

オープンソースの3Dソフトウェア Blender に関するスレッドです。

ホーム
https://www.blender.org/
ダウンロード
https://www.blender.org/download/
サポート
https://www.blender.org/support/
日本語マニュアル
https://docs.blender.org/manual/ja/latest/

■前スレ
Blender Part87
https://mevius.5ch.net/test/read.cgi/cg/1652655150/

■ip有スレこちら Blender Part74
https://mevius.5ch.net/test/read.cgi/cg/1583777413/

次スレは>>970が立ててください。

Blender Part88
https://mevius.5ch.net/test/read.cgi/cg/1657665191/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

2 :名無しさん@お腹いっぱい。 :2022/09/15(木) 12:31:43.99 ID:tHzN4ow50.net
ササクッテロがいなくなるまでは他所でやるわ

3 :名無しさん@お腹いっぱい。 :2022/09/15(木) 12:36:53.07 ID:HoE+IbRq0.net
ちょっとウンコしてくる

4 :名無しさん@お腹いっぱい。 :2022/09/18(日) 18:52:46.50 ID:h1Cfesfmr.net
Amazonにある海外のBlenderの本高すぎ
スカルプトのやつ面白そうだけど基本のことしか書いてなかったら嫌だな

5 :名無しさん@お腹いっぱい。 :2022/09/18(日) 20:04:14.76 ID:UWEQ0gDdp.net
最近メカのBlender本出たよね
5000円くらいするけど本屋でさらっと見た感じその価値は無いかなと個人的に思った
BlenderはYouTubeに教材ゴロゴロ転がってるからそれやった方が良いよね

6 :名無しさん@お腹いっぱい。 :2022/09/18(日) 20:09:04.35 ID:+PvpytQ/0.net
コミケで売ってたblender内部構造解説本はすげーなと思った

7 :名無しさん@お腹いっぱい。 :2022/09/18(日) 20:12:40.61 ID:UWEQ0gDdp.net
>>6
マジ?コミケとかそっち方面詳しくなくて詳細オナシャス

8 :名無しさん@お腹いっぱい。 :2022/09/18(日) 22:12:59.27 ID:NRYI8lBn0.net
これじゃない?

https://3dnchu.com/archives/blender-internals/

9 :名無しさん@お腹いっぱい。 :2022/09/18(日) 22:46:08.70 ID:k6Y0JyiFr.net
3.3LTSはいいけど、OpenData公式ベンチはなぜ未だに3.0なん
手が回らないなら別にいいけどさ

10 :名無しさん@お腹いっぱい。 :2022/09/18(日) 23:04:59.44 ID:Y9FxNeoV0.net
おまかん

11 :名無しさん@お腹いっぱい。 :2022/09/19(月) 00:25:59.91 ID:l8at3qvGr.net
電子書籍なら安いんだけど技術書を電子はなー
iPadとかタブレットあればいいけど

12 :名無しさん@お腹いっぱい。 :2022/09/19(月) 02:09:49.30 ID:TQBEl0+0r.net
おうopendataのDLページ見たら3.1.0だったわ
解析本気になるけど紙で欲しいな 紙のほうが読める気がする

13 :名無しさん@お腹いっぱい。 :2022/09/19(月) 04:36:36.79 ID:VYZHr2Ve0.net
刷った本は欲しいなあ
ネットのチュートリアルは、下手すると画面の半分が広告だもん

14 :名無しさん@お腹いっぱい。 :2022/09/19(月) 20:27:36.75 ID:aIqpuxL20.net
dream texture導入しようとしたけど
環境構築のやり方がよくわからん…

15 :名無しさん@お腹いっぱい。 :2022/09/19(月) 21:03:25.85 ID:m8QrP3NT0.net
>>14
こちらはササクッテロのスレなので初心者スレに書きました
https://mevius.5ch.net/test/read.cgi/cg/1663078306/44

16 :名無しさん@お腹いっぱい。 :2022/09/20(火) 09:21:08.07 ID:5OLEIFhb0.net
>>15
あら、今見たらそうだわ
今後スルーする

17 :名無しさん@お腹いっぱい。 :2022/09/25(日) 01:16:10.82 ID:fY4pZjnHr.net
スレを誰が立てたなんて関係ないのに勝手に縛ってコミュニティを停滞させるのか

18 :名無しさん@お腹いっぱい。 :2022/09/25(日) 15:55:21.13 ID:NS7jxk6M0.net
変なのがテンプレやタイトルを改変してるって言うならともかく
普通に立ててるんだから別に問題ないわな

19 :名無しさん@お腹いっぱい。 :2022/09/25(日) 19:25:47.23 ID:+68k2aHr0.net
会社にBlender3.3のインストール申請を出したいけど、一回バグフィックスが来てからの方が無難かな~?

20 :名無しさん@お腹いっぱい。 :2022/09/26(月) 14:24:08.95 ID:39fBBRoOr.net
なんかちゃんと設定したはずなのにコーティクスが反応しないお
標準のはもう諦めてluxcoreなるレンダーを試すんだけど
他の3DCGソフトって反射や透過コーティクスって簡単に普通に出るのかな

21 :名無しさん@お腹いっぱい。 :2022/09/26(月) 14:48:51.82 ID:VOFSQj+N0.net
そもそもコースティクスを現実的な時間でレンダリングするのが難しいためいずれにせよ難しいはず

22 :名無しさん@お腹いっぱい。 (ワッチョイ 12ad-tX/F):[ここ壊れてます] .net
>>20
自分も動画見て普通に真似しただけじゃ機能しなくて
ここ https://developer.blender.org/T99257 見て
shade flat だったのを shade smooth にしたら機能した

23 :名無しさん@お腹いっぱい。 :2022/09/26(月) 17:11:02.85 ID:39fBBRoOr.net
>>22
ゔぉーありがとう
こういう小さいミスってほんと躓くよね

でもcyclesだと反射コーティクスがまだないんだよね
車のヘッドライト作りたいけど厳しそう

luxcoreも詳しくないけどopenclだからか?
GPU使えないっぽいからCPUのみのレンダリングだいぶ時間かかる

24 :名無しさん@お腹いっぱい。 :2022/09/26(月) 18:05:56.48 ID:V2T25cl6p.net
>>19
へえ、会社でBlender使えるんだねえ(´・ω・`)

25 :名無しさん@お腹いっぱい。 :2022/09/26(月) 18:08:55.25 ID:1JQTLJJPa.net
意外と無くはない

26 :名無しさん@お腹いっぱい。 :2022/09/26(月) 18:53:28.28 ID:V2T25cl6p.net
マジかあ零細や中小クラスとかだと割とBlenderも有りになってきてる感じなんかね(´・ω・`)

27 :名無しさん@お腹いっぱい。 :2022/09/26(月) 20:10:54.99 ID:/7tAMcjv0.net
なぜ零細や中小クラスに限定する?馬鹿なの?

28 :名無しさん@お腹いっぱい。 :2022/09/26(月) 21:00:36.15 ID:DDwG06VT0.net
MultiResからノーマルマップ作るのはわかるんだけど逆の操作できないかな
ノーマルマップを書き直すためにMultiResを介したいと思ってるんだけど

ハイポリモデルをノーマルマップからディスプレイスメントして…みたいな方法取らないとダメなのかな

29 :名無しさん@お腹いっぱい。 (ササクッテロラ Sp47-bOkU):[ここ壊れてます] .net
Blender3.4の新機能の1つ「リアルタイムコンポジター」を使ってみた。
レンダリングなしでコンポジットの結果が表示される機能で、ビューポート上に反映するからこりゃすごい…。#b3d
https://twitter.com/natsumori_katsu/status/1574227573789569031?s=46&t=dJxydP38w8mXQBayxyN-JA
(deleted an unsolicited ad)

30 :名無しさん@お腹いっぱい。 :2022/09/27(火) 07:24:38.99 ID:N106blPsM.net
>>28
それ知りたい
ローポリとノーマルマップから
ハイポリ生成したい
方法ないのか?

31 :名無しさん@お腹いっぱい。 :2022/09/27(火) 09:12:49.33 ID:vRtpjtMHM.net
ノーマルはハイトマップにはならないからなあ
疑似変換ツールならあったような気もするけど

32 :名無しさん@お腹いっぱい。 :2022/09/27(火) 09:38:01.30 ID:iBCIoI+ra.net
bumpやheightからAOやnormalが計算できた気がするが逆は無理なのか

33 :名無しさん@お腹いっぱい。 :2022/09/27(火) 09:51:13.54 ID:E6YLo8LQ0.net
昔crazyBumpでノーマル→height生成してzbrushで反映してみた事があるが、あまり正確ではなかったような記憶
まあゲームのローポリでサブディビジョン向けのトポロジーじゃなかったからかもしれんが

34 :名無しさん@お腹いっぱい。 :2022/09/27(火) 13:38:53.48 ID:kA6e+7o00.net
例えば全体が「ちょっと左に傾いてる」っていうnormalMapって簡単に作れるけど
愚直にそのmapから高低を割り出そうとすると右端に向かってひたすら盛り上がることになる
っていう処理をpixelって制限のあるmap内全箇所で破綻なくやろうとするようなものだからね

それこそよっぽど賢い推測AIとかを活用してやっとそれなりの再現性に届くようなものかと

35 :名無しさん@お腹いっぱい。 :2022/09/27(火) 13:47:11.73 ID:ZTKEAj6f0.net
normalは生成時にnormalizeするが正規化すると高さ(Z)情報は消えてなくなる
hightからnormalは作れるが、逆は不可能ってこった

36 :名無しさん@お腹いっぱい。 :2022/09/27(火) 15:54:09.14 ID:iBCIoI+ra.net
なるほど

37 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:24:10.93 ID:bqzG+XAV0.net
いやノーマルは傾きだから積分すれば高さは出せるが

38 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:32:19.99 ID:iBCIoI+ra.net
なるほど……

39 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:52:06.97 ID:FHvXbl9k0.net
元のVector3の長さはNormal*nだろ?
nは正規化で消えたので復号は出来ない nを知る方法が存在しないからだよ

40 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:56:10.66 ID:iBCIoI+ra.net
なるほどな……

41 :名無しさん@お腹いっぱい。 :2022/09/27(火) 16:57:46.63 ID:bqzG+XAV0.net
ベクトルの長さは関係ないだろ
必要なのは傾きとテクセルに対応する3D空間での距離

42 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:00:57.23 ID:bqzG+XAV0.net
https://developer.download.nvidia.com/assets/gamedev/docs/nmap2displacement.pdf
詳しくはここに書いてる
実際にやったときの難しさも

43 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:08:13.84 ID:iBCIoI+ra.net
そういうことか……

44 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:14:07.82 ID:kA6e+7o00.net
>>42
おーまとまっててわかりやすいソースやね

45 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:24:55.91 ID:FHvXbl9k0.net
https://i.imgur.com/rwSd7lT.png
これ玉をNormalに焼いたものだけど
中心と外側が128:128:255で両方ともベクトルは1だけど
ホントに出せるの?正確に

ddxもddyもshaderでしかアクセス出来ない筈だけどblenderだとどうやるの?

46 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:35:07.59 ID:kA6e+7o00.net
>>45
viewベースだと元ジオメトリとの比較になるからまたちょっと話違うと思う
上の話はあくまでUVベースだし
で上のソースでも言ってると思うけど「正確に」ってのは困難
あくまでいくらか条件が整ったときにそれなりの再現性があるってくらい

47 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:52:25.13 ID:FHvXbl9k0.net
要はSceneDepthからddx,ddyを取ってるから視点から写った物しか取れないって事だよね

48 :名無しさん@お腹いっぱい。 :2022/09/27(火) 17:59:29.00 ID:Z61ByBJd0.net
何言ってだこいつ

49 :名無しさん@お腹いっぱい。 :2022/09/27(火) 18:08:08.54 ID:FHvXbl9k0.net
https://learn.microsoft.com/ja-jp/windows/win32/direct3dhlsl/dx-graphics-hlsl-ddx
ddx/ddyはスクリーンスペースなんだが

50 :名無しさん@お腹いっぱい。 :2022/09/27(火) 18:11:08.02 ID:vRtpjtMHM.net
>視点から写った物しか
正確に言うと元ジオメトリメッシュのノーマル方向に検出できるデータだけってことだけど
そりゃheightMapでもなんでもそうでしょ

51 :名無しさん@お腹いっぱい。 :2022/09/27(火) 19:40:59.04 ID:iBCIoI+ra.net
よくわからんがHLSLの話ができそうな人が結構いて安心したわ
なんかもっとコーディングアレルギーみたいなの持ったアーティスト寄りの人がメインだと思ってたから正直プチ感動

52 :名無しさん@お腹いっぱい。 :2022/09/27(火) 20:03:07.60 ID:iBCIoI+ra.net
ところでBlenderってDirect3d描画なの?

53 :名無しさん@お腹いっぱい。 :2022/09/27(火) 22:55:21.17 ID:Ib97miTG0.net
UE5を憎きMAYAにNTRれた辛い

54 :名無しさん@お腹いっぱい。 :2022/09/27(火) 23:04:27.00 ID:Uq0naITV0.net
epicにすりゃblenderなんていつでも抱けるセフレみたいなもん

55 :名無しさん@お腹いっぱい。 :2022/09/27(火) 23:12:41.70 ID:TFEQgVfUa.net
Blenderはパトロン居すぎて姫みたいな立ち位置だから……

56 :名無しさん@お腹いっぱい。 :2022/09/28(水) 00:12:11.10 ID:q+pf3cIh0.net
>>29
3.4で遂に搭載されるかレアルタイムコンポジター

57 :名無しさん@お腹いっぱい。 :2022/09/28(水) 00:13:46.05 ID:WC3vjeun0.net
リアルタイムコンポジターはリアルタイムでエフェクトが表示されるからゲームエンジンみたいだ

58 :名無しさん@お腹いっぱい。 :2022/09/28(水) 00:19:50.68 ID:58ns81qm0.net
マテリアルプロパティで新規マテリアル作ってもベースカラーなどの設定が出てきません。ラインアートやビューポート、カスタムプロパティの項目があるだけです、
解決方法知っているかたいませんか?

59 :名無しさん@お腹いっぱい。 :2022/09/28(水) 11:35:29.78 ID:JUDQ3PWk0.net
IntelのArc A770が10月12日から発売するけど
Blenderに使うのはどんなものなんだろ?

ゲーム用途にはイマイチらしいけどcyclesの
レンダリングでそこそこ出るなら329ドルで
16GB もあるならお得そうに見えるけど

60 :名無しさん@お腹いっぱい。 (ワッチョイ 1610-my3m):[ここ壊れてます] .net
ちゃんと動けば用途次第では使えるだろうけど
ちゃんと動けば…

61 :名無しさん@お腹いっぱい。 (ワッチョイ 12ad-tX/F):[ここ壊れてます] .net
動かない状況ってどういうの?

62 :名無しさん@お腹いっぱい。 (ワッチョイ 1610-my3m):[ここ壊れてます] .net
クラッシュするとか面が落ちるとか反射がおかしいとか

63 :名無しさん@お腹いっぱい。 (ワッチョイ 12ad-tX/F):[ここ壊れてます] .net
なんでいきなりそんな想定w
そういう不具合が今までも出てるの?

64 :名無しさん@お腹いっぱい。 :2022/09/28(水) 12:22:57.46 ID:Q5wwsR3C0.net
新しいから心配なんだろう

65 :名無しさん@お腹いっぱい。 :2022/09/28(水) 12:36:53.25 ID:ERKUXDzzM.net
新しいものなんだから普通に出てもおかしくないんじゃ?少なくとも最適化はまだまだやろ

66 :名無しさん@お腹いっぱい。 :2022/09/28(水) 13:07:44.60 ID:iYg6qX7N0.net
>>59
安かろう悪かろうの典型

67 :名無しさん@お腹いっぱい。 :2022/09/28(水) 13:21:22.06 ID:JUDQ3PWk0.net
一応3.3でIntelのレンダリングに対応したから期待して
たんだけどこればかりは実際製品が出てからのレビュー
次第かな?

68 :名無しさん@お腹いっぱい。 :2022/09/28(水) 15:32:46.50 ID:3dWIxRnYa.net
買えばいいんだよ

69 :名無しさん@お腹いっぱい。 :2022/09/28(水) 20:42:01.81 ID:Gxko3s6Qp.net
AI画像生成がとうとう3Dに進出しつつあって割とヤバイ件(´・ω・`)

70 :名無しさん@お腹いっぱい。 :2022/09/28(水) 21:20:35.50 ID:FPWj9qk7M.net
5年もしたらモデリングはAIで誰でもできる時代になるかな?

71 :名無しさん@お腹いっぱい。 :2022/09/28(水) 22:50:37.94 ID:7NnQdocC0.net
てかま、スターウォーズのスピンオフで、
若き日のルーク・スカイウォーカーの顔を再現するのに、
マーク・ハミルのあらゆる顔の画像映像から作り出す、ていうのを、
ようつべの
”Corridor Crew"チャンネルで見たばかりで

”Lola vfx”てとこが得意としてんのかな?

72 :名無しさん@お腹いっぱい。 :2022/09/29(木) 01:34:40.20 ID:AThgS/L5p.net
>>70
Hirokazu Yokohara @Yokohara_h (2022/09/26 11:42:34)
画像生成AIで一貫性のあるキャラデザを出力。コレが出来るようになると画像生成AIの使い道が凄く増えそう
https://ohayua.cyou/tweet/1574227903805390849/Yokohara_h

[引用元] NovelAI @novelaiofficial (2022/09/25 09:37:33)
#NovelAI Image Generation Progress Showcase:
When you include tags in your prompts, you may produce more of the same character with greater consistency!
https://ohayua.cyou/twimg/FddgYndXkAIszNh.jpg
https://ohayua.cyou/tweet/1573834053031280641/novelaiofficial
2Dはたった数ヶ月でここまで来て平均的な絵師壊滅しそうな勢い(´・ω・`)

73 :名無しさん@お腹いっぱい。 :2022/09/29(木) 03:30:27.21 ID:wbKGx8+J0.net
実際metahumanはスキャンモデルからunrealに最適化されたキャラデータを自動生成できてるから、
3Dモデルのリソースが増えれば、いずれリアル系でもスタイライズ系でも自動生成は可能になるだろうな。
テンプレートを設定しやすい人体は特に。

ただ、だからこそ日本的なエッセンスが強みになる。
アメコミは同じような画風に収斂しがちだが、日本のマンガは一作家一画風で、遊戯王もジョジョもH×Hも全然違う。しかもそれが世界でウケてる。
最適化されやすい普遍的な作風はAIが収奪して価値が低くなり、個人のクセのある作家性はむしろ価値を増す。
これから3Dアーティストの目指すべき姿は日本的な個人作家性だよ。
成田祐輔も似たような事言ってる。https://youtu.be/c4oKRK_61KA

74 :名無しさん@お腹いっぱい。 :2022/09/29(木) 05:29:54.68 ID:oqprFZIc0.net
BlenderなんてAIが進化したら消えるとか
負け惜しみで埋めたい奴が居るのね

75 :名無しさん@お腹いっぱい。 (ワッチョイ 929b-r4yT):[ここ壊れてます] .net
メカ作る予定がないのに
なんとなく少年心で買ってしまってたDecalMachineの使い道何かないかな

76 :名無しさん@お腹いっぱい。 (ワッチョイ 1610-my3m):[ここ壊れてます] .net
小物類

77 :名無しさん@お腹いっぱい。 :2022/09/29(木) 09:43:00.66 ID:pomTXBkTM.net
>>75
わかるわーw

78 :名無しさん@お腹いっぱい。 :2022/09/29(木) 17:56:31.21 ID:cB9eFPcAp.net
>>73
その作家性すら学習して個性的なものを作れるのがAIの怖いところなんですわ(´・ω・`)
ストーリーありきの漫画ならいざ知らずイラストや3DCGモデルは個性あっても太刀打ち不可[脳]に思える(´・ω・`)

79 :名無しさん@お腹いっぱい。 :2022/09/29(木) 20:25:25.31 ID:BrAPRgqZ0.net
モデリングは早く学習して楽にしてくれよん王国

80 :名無しさん@お腹いっぱい。 :2022/09/29(木) 20:30:03.99 ID:1sVKRDxsp.net
ストーリーを描けないただのデジタルドカタは近い未来に駆逐されんじゃねえかなと思ってる(´・ω・`)

81 :名無しさん@お腹いっぱい。 :2022/09/29(木) 21:25:47.48 ID:wbKGx8+J0.net
>>78
理論的に可能ではあるけどコスパが悪いんだよ。

漫画であれば一コマ描くだけでも「コマ割り」「コマの中の配置」「顔の角度」「表情」「線の太さ」「光の方向」「目線」とか多数の情報を全部入れて出力画像を試行錯誤していかなきゃならない。

それなら熟練者がすぐに描いた方が早い。

どんなにAIが発達しても「情報の入力」の手間は避けられないんだよ。
普遍的な作風ならまだ統一感は出せるだろうけど、作家性の強い作風になる程コスパが悪くなる。

これは3DCGでも同じ。

唯一作家性を再現するならデジタルクローンで作家の思考回路をまるごとトレースする事だけど、逆説的にまず本人が作家性を習得しなければならない。

82 :名無しさん@お腹いっぱい。 :2022/09/30(金) 04:57:54.26 ID:2Q5RqdKh0.net
3DCGでの作家性に関してはAIとの親和性高そうだけどな
既にソフトウェアに指示出してるわけだし手描きの漫画よりはるかにAI向き

83 :名無しさん@お腹いっぱい。 :2022/09/30(金) 05:35:31.48 ID:0Fhjkh8ra.net
んなことよりリトポ学習させろよ

84 :名無しさん@お腹いっぱい。 :2022/09/30(金) 06:09:22.09 ID:U10Z6xHs0.net
いつまで俺たちはポリゴンなんて言う前時代の遺物を使って3Dデータを作らなきゃいけないんだろうな

85 :名無しさん@お腹いっぱい。 :2022/09/30(金) 07:24:01.24 ID:rEOFyw6L0.net
>>82
ボイド(群れシミュレーション)とかな

シミュレーションの正確さを取るか、見栄えを取るか

86 :名無しさん@お腹いっぱい。 :2022/09/30(金) 07:35:24.39 ID:mkMAb1Ma0.net
やっぱShadeか

87 :名無しさん@お腹いっぱい。 (ササクッテロラ Sp47-bOkU):[ここ壊れてます] .net
佐藤航陽 著書「世界2.0 メタバースの歩き方と創り方」 @ka2aki86 (2022/09/30 12:35:30) [返信:フォロー/@のみ]
「AIが普及すれば人間は単純作業から解放されて創造的な活動に集中できる」って言われてきたのに、真っ先にクリエイティブな領域がAIに代替されてくのは衝撃だよな。もしかしたらテクノロジーが入り込めない泥臭い人間的な仕事だけが生き残っていくのかもしれない。
https://ohayua.cyou/tweet/1575690775874404352/ka2aki86

88 :名無しさん@お腹いっぱい。 :2022/09/30(金) 15:27:15.24 ID:992MdWOr0.net
大量のBlenderファイルを機械学習させたらモデリングとかボーンの設定を自動化できるのかな?

89 :名無しさん@お腹いっぱい。 :2022/09/30(金) 15:50:36.60 ID:U10Z6xHs0.net
>>88
どうだろうなぁ
その理屈で言ったらプログラムのバイナリデータをひたすら大量に与えれば勝手にプログラムを吐けるようになるAIが出来ることになるが
そんな話聞こえてこないし
プログラムさせるAIも研究されてるけど、やっぱり言語認識の方からアプローチしてるからね

3Dデータやプログラムのように小さなまちがいが致命的になる分野だと画像生成AIのような
アプローチだとファジーすぎて上手く行かないと思う

ウエイトマップを作ったりとかUVマップなら元のジオメトリをいじるわけじゃないから上手く行く可能性は高いけど

90 :名無しさん@お腹いっぱい。 :2022/09/30(金) 17:34:03.71 ID:efp4yFOS0.net
目的が「ゼロから全部作る」ならそうなるが「今の作業時間を大幅短縮」なら答えが出やすい。

人体、馬、鳥、トカゲみたいなテンプレートがあって、その関節と向きをどこに置くかだけ指定すれば6割方カバーできると思う。

物体X的なクリーチャーやトランスフォーマーとかは無理。

91 :名無しさん@お腹いっぱい。 :2022/09/30(金) 17:37:53.92 ID:U10Z6xHs0.net
まぁすでにMixamoとかあるし北米の方じゃ俳優の3Dスキャンデータからオートで
リトポデータ&ボーンまで吐くシステムがあるらしいし、実現してるっちゃあしてる

92 :名無しさん@お腹いっぱい。 :2022/09/30(金) 18:07:22.15 ID:rEOFyw6L0.net
>>86
自由曲面のままレンダリングまで行けるし、
あとから変更も楽
Shadeモデラーだけでもオープンソースにならないかな

93 :名無しさん@お腹いっぱい。 (ワッチョイ ffbe-pIDl):[ここ壊れてます] .net
「Bezier Mesh Shaper」てアドオンがあったんだっけか
あれでもいいんかもしんね

94 :名無しさん@お腹いっぱい。 :2022/10/01(土) 01:11:42.65 ID:5qchsrHG0.net
https://guytevet.github.io/mdm-page/
とうとうモーションまでAIが自動作成する時代になるのか!?

95 :名無しさん@お腹いっぱい。 :2022/10/01(土) 01:26:03.29 ID:TLTb6Si70.net
モーションの自動化は結構昔からやってね
今のAIとは違うかもしれないけどEuphoria Physics Engineとか

96 :名無しさん@お腹いっぱい。 :2022/10/01(土) 01:43:15.21 ID:yvMszaHD0.net
>>95
3DMaxで、足跡つけたらなぞって歩いてくれるってやつがあったっけ

97 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:37:49.07 ID:aOq4xK0/p.net
Hirokazu Yokohara @Yokohara_h (2022/09/30 03:20:01)
テキストから3D。メッシュへ変換も出来るみたい。すでに結構きれいな3Dが生成されてる。さっきの動画もそうだけどそのうちCGの仕事の在り方が変わっちゃいそうなスピード感!
https://ohayua.cyou/tweet/1575550983341424642/Yokohara_h

[引用元] AK @_akhaliq (2022/09/30 02:44:03)
DreamFusion: Text-to-3D using 2D Diffusion
paper: https://openreview.net/pdf?id=FjNys5c7VyY
abs: https://openreview.net/forum?id=FjNys5c7VyY
project page: https://dreamfusionpaper.github.io/

DeepDream on a pretrained 2D diffusion model enables text-to-3D synthesis
https://ohayua.cyou/twimg/ext_tw_video/1575541838332805123/pu/vid/1218x720/0rR3pB_HuLqOfzl3.mp4

やまかず @Yamkaz (2022/09/30 03:59:44)
なんて日..。

テキストから動画を生成するAIの後に、3Dを生成するAIが出てきた。(両方とも過去のものより質が高い)
名前は「DreamFusion」。作者は匿名。

ええ、速すぎる ほんとに何が起きてるの
https://dreamfusionpaper.github.io
https://ohayua.cyou/twimg/ext_tw_video/1575560595473997824/pu/vid/720x720/8LgZfMKB1W0oV46S.mp4

98 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:38:50.64 ID:aOq4xK0/p.net
Hirokazu Yokohara @Yokohara_h (2022/09/30 04:13:33)
もはやポリゴン弄ってUV開いてる時代じゃねえ。って思いつつ横目で見つつも今ポリゴンの1点1点を手で修正しながらUV開き直してる
https://ohayua.cyou/tweet/1575564453910695936/Yokohara_h

Hirokazu Yokohara @Yokohara_h (2022/09/30 05:55:57)
3D生成が今後凄い急速に進化するって言ってる。一カ月前は画像生成AIを対岸の火事的に見てたけど早くも3Dにも激動が訪れるのか
https://ohayua.cyou/tweet/1575590226101030912/Yokohara_h

[引用元] Emad @EMostaque (2022/09/30 05:34:30)
Amazing advances with no 3D data!

Will be some very interesting announcements in the coming months around this area, really taking off massively fast.

There are a few final unlocks and will go exponential into 2024 https://ohayua.cyou/tweet/1575576632068214785/poolio
https://ohayua.cyou/tweet/1575584827797307392/EMostaque

99 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:40:16.95 ID:aOq4xK0/p.net
Hirokazu Yokohara @Yokohara_h (2022/09/30 02:04:06)
コレが進歩していってクオリティ上がってみんなが使えるようになったら動画コンテンツ自体が色々変わるかも。その時はいよいよホントの意味で一人で映画作れるようになる?
https://ohayua.cyou/tweet/1575531878836187136/Yokohara_h

[引用元] Meta AI @MetaAI (2022/09/29 23:39:24)
We’re pleased to introduce Make-A-Video, our latest in #GenerativeAI research! With just a few words, this state-of-the-art AI system generates high-quality videos from text prompts.

Have an idea you want to see? Reply w/ your prompt using #MetaAI and we’ll share more results.
https://ohayua.cyou/twimg/amplify_video/1575495314261221376/vid/720x720/FfD8xPOMEqZyBKX2.mp4 https://pbs.twimg.com/amplify_video_thumb/1575495314261221376/img/d6oW8ifmlpl9gErS.jpg
https://ohayua.cyou/tweet/1575495462894723072/MetaAI

100 :名無しさん@お腹いっぱい。 :2022/10/01(土) 02:41:44.89 ID:aOq4xK0/p.net
Hirokazu Yokohara @Yokohara_h (2022/09/30 08:50:16)
前から気になってるんだけど直接的に生成できるなら必ずしも従来の3DCGって必要性薄くなっていく気もしてるんだけどどうなんだろ。今のような3DCGの作り方から大きく変化していく?詳しい人に聞いてみたいね
https://ohayua.cyou/tweet/1575634095270666241/Yokohara_h

236 KB
新着レスの表示

掲示板に戻る 全部 前100 次100 最新50
名前: E-mail (省略可) :

read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★