論文の概要: Deforming Radiance Fields with Cages
- arxiv url: http://arxiv.org/abs/2207.12298v1
- Date: Mon, 25 Jul 2022 16:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:59:19.786275
- Title: Deforming Radiance Fields with Cages
- Title(参考訳): ケージ付き放射フィールドの変形
- Authors: Tianhan Xu and Tatsuya Harada
- Abstract要約: 自由形放射場変形という新しい種類の放射場変形を提案する。
我々は、インターフェイスとしてケージと呼ばれる前景オブジェクトを囲む三角形のメッシュを使用します。
変形した空間から標準空間へのサンプリング点の位置と視線方向をマッピングする放射場に拡張する新しい定式化を提案する。
- 参考スコア(独自算出の注目度): 65.57101724686527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in radiance fields enable photorealistic rendering of static
or dynamic 3D scenes, but still do not support explicit deformation that is
used for scene manipulation or animation. In this paper, we propose a method
that enables a new type of deformation of the radiance field: free-form
radiance field deformation. We use a triangular mesh that encloses the
foreground object called cage as an interface, and by manipulating the cage
vertices, our approach enables the free-form deformation of the radiance field.
The core of our approach is cage-based deformation which is commonly used in
mesh deformation. We propose a novel formulation to extend it to the radiance
field, which maps the position and the view direction of the sampling points
from the deformed space to the canonical space, thus enabling the rendering of
the deformed scene. The deformation results of the synthetic datasets and the
real-world datasets demonstrate the effectiveness of our approach.
- Abstract(参考訳): 近年のラジアンスフィールドの進歩により、静的または動的3Dシーンのフォトリアリスティックレンダリングが可能になったが、シーン操作やアニメーションに使用される明示的な変形はサポートされていない。
本稿では,自由形放射場変形という,新しい種類の放射場変形を可能にする手法を提案する。
我々は,前景のケージと呼ばれる物体をインターフェースとして囲む三角形メッシュを用い,ケージ頂点を操作することにより,放射場の自由変形を可能にする。
我々のアプローチの核心はケージに基づく変形であり、メッシュの変形によく用いられる。
そこで我々は,これを放射場に拡張する新しい定式化を提案し,この方法により,サンプリング点の位置と視線方向を変形空間から標準空間にマッピングし,変形シーンのレンダリングを可能にする。
合成データセットと実世界のデータセットの変形結果から,本手法の有効性を示す。
関連論文リスト
- DynoSurf: Neural Deformation-based Temporally Consistent Dynamic Surface Reconstruction [93.18586302123633]
本稿では3次元点雲列から時間的に一貫した表面を対応なく再構成する問題について考察する。
テンプレート表面表現と学習可能な変形場を統合した教師なし学習フレームワークDynoSurfを提案する。
実験により、DynoSurfの現在の最先端アプローチに対する顕著な優位性を示した。
論文 参考訳(メタデータ) (2024-03-18T08:58:48Z) - Point-Based Radiance Fields for Controllable Human Motion Synthesis [7.322100850632633]
本稿では,静的な点ベース放射場に基づく微細変形のための制御可能な人体動作合成法を提案する。
提案手法は,静的な3次元シーンをトレーニングするために明示的な点雲を利用し,点雲変換を符号化して変形を適用した。
我々の手法は、人間以外の他の3Dキャラクタに一般化できる、微細な複雑な変形に関する最先端技術よりもはるかに優れている。
論文 参考訳(メタデータ) (2023-10-05T08:27:33Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Generative Deformable Radiance Fields for Disentangled Image Synthesis
of Topology-Varying Objects [52.46838926521572]
3D認識生成モデルは、モノクロ2D画像の集合から3Dニューラル放射場(NeRF)を生成するスーパーブパフォーマンスを実証した。
本研究では, トポロジー変化物体の放射場を非交絡形状と外観変化で合成する生成モデルを提案する。
論文 参考訳(メタデータ) (2022-09-09T08:44:06Z) - NeRF-Editing: Geometry Editing of Neural Radiance Fields [43.256317094173795]
暗黙のニューラルレンダリングは、シーンの新規なビュー合成において大きな可能性を示している。
本研究では,シーンの暗黙的な表現に対して,ユーザが制御可能な形状変形を実行できるようにする手法を提案する。
我々のフレームワークは、合成データだけでなく、ユーザによってキャプチャされた実際のシーンでも理想的な編集結果を得ることができる。
論文 参考訳(メタデータ) (2022-05-10T15:35:52Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - Animatable Implicit Neural Representations for Creating Realistic
Avatars from Videos [63.16888987770885]
本稿では,マルチビュー映像からアニマタブルな人間モデルを構築することの課題について述べる。
線形ブレンドスキンアルゴリズムに基づくポーズ駆動変形場を提案する。
提案手法は,近年の人体モデリング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:56:59Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。