論文の概要: Neural Implicit Field Editing Considering Object-environment Interaction
- arxiv url: http://arxiv.org/abs/2311.00425v1
- Date: Wed, 1 Nov 2023 10:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 14:10:28.392605
- Title: Neural Implicit Field Editing Considering Object-environment Interaction
- Title(参考訳): 物体-環境相互作用を考慮したニューラルインプリシトフィールド編集
- Authors: Zhihong Zeng, Zongji Wang, Yuanben Zhang, Weinan Cai, Zehao Cao, Lili
Zhang, Yan Guo, Yanhong Zhang and Junyi Liu
- Abstract要約: オブジェクトとシーン環境のインタラクション認識システム(OSI-Aware)を提案する。
オブジェクトとシーン環境の相互作用を考慮した新しい2ストリームニューラルレンダリングシステムである。
新規なビュー合成タスクにおけるレンダリング品質の競争性能を実現する。
- 参考スコア(独自算出の注目度): 5.285267388811263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D scene editing method based on neural implicit field has gained wide
attention. It has achieved excellent results in 3D editing tasks. However,
existing methods often blend the interaction between objects and scene
environment. The change of scene appearance like shadows is failed to be
displayed in the rendering view. In this paper, we propose an Object and Scene
environment Interaction aware (OSI-aware) system, which is a novel two-stream
neural rendering system considering object and scene environment interaction.
To obtain illuminating conditions from the mixture soup, the system
successfully separates the interaction between objects and scene environment by
intrinsic decomposition method. To study the corresponding changes to the scene
appearance from object-level editing tasks, we introduce a depth map guided
scene inpainting method and shadow rendering method by point matching strategy.
Extensive experiments demonstrate that our novel pipeline produce reasonable
appearance changes in scene editing tasks. It also achieve competitive
performance for the rendering quality in novel-view synthesis tasks.
- Abstract(参考訳): ニューラル暗黙フィールドに基づく3次元シーン編集手法が注目されている。
3D編集作業で優れた結果を得た。
しかし、既存のメソッドは、しばしばオブジェクトとシーン環境の相互作用をブレンドする。
影のようなシーンの外観の変化は、レンダリングビューに表示されない。
本稿では,オブジェクトとシーン環境の相互作用を考慮した新しい2ストリームニューラルレンダリングシステムであるobject and scene environment interaction aware (osi-aware)システムを提案する。
混合スープから照明条件を得るため、本システムは内在分解法によるオブジェクトとシーン環境の相互作用を良好に分離する。
被写体レベルの編集タスクからシーンの出現に対応する変化を調べるため,ポイントマッチング戦略を用いて深度マップ案内シーンインペインティング法とシャドーレンダリング法を提案する。
広範囲にわたる実験により,新しいパイプラインがシーン編集作業において合理的な外観変化をもたらすことを実証した。
新規ビュー合成タスクにおけるレンダリング品質の競争性能も達成する。
関連論文リスト
- ViFu: Multiple 360$^\circ$ Objects Reconstruction with Clean Background via Visible Part Fusion [7.8788463395442045]
本研究では,異なるタイムスタンプのシーンから,静的でクリーンな背景と360ドル単位のオブジェクトを分割して回収する手法を提案する。
我々の基本的な考え方は、同じ物体の集合を様々な配置で観察することで、あるシーンで見えない部分が他のシーンで見えるようになるというものである。
論文 参考訳(メタデータ) (2024-04-15T02:44:23Z) - Style-Consistent 3D Indoor Scene Synthesis with Decoupled Objects [84.45345829270626]
制御可能な3D屋内シーン合成は、技術進歩の最前線にある。
シーンスタイリングの現在の手法は、シーン全体にスタイルを適用することに限定されている。
室内3Dシーンを合成するためのユニークなパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:10:36Z) - Point'n Move: Interactive Scene Object Manipulation on Gaussian
Splatting Radiance Fields [4.5907922403638945]
Point'n Moveは、露光領域のインペイントによるインタラクティブなシーンオブジェクト操作を実現する方法である。
我々はシーン表現としてガウス・スプレイティング・ラディアンス・フィールドを採用し、その明示的な性質と速度の優位性を完全に活用する。
論文 参考訳(メタデータ) (2023-11-28T12:33:49Z) - ASSIST: Interactive Scene Nodes for Scalable and Realistic Indoor
Simulation [17.34617771579733]
本稿では、合成および現実的なシミュレーションのためのパノプティクス表現として、オブジェクト指向神経放射場であるASSISTを提案する。
各オブジェクトの情報を統一的に格納する新しいシーンノードデータ構造は、イントラシーンとクロスシーンの両方でオンラインインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-11-10T17:56:43Z) - DisCoScene: Spatially Disentangled Generative Radiance Fields for
Controllable 3D-aware Scene Synthesis [90.32352050266104]
DisCoSceneは高品質で制御可能なシーン合成のための3Daware生成モデルである。
グローバルな局所的差別を伴う2次元画像のみを学習することで、シーン全体をオブジェクト中心の生成フィールドに分解する。
挑戦的な屋外データセットを含む多くのシーンデータセットで最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-12-22T18:59:59Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Control-NeRF: Editable Feature Volumes for Scene Rendering and
Manipulation [58.16911861917018]
高品質な新規ビュー合成を実現しつつ,フレキシブルな3次元画像コンテンツ操作を実現するための新しい手法を提案する。
モデルペアはシーンに依存しないニューラルネットワークを用いてシーン固有の特徴ボリュームを学習する。
我々は、シーンの混合、オブジェクトの変形、シーンへのオブジェクト挿入など、さまざまなシーン操作を実証すると同時に、写真リアリスティックな結果も生成する。
論文 参考訳(メタデータ) (2022-04-22T17:57:00Z) - Learning Object-Compositional Neural Radiance Field for Editable Scene
Rendering [42.37007176376849]
本稿では,物体合成型ニューラルラジアンス場を学習し,クラスタ化された実世界のシーンをリアルにレンダリングするニューラルシーンレンダリングシステムを提案する。
密集したシーンでのトレーニングを生き残るために, 密集した領域における3次元空間のあいまいさを解消し, それぞれの物体の鋭い境界を学習するためのシーン誘導型トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-09-04T11:37:18Z) - Visiting the Invisible: Layer-by-Layer Completed Scene Decomposition [57.088328223220934]
既存のシーン理解システムは、主にシーンの可視部分を認識し、現実世界の物理的物体の無傷な外観を無視します。
本研究では,ある場面における物体と背景の可視部分と可視部分の両方に取り組む高レベルのシーン理解システムを提案する。
論文 参考訳(メタデータ) (2021-04-12T11:37:23Z) - Neural Scene Graphs for Dynamic Scenes [57.65413768984925]
動的シーンをシーングラフに分解する最初のニューラルレンダリング手法を提案する。
我々は暗黙的に符号化されたシーンと、単一の暗黙の関数でオブジェクトを記述するために共同で学習された潜在表現を組み合わせる。
論文 参考訳(メタデータ) (2020-11-20T12:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。