論文の概要: Neural Rendering in a Room: Amodal 3D Understanding and Free-Viewpoint
Rendering for the Closed Scene Composed of Pre-Captured Objects
- arxiv url: http://arxiv.org/abs/2205.02714v1
- Date: Thu, 5 May 2022 15:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 18:01:05.737678
- Title: Neural Rendering in a Room: Amodal 3D Understanding and Free-Viewpoint
Rendering for the Closed Scene Composed of Pre-Captured Objects
- Title(参考訳): 室内におけるニューラルレンダリング:事前キャプチャーされた物体からなる閉じたシーンに対するアモーダル3次元理解と自由視点レンダリング
- Authors: Bangbang Yang, Yinda Zhang, Yijin Li, Zhaopeng Cui, Sean Fanello,
Hujun Bao, Guofeng Zhang
- Abstract要約: 閉シーンに対するニューラルレンダリングを用いたアモーダル3次元シーン理解の新しいパラダイムに基づいて、そのような人間の知覚能力を模倣する新しいソリューションを提案する。
まず, 閉鎖シーンにおける物体の事前の知識を, オフラインステージを通じて学習し, オンラインステージにおいて, 家具の配置のない部屋の理解を容易にする。
オンライン段階において、異なるレイアウトのシーンのパノラマ画像が与えられた場合、我々は、全体論的ニューラルネットワークに基づく最適化フレームワークを使用して、正しい3Dシーンレイアウトを効率的に推定し、リアルな自由視点レンダリングを提供する。
- 参考スコア(独自算出の注目度): 40.59508249969956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We, as human beings, can understand and picture a familiar scene from
arbitrary viewpoints given a single image, whereas this is still a grand
challenge for computers. We hereby present a novel solution to mimic such human
perception capability based on a new paradigm of amodal 3D scene understanding
with neural rendering for a closed scene. Specifically, we first learn the
prior knowledge of the objects in a closed scene via an offline stage, which
facilitates an online stage to understand the room with unseen furniture
arrangement. During the online stage, given a panoramic image of the scene in
different layouts, we utilize a holistic neural-rendering-based optimization
framework to efficiently estimate the correct 3D scene layout and deliver
realistic free-viewpoint rendering. In order to handle the domain gap between
the offline and online stage, our method exploits compositional neural
rendering techniques for data augmentation in the offline training. The
experiments on both synthetic and real datasets demonstrate that our two-stage
design achieves robust 3D scene understanding and outperforms competing methods
by a large margin, and we also show that our realistic free-viewpoint rendering
enables various applications, including scene touring and editing. Code and
data are available on the project webpage:
https://zju3dv.github.io/nr_in_a_room/.
- Abstract(参考訳): 私たちは人間として、任意の視点から見慣れたシーンを1つのイメージで理解し、描くことができますが、それでもこれはコンピュータにとって大きな課題です。
本稿では,クローズドシーンに対するニューラルレンダリングを用いたアモーダル3次元シーン理解の新たなパラダイムに基づく,人間の知覚能力を模倣する新しい手法を提案する。
具体的には、まず、オフラインのステージを通じて、閉じたシーンのオブジェクトの事前知識を学習し、オンラインのステージが、目に見えない家具の配置で部屋を理解しやすくする。
オンラインステージでは、異なるレイアウトでシーンのパノラマ画像が与えられると、全体的なニューラルレンダリングベースの最適化フレームワークを使用して、正確な3dシーンレイアウトを効率的に推定し、リアルなフリービューポイントレンダリングを提供する。
オフライン段階とオンライン段階のドメインギャップに対処するため,本手法では,オフライントレーニングにおけるデータ拡張のための合成ニューラルレンダリング技術を利用する。
合成データと実データの両方における実験により,我々は2段階設計によって頑健な3dシーン理解を実現し,競合するメソッドを大差で上回ることを示し,また,実際のフリービューポイントレンダリングによってシーンのツーリングや編集など,さまざまなアプリケーションが可能になることを示した。
コードとデータはプロジェクトのWebページで公開されている。
関連論文リスト
- SceneCraft: Layout-Guided 3D Scene Generation [29.713491313796084]
シーンクラフト(SceneCraft)は、テキスト記述や空間的レイアウトの好みに則った、室内の詳細なシーンを生成する新しい方法である。
本手法は,多様なテクスチャ,一貫した幾何,現実的な視覚的品質を有する複雑な屋内シーン生成において,既存のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-11T17:59:58Z) - Sketch2Scene: Automatic Generation of Interactive 3D Game Scenes from User's Casual Sketches [50.51643519253066]
3Dコンテンツ生成は、ビデオゲーム、映画制作、バーチャルおよび拡張現実など、多くのコンピュータグラフィックスアプリケーションの中心にある。
本稿では,インタラクティブでプレイ可能な3Dゲームシーンを自動的に生成するための,新しいディープラーニングベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-08T16:27:37Z) - Style-Consistent 3D Indoor Scene Synthesis with Decoupled Objects [84.45345829270626]
制御可能な3D屋内シーン合成は、技術進歩の最前線にある。
シーンスタイリングの現在の手法は、シーン全体にスタイルを適用することに限定されている。
室内3Dシーンを合成するためのユニークなパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:10:36Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Blocks2World: Controlling Realistic Scenes with Editable Primitives [5.541644538483947]
我々は3Dシーンのレンダリングと編集のための新しい方法であるBlocks2Worldを提案する。
本手法は,コンベックス分解を用いて,各シーンの様々な物体から3次元並列入力を抽出することから始める。
次のステージでは、2Dレンダリングされた凸プリミティブから画像を生成することを学ぶ条件付きモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-07T21:38:50Z) - Control-NeRF: Editable Feature Volumes for Scene Rendering and
Manipulation [58.16911861917018]
高品質な新規ビュー合成を実現しつつ,フレキシブルな3次元画像コンテンツ操作を実現するための新しい手法を提案する。
モデルペアはシーンに依存しないニューラルネットワークを用いてシーン固有の特徴ボリュームを学習する。
我々は、シーンの混合、オブジェクトの変形、シーンへのオブジェクト挿入など、さまざまなシーン操作を実証すると同時に、写真リアリスティックな結果も生成する。
論文 参考訳(メタデータ) (2022-04-22T17:57:00Z) - DeepPanoContext: Panoramic 3D Scene Understanding with Holistic Scene
Context Graph and Relation-based Optimization [66.25948693095604]
本研究では,パノラマ画像から各オブジェクトの3次元空間配置と形状,ポーズ,位置,意味的カテゴリを復元するパノラマ3次元シーン理解手法を提案する。
実験により, この手法は, パノラマシーン理解において, 幾何学的精度とオブジェクト配置の両方の観点から, 既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-24T13:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。