論文の概要: 3DFIRES: Few Image 3D REconstruction for Scenes with Hidden Surface
- arxiv url: http://arxiv.org/abs/2403.08768v1
- Date: Wed, 13 Mar 2024 17:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 13:07:18.750862
- Title: 3DFIRES: Few Image 3D REconstruction for Scenes with Hidden Surface
- Title(参考訳): 3DFIRES:隠れた表面を持つシーンの3D再構成
- Authors: Linyi Jin, Nilesh Kulkarni, David Fouhey
- Abstract要約: 3DFIRESは、ポーズ画像からシーンレベルの3D再構成を行う新しいシステムである。
単一視点再構成法の有効性を1つの入力で示す。
- 参考スコア(独自算出の注目度): 8.824340350342512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces 3DFIRES, a novel system for scene-level 3D
reconstruction from posed images. Designed to work with as few as one view,
3DFIRES reconstructs the complete geometry of unseen scenes, including hidden
surfaces. With multiple view inputs, our method produces full reconstruction
within all camera frustums. A key feature of our approach is the fusion of
multi-view information at the feature level, enabling the production of
coherent and comprehensive 3D reconstruction. We train our system on
non-watertight scans from large-scale real scene dataset. We show it matches
the efficacy of single-view reconstruction methods with only one input and
surpasses existing techniques in both quantitative and qualitative measures for
sparse-view 3D reconstruction.
- Abstract(参考訳): 本稿では,ポーズ画像からシーンレベルの3D再構成を行うシステムである3DFIRESを紹介する。
3DFIRESは、わずか1つのビューで動くように設計されており、隠れた表面を含む見えないシーンの完全な幾何学を再構築している。
複数のビューインプットを用いて,全カメラフラストラム内で全再構成を行う。
提案手法の重要な特徴は,特徴レベルにおける多視点情報の融合であり,コヒーレントで包括的な3次元再構成を実現することができる。
我々は大規模な実シーンデータセットから非水密スキャンでシステムを訓練する。
本研究では, 単一視点再構成法の有効性を1つの入力と一致させ, スパースビュー3次元再構成における定量的, 質的手法の両面で, 既存の手法を超越していることを示す。
関連論文リスト
- REPARO: Compositional 3D Assets Generation with Differentiable 3D Layout Alignment [23.733856513456]
単一画像からの合成3Dアセット生成のための新しいアプローチであるREPAROを提案する。
まず、シーンから個々のオブジェクトを抽出し、オフザシェルフ画像から3Dモデルを使用して、それらの3Dメッシュを再構築する。
次に、異なるレンダリング技術によってこれらのメッシュのレイアウトを最適化し、コヒーレントなシーン構成を保証する。
論文 参考訳(メタデータ) (2024-05-28T18:45:10Z) - Part123: Part-aware 3D Reconstruction from a Single-view Image [54.589723979757515]
Part123は、一視点画像から部分認識された3D再構成のための新しいフレームワークである。
ニューラルレンダリングフレームワークにコントラスト学習を導入し、部分認識機能空間を学習する。
クラスタリングに基づくアルゴリズムも開発され、再構成されたモデルから3次元部分分割結果を自動的に導出する。
論文 参考訳(メタデータ) (2024-05-27T07:10:21Z) - Generalizable 3D Scene Reconstruction via Divide and Conquer from a Single View [5.222115919729418]
シングルビュー3D再構成は現在、2つの主要な視点からアプローチされている。
分割・分散戦略に従うハイブリッド手法を提案する。
まず、深度と意味情報を抽出し、そのシーンを全体的に処理する。
次に、個々のコンポーネントの詳細な再構築に単発オブジェクトレベル手法を利用する。
論文 参考訳(メタデータ) (2024-04-04T12:58:46Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - CVRecon: Rethinking 3D Geometric Feature Learning For Neural
Reconstruction [12.53249207602695]
本稿では,エンドツーエンドの3Dニューラル再構成フレームワークCVReconを提案する。
コストボリュームにリッチな幾何学的埋め込みを利用して、3次元の幾何学的特徴学習を容易にする。
論文 参考訳(メタデータ) (2023-04-28T05:30:19Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。