論文の概要: ReconViaGen: Towards Accurate Multi-view 3D Object Reconstruction via Generation
- arxiv url: http://arxiv.org/abs/2510.23306v1
- Date: Mon, 27 Oct 2025 13:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.556108
- Title: ReconViaGen: Towards Accurate Multi-view 3D Object Reconstruction via Generation
- Title(参考訳): ReconViaGen: 生成による正確なマルチビュー3Dオブジェクト再構成を目指して
- Authors: Jiahao Chang, Chongjie Ye, Yushuang Wu, Yuantao Chen, Yidan Zhang, Zhongjin Luo, Chenghong Li, Yihao Zhi, Xiaoguang Han,
- Abstract要約: 我々はReconViaGenを提案する。
我々のReconViaGenは、グローバルな構造と局所的な詳細の両方において、入力ビューと整合した完全かつ正確な3Dモデルを再構築できることを実証した。
- 参考スコア(独自算出の注目度): 28.308731720451053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing multi-view 3D object reconstruction methods heavily rely on sufficient overlap between input views, where occlusions and sparse coverage in practice frequently yield severe reconstruction incompleteness. Recent advancements in diffusion-based 3D generative techniques offer the potential to address these limitations by leveraging learned generative priors to hallucinate invisible parts of objects, thereby generating plausible 3D structures. However, the stochastic nature of the inference process limits the accuracy and reliability of generation results, preventing existing reconstruction frameworks from integrating such 3D generative priors. In this work, we comprehensively analyze the reasons why diffusion-based 3D generative methods fail to achieve high consistency, including (a) the insufficiency in constructing and leveraging cross-view connections when extracting multi-view image features as conditions, and (b) the poor controllability of iterative denoising during local detail generation, which easily leads to plausible but inconsistent fine geometric and texture details with inputs. Accordingly, we propose ReconViaGen to innovatively integrate reconstruction priors into the generative framework and devise several strategies that effectively address these issues. Extensive experiments demonstrate that our ReconViaGen can reconstruct complete and accurate 3D models consistent with input views in both global structure and local details.Project page: https://jiahao620.github.io/reconviagen.
- Abstract(参考訳): 既存の多視点3Dオブジェクト再構成手法は, 入力ビュー間の十分な重複に大きく依存している。
拡散に基づく3D生成技術の最近の進歩は、学習された生成前の知識を活用して、物体の見えない部分を幻覚させ、プラウシブルな3D構造を生成することによって、これらの制限に対処する可能性がある。
しかし、推論プロセスの確率的性質は、生成結果の正確さと信頼性を制限し、既存の再構成フレームワークがそのような3D生成前処理を統合するのを防ぐ。
本研究では,拡散型3次元生成法が高一貫性を達成できなかった理由を包括的に分析する。
(a)マルチビュー画像の特徴を条件として抽出する際に、クロスビュー接続の構築と活用の欠如
b) 局所的な細部生成における反復的装飾の制御性の低さは, 図形的, テクスチャ的細部への入力を容易かつ不整合に導く。
そこで本稿では,ReconViaGenを革新的に再生フレームワークに統合し,これらの課題に効果的に対処する戦略を考案する。
大規模な実験により、我々のReconViaGenは、グローバル構造とローカル詳細の両方の入力ビューと整合した完全かつ正確な3Dモデルを再構築できることを示した。
関連論文リスト
- OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - Sparse-View 3D Reconstruction: Recent Advances and Open Challenges [0.8583178253811411]
濃密な画像取得が不可能なアプリケーションには,スパースビュー3D再構成が不可欠である。
この調査は、ニューラル暗黙のモデルと明示的なポイントクラウドベースのアプローチの最新の進歩をレビューする。
我々は, 幾何正規化, 明示的な形状モデリング, 生成的推論がアーティファクトの緩和にどのように利用されているかを分析する。
論文 参考訳(メタデータ) (2025-07-22T09:57:28Z) - DeOcc-1-to-3: 3D De-Occlusion from a Single Image via Self-Supervised Multi-View Diffusion [50.90541069907167]
閉塞型マルチビュー生成のためのエンドツーエンドフレームワークであるDeOcc-1-to-3を提案する。
私たちの自己教師型トレーニングパイプラインは、隠蔽されたイメージペアと擬似地上構造ビューを活用して、モデル構造を意識した補完とビュー整合性を教える。
論文 参考訳(メタデータ) (2025-06-26T17:58:26Z) - GenFusion: Closing the Loop between Reconstruction and Generation via Videos [24.195304481751602]
本稿では,再現性のあるRGB-Dレンダリングにおける映像フレームの条件付けを学習する再構成駆動型ビデオ拡散モデルを提案する。
また、生成モデルからトレーニングセットへの復元フレームを反復的に追加する循環核融合パイプラインを提案する。
論文 参考訳(メタデータ) (2025-03-27T07:16:24Z) - 2L3: Lifting Imperfect Generated 2D Images into Accurate 3D [16.66666619143761]
マルチビュー(MV)3次元再構成は,生成したMV画像を一貫した3次元オブジェクトに融合させる,有望なソリューションである。
しかし、生成された画像は、通常、一貫性のない照明、不整合幾何学、スパースビューに悩まされ、復元の質が低下する。
本稿では, 内在的分解誘導, 過渡的モノ先行誘導, および3つの問題に対処するための視認性向上を活用する新しい3次元再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T02:30:31Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。