論文の概要: Projected Representation Conditioning for High-fidelity Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2602.12003v1
- Date: Thu, 12 Feb 2026 14:35:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.868516
- Title: Projected Representation Conditioning for High-fidelity Novel View Synthesis
- Title(参考訳): 高忠実性新規ビュー合成のための投影表現条件
- Authors: Min-Seop Kwak, Minkyung Kwon, Jinhyeok Choi, Jiho Park, Seungryong Kim,
- Abstract要約: 本稿では,専用表現投影モジュールによる表現誘導型新規ビュー合成を提案する。
本実験により, この設計により, 復元精度と塗装品質の両面において顕著な改善が得られた。
- 参考スコア(独自算出の注目度): 35.155339377351865
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel framework for diffusion-based novel view synthesis in which we leverage external representations as conditions, harnessing their geometric and semantic correspondence properties for enhanced geometric consistency in generated novel viewpoints. First, we provide a detailed analysis exploring the correspondence capabilities emergent in the spatial attention of external visual representations. Building from these insights, we propose a representation-guided novel view synthesis through dedicated representation projection modules that inject external representations into the diffusion process, a methodology named ReNoV, short for representation-guided novel view synthesis. Our experiments show that this design yields marked improvements in both reconstruction fidelity and inpainting quality, outperforming prior diffusion-based novel-view methods on standard benchmarks and enabling robust synthesis from sparse, unposed image collections.
- Abstract(参考訳): 本稿では,外部表現を条件として活用し,その幾何学的・意味的対応性を生かした拡散型新規視点合成フレームワークを提案する。
まず、外部視覚表現の空間的注意に創発する対応能力について、詳細な分析を行う。
これらの知見から,表現誘導型新規ビュー合成法として,表現誘導型新規ビュー合成法として,表現誘導型新規ビュー合成法(ReNoV)という,外部表現を拡散過程に注入する専用表現投影モジュールを提案する。
実験により, この設計は, 再現忠実度と劣化品質の両面において顕著に向上し, 標準ベンチマークにおける拡散ベースノベルビュー法よりも優れ, スパース・アンポーズ画像コレクションからのロバストな合成が可能であることが確認された。
関連論文リスト
- UniView: Enhancing Novel View Synthesis From A Single Image By Unifying Reference Features [8.962212671008201]
我々は、類似オブジェクトからの参照画像を利用して、ビュー合成中に強い事前情報を提供するUniViewと呼ばれる新しいモデルを提案する。
我々のUniViewは、新しいビュー合成性能を大幅に改善し、挑戦的なデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2025-09-05T08:54:57Z) - WAVE: Warp-Based View Guidance for Consistent Novel View Synthesis Using a Single Image [3.4248731707266264]
本稿では,モジュールを追加せずに拡散モデルを利用するビュー一貫性画像生成手法を提案する。
我々のキーとなる考え方は、適応的な注意操作と雑音の再生を可能にする訓練不要な手法で拡散モデルを強化することである。
本手法は,様々な拡散モデル間での視界の整合性を向上し,その適用性を示す。
論文 参考訳(メタデータ) (2025-06-30T05:00:47Z) - Synthesizing Consistent Novel Views via 3D Epipolar Attention without Re-Training [102.82553402539139]
大規模な拡散モデルでは、単一画像からの新規なビュー合成において顕著なゼロショット機能を示す。
これらのモデルは、新規および参照ビュー間の一貫性を維持する上で、しばしば課題に直面します。
入力ビューから重なり合う情報の探索と検索にエピポーラ幾何を用いることを提案する。
この情報はターゲットビューの生成に組み込まれ、トレーニングや微調整の必要がなくなる。
論文 参考訳(メタデータ) (2025-02-25T14:04:22Z) - MOVIS: Enhancing Multi-Object Novel View Synthesis for Indoor Scenes [35.16430027877207]
MOVISは、多目的NVSのためのビュー条件拡散モデルの構造的認識を高めることを目的としている。
本稿では,新しいビューオブジェクトマスクを同時に予測するためにモデルを必要とする補助タスクを提案する。
提案手法は強力な一般化能力を示し,一貫した新規なビュー合成を生成する。
論文 参考訳(メタデータ) (2024-12-16T05:23:45Z) - NVComposer: Boosting Generative Novel View Synthesis with Multiple Sparse and Unposed Images [50.36605863731669]
NVComposerは、明示的な外部アライメントの必要性を排除する新しいアプローチである。
NVComposerは、生成的マルチビューNVSタスクにおいて最先端のパフォーマンスを達成する。
提案手法は, 入力ビュー数の増加に伴い, 合成品質が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-12-04T17:58:03Z) - Retrieval-guided Cross-view Image Synthesis [3.7477511412024573]
クロスビュー画像合成は、信頼性の高い対応を確立する上で大きな課題となる。
本稿では,検索手法が効果的なクロスビュー画像合成を促進する方法を再定義する検索誘導フレームワークを提案する。
我々の研究は、情報検索と合成タスクを橋渡しし、検索技術が複雑なドメイン間合成の課題にどのように対処できるかについての洞察を提供する。
論文 参考訳(メタデータ) (2024-11-29T07:04:44Z) - Controllable Topic-Focused Abstractive Summarization [57.8015120583044]
制御された抽象的な要約は、特定の側面をカバーするために、ソース記事の凝縮したバージョンを作成することに焦点を当てる。
本稿では,トピックに着目した要約を生成可能なトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T03:51:38Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - Consistent View Synthesis with Pose-Guided Diffusion Models [51.37925069307313]
単一の画像から新しいビューを合成することは、多くのバーチャルリアリティーアプリケーションにとって画期的な問題である。
本稿では,ポーズ誘導拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。