論文の概要: Pay Attention to Where You Look
- arxiv url: http://arxiv.org/abs/2601.18970v1
- Date: Mon, 26 Jan 2026 21:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.073065
- Title: Pay Attention to Where You Look
- Title(参考訳): 目に見える場所に注意を払う
- Authors: Alex Beriand, JhihYang Wu, Daniel Brignac, Natnael Daba, Abhijit Mahalanobis,
- Abstract要約: 新たなビュー合成(NVS)は、生成モデリングによって進歩し、フォトリアリスティックな画像生成を可能にした。
少数のインプットビューしか利用できない数ショットのNVSでは、既存のメソッドはターゲットに対するすべてのインプットビューに対して等しく重要であると仮定し、亜最適結果をもたらす。
この制限に対処するために、ターゲットとの関係性に基づいてソースビューの重要性を調整するカメラ重み付け機構を導入する。
- 参考スコア(独自算出の注目度): 0.15393457051344295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novel view synthesis (NVS) has advanced with generative modeling, enabling photorealistic image generation. In few-shot NVS, where only a few input views are available, existing methods often assume equal importance for all input views relative to the target, leading to suboptimal results. We address this limitation by introducing a camera-weighting mechanism that adjusts the importance of source views based on their relevance to the target. We propose two approaches: a deterministic weighting scheme leveraging geometric properties like Euclidean distance and angular differences, and a cross-attention-based learning scheme that optimizes view weighting. Additionally, models can be further trained with our camera-weighting scheme to refine their understanding of view relevance and enhance synthesis quality. This mechanism is adaptable and can be integrated into various NVS algorithms, improving their ability to synthesize high-quality novel views. Our results demonstrate that adaptive view weighting enhances accuracy and realism, offering a promising direction for improving NVS.
- Abstract(参考訳): 新たなビュー合成(NVS)は、生成モデリングによって進歩し、フォトリアリスティックな画像生成を可能にした。
少数のインプットビューしか利用できない数ショットのNVSでは、既存のメソッドはターゲットに対するすべてのインプットビューに対して等しく重要であると仮定し、亜最適結果をもたらす。
この制限に対処するために、ターゲットとの関係性に基づいてソースビューの重要性を調整するカメラ重み付け機構を導入する。
ユークリッド距離や角差といった幾何学的性質を活かした決定論的重み付け手法と、ビュー重み付けを最適化したクロスアテンションに基づく学習手法を提案する。
さらに、ビュー関連性の理解を深め、合成品質を向上させるために、我々のカメラ重み付け方式でモデルをさらに訓練することができる。
このメカニズムは適応可能であり、様々なNVSアルゴリズムに統合することができ、高品質な新規ビューを合成する能力を向上させる。
この結果から,適応的な視重み付けは精度とリアリズムを高め,NVSを改善する上で有望な方向を提供することが示された。
関連論文リスト
- AR-1-to-3: Single Image to Consistent 3D Object Generation via Next-View Prediction [69.65671384868344]
拡散モデルに基づく新しい次世代予測パラダイムAR-1-to-3を提案する。
提案手法は,生成したビューと入力ビューとの整合性を大幅に改善し,高忠実度3Dアセットを生成する。
論文 参考訳(メタデータ) (2025-03-17T08:39:10Z) - MOVIS: Enhancing Multi-Object Novel View Synthesis for Indoor Scenes [35.16430027877207]
MOVISは、多目的NVSのためのビュー条件拡散モデルの構造的認識を高めることを目的としている。
本稿では,新しいビューオブジェクトマスクを同時に予測するためにモデルを必要とする補助タスクを提案する。
提案手法は強力な一般化能力を示し,一貫した新規なビュー合成を生成する。
論文 参考訳(メタデータ) (2024-12-16T05:23:45Z) - NVComposer: Boosting Generative Novel View Synthesis with Multiple Sparse and Unposed Images [50.36605863731669]
NVComposerは、明示的な外部アライメントの必要性を排除する新しいアプローチである。
NVComposerは、生成的マルチビューNVSタスクにおいて最先端のパフォーマンスを達成する。
提案手法は, 入力ビュー数の増加に伴い, 合成品質が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-12-04T17:58:03Z) - Consistent123: Improve Consistency for One Image to 3D Object Synthesis [74.1094516222327]
大規模な画像拡散モデルは、高品質で優れたゼロショット機能を備えた新規なビュー合成を可能にする。
これらのモデルは、ビュー一貫性の保証がなく、3D再構成や画像から3D生成といった下流タスクのパフォーマンスが制限される。
本稿では,新しい視点を同時に合成するConsistent123を提案する。
論文 参考訳(メタデータ) (2023-10-12T07:38:28Z) - Self-Supervised Visibility Learning for Novel View Synthesis [79.53158728483375]
従来のレンダリング方法はシーン形状を推定し、2つの別々のステップで新しいビューを合成します。
エラー伝搬問題を排除するために,エンドツーエンドのNVSフレームワークを提案する。
当社のネットワークはエンドツーエンドのセルフ監視方式でトレーニングされており、ビュー合成におけるエラーの蓄積を大幅に軽減します。
論文 参考訳(メタデータ) (2021-03-29T08:11:25Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。