論文の概要: Active View Selector: Fast and Accurate Active View Selection with Cross Reference Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2506.19844v1
- Date: Tue, 24 Jun 2025 17:59:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.767471
- Title: Active View Selector: Fast and Accurate Active View Selection with Cross Reference Image Quality Assessment
- Title(参考訳): アクティブビューセレクタ:クロスリファレンス画像品質評価による高速かつ高精度なアクティブビューセレクタ
- Authors: Zirui Wang, Yash Bhalgat, Ruining Li, Victor Adrian Prisacariu,
- Abstract要約: 新規なビュー合成と3次元再構成におけるアクティブなビュー選択に取り組む。
FisheRFやActiveNeRFといった既存の方法は、不確実性を最小化したり、3Dでの情報ゲインを最大化することで、次のベストビューを選択する。
これを2D画像品質評価(IQA)タスクとして再構成し、現在のレンダリングが最低品質のビューを選択する。
- 参考スコア(独自算出の注目度): 25.363201302306667
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We tackle active view selection in novel view synthesis and 3D reconstruction. Existing methods like FisheRF and ActiveNeRF select the next best view by minimizing uncertainty or maximizing information gain in 3D, but they require specialized designs for different 3D representations and involve complex modelling in 3D space. Instead, we reframe this as a 2D image quality assessment (IQA) task, selecting views where current renderings have the lowest quality. Since ground-truth images for candidate views are unavailable, full-reference metrics like PSNR and SSIM are inapplicable, while no-reference metrics, such as MUSIQ and MANIQA, lack the essential multi-view context. Inspired by a recent cross-referencing quality framework CrossScore, we train a model to predict SSIM within a multi-view setup and use it to guide view selection. Our cross-reference IQA framework achieves substantial quantitative and qualitative improvements across standard benchmarks, while being agnostic to 3D representations, and runs 14-33 times faster than previous methods.
- Abstract(参考訳): 新規なビュー合成と3次元再構成におけるアクティブなビュー選択に取り組む。
FisheRFやActiveNeRFといった既存の手法では、3D空間における不確実性を最小化したり、情報ゲインを最大化することで次のベストビューを選択するが、異なる3D表現のための特別な設計が必要であり、3D空間における複雑なモデリングが伴う。
代わりに、これを2D画像品質評価(IQA)タスクとして再構成し、現在のレンダリングが最低品質のビューを選択する。
PSNRやSSIMのようなフル参照のメトリクスは適用できないが、MUSIQやMANIQAのような非参照のメトリクスは必須のマルチビューコンテキストを欠いている。
最近のクロスリファレンス品質フレームワークであるCrossScoreにインスパイアされた私たちは、マルチビュー設定内でSSIMを予測するモデルをトレーニングし、ビュー選択をガイドするためにそれを使用します。
我々の相互参照IQAフレームワークは,3次元表現に依存せず,従来の手法よりも14~33倍高速に動作しながら,標準ベンチマーク間の定量的および定性的な改善を実現している。
関連論文リスト
- 3D Question Answering via only 2D Vision-Language Models [87.41421075243103]
大規模視覚言語モデル(LVLM)は、多くの分野を進歩させた。
代表的な例として,3次元質問応答(3D-QA)を用いた3次元シーン理解タスクの活用について検討する。
具体的には、3Dポイントクラウドから2Dビューをサンプリングし、2Dモデルにフィードして、与えられた質問に答える。
我々は3D-QAのための重要かつ多様なビューを自動的に選択する新しいアプローチであるcdViewsを提案する。
論文 参考訳(メタデータ) (2025-05-28T09:04:39Z) - M3-AGIQA: Multimodal, Multi-Round, Multi-Aspect AI-Generated Image Quality Assessment [65.3860007085689]
M3-AGIQAは、AI生成画像のより人間らしく総合的な評価を可能にする包括的なフレームワークである。
モデル出力を人間の判断とより密接に整合させることで、M3-AGIQAは堅牢で解釈可能な品質スコアを提供する。
論文 参考訳(メタデータ) (2025-02-21T03:05:45Z) - SAMa: Material-aware 3D Selection and Segmentation [29.319771041342623]
Select Any Materials (SAMa) は,様々な3次元表現のための素材選択手法である。
モデル間の整合性を利用して、3D一貫性のある中間物質相似表現を生成する。
提案手法は任意の3次元表現に作用し、選択精度と多視点整合性の観点から、いくつかの強いベースラインを上回ります。
論文 参考訳(メタデータ) (2024-11-28T18:59:02Z) - Flex3D: Feed-Forward 3D Generation with Flexible Reconstruction Model and Input View Curation [61.040832373015014]
テキスト, 単一画像, スパース画像から高品質な3Dコンテンツを生成するための新しいフレームワークFlex3Dを提案する。
我々は、微調整された多視点画像拡散モデルとビデオ拡散モデルを用いて、候補視のプールを生成し、ターゲット3Dオブジェクトのリッチな表現を可能にする。
第2段階では、キュレートされたビューは、任意の数の入力を効果的に処理できるトランスフォーマーアーキテクチャ上に構築されたフレキシブルリコンストラクションモデル(FlexRM)に入力されます。
論文 参考訳(メタデータ) (2024-10-01T17:29:43Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - A Novel Patch Convolutional Neural Network for View-based 3D Model
Retrieval [36.12906920608775]
ビューベース3次元モデル検索のための新しいパッチ畳み込みニューラルネットワーク(PCNN)を提案する。
提案したPCNNは, それぞれ93.67%, 96.23%と, 最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2021-09-25T07:18:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。