論文の概要: Non-Aligned Reference Image Quality Assessment for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2511.08155v1
- Date: Wed, 12 Nov 2025 01:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.671963
- Title: Non-Aligned Reference Image Quality Assessment for Novel View Synthesis
- Title(参考訳): 新規視点合成のための非アライン参照画像品質評価
- Authors: Abhijay Ghildyal, Rajesh Sureddi, Nabajeet Barman, Saman Zadtootaghaj, Alan Bovik,
- Abstract要約: 新規ビュー合成(NVS)画像に適した非テンポラル参照(NAR-IQA)フレームワークを提案する。
我々のモデルは、LoRA強化DINOv2埋め込みを組み込んだ対照的な学習フレームワーク上に構築されている。
我々は,NVSにおける非整合参照を見る際に,人間の嗜好に関するデータを集めるために,新しいユーザスタディを実施している。
- 参考スコア(独自算出の注目度): 8.68364429451164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evaluating the perceptual quality of Novel View Synthesis (NVS) images remains a key challenge, particularly in the absence of pixel-aligned ground truth references. Full-Reference Image Quality Assessment (FR-IQA) methods fail under misalignment, while No-Reference (NR-IQA) methods struggle with generalization. In this work, we introduce a Non-Aligned Reference (NAR-IQA) framework tailored for NVS, where it is assumed that the reference view shares partial scene content but lacks pixel-level alignment. We constructed a large-scale image dataset containing synthetic distortions targeting Temporal Regions of Interest (TROI) to train our NAR-IQA model. Our model is built on a contrastive learning framework that incorporates LoRA-enhanced DINOv2 embeddings and is guided by supervision from existing IQA methods. We train exclusively on synthetically generated distortions, deliberately avoiding overfitting to specific real NVS samples and thereby enhancing the model's generalization capability. Our model outperforms state-of-the-art FR-IQA, NR-IQA, and NAR-IQA methods, achieving robust performance on both aligned and non-aligned references. We also conducted a novel user study to gather data on human preferences when viewing non-aligned references in NVS. We find strong correlation between our proposed quality prediction model and the collected subjective ratings. For dataset and code, please visit our project page: https://stootaghaj.github.io/nova-project/
- Abstract(参考訳): ノベルビュー合成(NVS)画像の知覚的品質を評価することは、特にピクセル整列基底真理参照がない場合に重要な課題である。
フル参照画像品質評価(FR-IQA)法は誤調整下で失敗し、No-Reference(NR-IQA)法は一般化に苦慮する。
本研究では,NVSに適した非アラインド参照(NAR-IQA)フレームワークを提案する。
NAR-IQAモデルをトレーニングするために、TROI(Temporal Regions of Interest)を対象とした合成歪みを含む大規模画像データセットを構築した。
我々のモデルは,LoRAを拡張したDINOv2埋め込みを組み込んだコントラスト学習フレームワーク上に構築されており,既存のIQA手法の監視によってガイドされている。
合成歪みのみを学習し、特定の実NVSサンプルへの過度な適合を意図的に回避し、モデルの一般化能力を向上する。
我々のモデルは最先端のFR-IQA, NR-IQA, NAR-IQA法より優れ, 整列参照と非整列参照の両方で堅牢な性能を実現する。
また,NVSにおける非アライメント参照を視聴する際の嗜好データ収集のための新しいユーザスタディも行った。
提案した品質予測モデルと収集した主観的評価との間には強い相関関係が認められた。
データセットとコードについては、プロジェクトのページを参照してください。
関連論文リスト
- TRIQA: Image Quality Assessment by Contrastive Pretraining on Ordered Distortion Triplets [31.2422359004089]
No-Reference (NR) IQA は参照画像がないため、特に困難である。
本稿では,限られた数の参照コンテンツ画像を用いて,カスタムデータセットを構築する新しい手法を提案する。
対照的な三重項学習を用いて品質認識モデルを訓練し、より少ないサンプルで効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-07-16T23:43:12Z) - NeRF-NQA: No-Reference Quality Assessment for Scenes Generated by NeRF and Neural View Synthesis Methods [13.403739247879766]
NVS と NeRF の変種から合成した濃密に保存されたシーンに対する最初のノン参照品質評価手法である NeRF-NQA を提案する。
NeRF-NQAは、ビューワイズとポイントワイズの両方のアプローチを統合する共同品質評価戦略を採用している。
ビューワイズアプローチは、各合成ビューの空間的品質と全体ビュー間の一貫性を評価し、ポイントワイズアプローチはシーン表面の角質に焦点を当てる。
論文 参考訳(メタデータ) (2024-12-11T02:17:33Z) - Contrastive Pre-Training with Multi-View Fusion for No-Reference Point Cloud Quality Assessment [49.36799270585947]
No-Reference Point Cloud Quality Assessment (NR-PCQA) は、歪んだ点雲の知覚的品質を、参照なしで自動的に評価することを目的としている。
我々は,PCQA(CoPA)に適した新しいコントラスト付き事前学習フレームワークを提案する。
提案手法は,最新のPCQA手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:16:07Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - You Only Train Once: A Unified Framework for Both Full-Reference and No-Reference Image Quality Assessment [45.62136459502005]
本稿では,完全な参照 (FR) と非参照 (NR) IQA を行うネットワークを提案する。
まず、入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層的注意(HA)モジュールを提案する。
エンコーダの浅い層と深い層との間の特徴相関を調べるために, セマンティック・ディストーション・アウェア (SDA) モジュールを提案する。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。