論文の概要: NVS-SQA: Exploring Self-Supervised Quality Representation Learning for Neurally Synthesized Scenes without References
- arxiv url: http://arxiv.org/abs/2501.06488v1
- Date: Sat, 11 Jan 2025 09:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:43.862238
- Title: NVS-SQA: Exploring Self-Supervised Quality Representation Learning for Neurally Synthesized Scenes without References
- Title(参考訳): NVS-SQA: 参照なしのニューラルネットワーク合成シーンのための自己教師付き品質表現学習の探索
- Authors: Qiang Qu, Yiran Shen, Xiaoming Chen, Yuk Ying Chung, Weidong Cai, Tongliang Liu,
- Abstract要約: 我々は,NVS-SQAを提案する。NVS-SQAは,自己スーパービジョンを通じて,非参照品質表現を学習するための品質評価手法である。
従来の自己教師型学習は、主に"same instance, similar representation"仮定と広範なデータセットに依存している。
我々は、学習の効率と効率を改善するために、フォトリアリスティックな手がかりと品質スコアを学習目的として採用する。
- 参考スコア(独自算出の注目度): 55.35182166250742
- License:
- Abstract: Neural View Synthesis (NVS), such as NeRF and 3D Gaussian Splatting, effectively creates photorealistic scenes from sparse viewpoints, typically evaluated by quality assessment methods like PSNR, SSIM, and LPIPS. However, these full-reference methods, which compare synthesized views to reference views, may not fully capture the perceptual quality of neurally synthesized scenes (NSS), particularly due to the limited availability of dense reference views. Furthermore, the challenges in acquiring human perceptual labels hinder the creation of extensive labeled datasets, risking model overfitting and reduced generalizability. To address these issues, we propose NVS-SQA, a NSS quality assessment method to learn no-reference quality representations through self-supervision without reliance on human labels. Traditional self-supervised learning predominantly relies on the "same instance, similar representation" assumption and extensive datasets. However, given that these conditions do not apply in NSS quality assessment, we employ heuristic cues and quality scores as learning objectives, along with a specialized contrastive pair preparation process to improve the effectiveness and efficiency of learning. The results show that NVS-SQA outperforms 17 no-reference methods by a large margin (i.e., on average 109.5% in SRCC, 98.6% in PLCC, and 91.5% in KRCC over the second best) and even exceeds 16 full-reference methods across all evaluation metrics (i.e., 22.9% in SRCC, 19.1% in PLCC, and 18.6% in KRCC over the second best).
- Abstract(参考訳): NeRFや3D Gaussian Splattingのようなニューラルビュー合成(NVS)は、PSNR、SSIM、LPIPSといった品質評価手法によって評価される、疎視的な視点から光リアルなシーンを効果的に生成する。
しかし、これらの完全な参照手法は、合成されたビューと参照ビューを比較することで、特に高密度参照ビューが限られたため、ニューラル合成されたシーン(NSS)の知覚的品質を完全に捉えることはできない。
さらに、人間の知覚ラベルを取得する際の課題は、広範囲なラベル付きデータセットの作成を妨げ、モデルの過度な適合と一般化可能性の低下を危険にさらす。
これらの課題に対処するため,NVS-SQAを提案する。
従来の自己教師型学習は、主に"same instance, similar representation"仮定と広範なデータセットに依存している。
しかし,これらの条件がNASの品質評価に当てはまらないことを踏まえ,学習目的としてヒューリスティックな手がかりと品質スコアを用い,学習の有効性と効率を向上させるために,特殊なコントラッシブなペア作成プロセスを構築した。
その結果、NVS-SQAは17の非参照手法(SRCCでは平均109.5%、PLCCでは98.6%、CRCでは91.5%)を上回り、全ての評価指標(SRCCでは22.9%、PLCCでは19.1%、KRCCでは18.6%)で16の完全参照手法を上回ります。
関連論文リスト
- NeRF-NQA: No-Reference Quality Assessment for Scenes Generated by NeRF and Neural View Synthesis Methods [13.403739247879766]
NVS と NeRF の変種から合成した濃密に保存されたシーンに対する最初のノン参照品質評価手法である NeRF-NQA を提案する。
NeRF-NQAは、ビューワイズとポイントワイズの両方のアプローチを統合する共同品質評価戦略を採用している。
ビューワイズアプローチは、各合成ビューの空間的品質と全体ビュー間の一貫性を評価し、ポイントワイズアプローチはシーン表面の角質に焦点を当てる。
論文 参考訳(メタデータ) (2024-12-11T02:17:33Z) - Better than Random: Reliable NLG Human Evaluation with Constrained Active Sampling [50.08315607506652]
信頼性の高い人的判断のための制約付きアクティブサンプリングフレームワーク(CASF)を提案する。
実験の結果、CASFは93.18%のシステム認識精度が得られた。
論文 参考訳(メタデータ) (2024-06-12T07:44:36Z) - How Quality Affects Deep Neural Networks in Fine-Grained Image Classification [0.799543372823325]
粒度分類システムの性能を高めるために,非参照画像品質評価(NRIQA)誘導カットオフポイント選択(CPS)戦略を提案する。
最も一般的に採用されている3つのイメージ拡張設定 -- トリミング、回転、ぼやけた -- をエントリポイントとしています。
具体的には、これらの方法によって得られるカットオフポイントは、多数決によって集約され、画像サブセット選択のプロセスが通知される。
論文 参考訳(メタデータ) (2024-05-09T12:59:11Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - SSL-CPCD: Self-supervised learning with composite pretext-class
discrimination for improved generalisability in endoscopic image analysis [3.1542695050861544]
深層学習に基づく教師付き手法は医用画像解析において広く普及している。
大量のトレーニングデータと、目に見えないデータセットに対する一般的な問題に直面する必要がある。
本稿では,加法的角マージンを用いたパッチレベルのインスタンスグループ識別とクラス間変動のペナル化について検討する。
論文 参考訳(メタデータ) (2023-05-31T21:28:08Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Contrastive Semi-supervised Learning for ASR [16.070972355201253]
視覚オブジェクトの教師あり学習のためのコントラスト半教師学習(CSL)を提案する。
CSLは教師生成の擬似ラベルを直接予測し、ポジティブな例とネガティブな例を選択する。
監視データの10hrを使用して75,000hrのビデオをアノテートする場合、標準のクロスエントロピー擬似ラベル(CE-PL)と比較してWERを8%削減します。
論文 参考訳(メタデータ) (2021-03-09T00:20:37Z) - Comprehensive evaluation of no-reference image quality assessment
algorithms on authentic distortions [0.0]
非参照画像品質評価は、所定の入力画像の品質を、そのプリスタント(歪みフリー)に関する知識や情報なしで予測する。
本研究では,複数の機械学習に基づくNR-IQA法と,真の歪みを含むデータベース上での1つの評価方法について検討する。
論文 参考訳(メタデータ) (2020-10-26T21:25:46Z) - Learning Expectation of Label Distribution for Facial Age and
Attractiveness Estimation [65.5880700862751]
本稿では,2つの最先端手法(Ranking-CNNとDLDL)の本質的な関係を解析し,ランキング法が実際にラベル分布を暗黙的に学習していることを示す。
軽量なネットワークアーキテクチャを提案し、顔属性の分布と回帰属性の値を共同で学習できる統一的なフレームワークを提案する。
提案手法は,36$times$パラメータが小さく,3$times$が顔の年齢/魅力度推定における高速な推論速度を持つ単一モデルを用いて,新しい最先端結果を実現する。
論文 参考訳(メタデータ) (2020-07-03T15:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。