論文の概要: Rethinking Image Evaluation in Super-Resolution
- arxiv url: http://arxiv.org/abs/2503.13074v1
- Date: Mon, 17 Mar 2025 11:25:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:18.691804
- Title: Rethinking Image Evaluation in Super-Resolution
- Title(参考訳): 超解像における画像評価の再考
- Authors: Shaolin Su, Josep M. Rocafort, Danna Xue, David Serrano-Lozano, Lei Sun, Javier Vazquez-Corral,
- Abstract要約: SR性能は低品質のGTによってモデル間で一貫して影響を受けられることを示す。
画像対の相対的品質差を測定する新しい知覚品質指標である相対品質指標(RQI)を提案する。
- 参考スコア(独自算出の注目度): 7.281169763662443
- License:
- Abstract: While recent advancing image super-resolution (SR) techniques are continually improving the perceptual quality of their outputs, they can usually fail in quantitative evaluations. This inconsistency leads to a growing distrust in existing image metrics for SR evaluations. Though image evaluation depends on both the metric and the reference ground truth (GT), researchers typically do not inspect the role of GTs, as they are generally accepted as `perfect' references. However, due to the data being collected in the early years and the ignorance of controlling other types of distortions, we point out that GTs in existing SR datasets can exhibit relatively poor quality, which leads to biased evaluations. Following this observation, in this paper, we are interested in the following questions: Are GT images in existing SR datasets 100\% trustworthy for model evaluations? How does GT quality affect this evaluation? And how to make fair evaluations if there exist imperfect GTs? To answer these questions, this paper presents two main contributions. First, by systematically analyzing seven state-of-the-art SR models across three real-world SR datasets, we show that SR performances can be consistently affected across models by low-quality GTs, and models can perform quite differently when GT quality is controlled. Second, we propose a novel perceptual quality metric, Relative Quality Index (RQI), that measures the relative quality discrepancy of image pairs, thus issuing the biased evaluations caused by unreliable GTs. Our proposed model achieves significantly better consistency with human opinions. We expect our work to provide insights for the SR community on how future datasets, models, and metrics should be developed.
- Abstract(参考訳): 最近の進歩的画像超解像(SR)技術は、出力の知覚的品質を継続的に改善しているが、通常は定量的評価で失敗する。
この矛盾は、SR評価のための既存の画像メトリクスの不信を増大させる。
画像評価はメートル法と基準基底真理(GT)の両方に依存するが、研究者は通常、GTの役割を検査しない。
しかし、早期に収集されたデータや、他の種類の歪みを制御できないことから、既存のSRデータセットのGTは比較的粗悪な品質を示し、偏りのある評価をもたらすことが指摘されている。
既存のSRデータセットのGTイメージは、モデル評価に100\%の信頼性があるか?
GTの品質はこの評価にどのように影響しますか?
そして、不完全なGTが存在する場合、公平に評価する方法?
これらの疑問に答えるために,本論文では2つの主な貢献について述べる。
まず,3つの実世界のSRデータセットにまたがる7つの最先端SRモデルを体系的に解析することにより,低品質のGTによるモデル間のSR性能の連続的な影響が示され,GT品質が制御された場合のモデルとは全く異なる性能を示す。
第2に,画像ペアの相対的品質差を測定し,信頼できないGTによるバイアス評価を発行する,新しい知覚品質指標RQIを提案する。
提案手法は人的意見との整合性を大幅に向上させる。
私たちは、将来のデータセット、モデル、メトリクスがどのように開発されるべきかについて、SRコミュニティに洞察を提供することを期待しています。
関連論文リスト
- VHELM: A Holistic Evaluation of Vision Language Models [75.88987277686914]
視覚言語モデル(VHELM)の全体的評価について述べる。
VHELMは、視覚的知覚、知識、推論、バイアス、公平性、多言語性、堅牢性、毒性、安全性の9つの側面の1つ以上をカバーするために、さまざまなデータセットを集約する。
私たちのフレームワークは軽量で自動で、評価の実行が安価で高速に行えるように設計されています。
論文 参考訳(メタデータ) (2024-10-09T17:46:34Z) - Study of Subjective and Objective Quality in Super-Resolution Enhanced Broadcast Images on a Novel SR-IQA Dataset [4.770359059226373]
超解像技術(SR)は、高解像度のスクリーンに高画質の放送コンテンツをフルスクリーンで表示するために不可欠である。
SR強調放送コンテンツなどの低品質ソースから生成されたSR画像の品質を評価することは困難である。
SR放送画像のための新しいIQAデータセットを2Kと4Kの解像度で導入する。
論文 参考訳(メタデータ) (2024-09-26T01:07:15Z) - Controlling Risk of Retrieval-augmented Generation: A Counterfactual Prompting Framework [77.45983464131977]
我々は、RAGモデルの予測が誤りであり、現実のアプリケーションにおいて制御不能なリスクをもたらす可能性がどの程度あるかに焦点を当てる。
本研究は,RAGの予測に影響を及ぼす2つの重要な潜伏要因を明らかにする。
我々は,これらの要因をモデルに誘導し,その応答に与える影響を解析する,反実的プロンプトフレームワークを開発した。
論文 参考訳(メタデータ) (2024-09-24T14:52:14Z) - Rethinking Image Super-Resolution from Training Data Perspectives [54.28824316574355]
画像超解像(SR)におけるトレーニングデータの効果について検討する。
そこで我々は,自動画像評価パイプラインを提案する。
その結果, (i) 圧縮アーチファクトの少ないデータセット, (ii) 被写体数によって判断される画像内多様性の高いデータセット, (iii) ImageNet や PASS からの大量の画像がSR性能に肯定的な影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-09-01T16:25:04Z) - Perception- and Fidelity-aware Reduced-Reference Super-Resolution Image Quality Assessment [25.88845910499606]
PFIQA(Pual-branch reduce-reference SR-IQA network, ie, Perception- and Fidelity-aware SR-IQA)を提案する。
PFIQAは3つの広く使用されているSR-IQAベンチマークで現在の最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-05-15T16:09:22Z) - G-Refine: A General Quality Refiner for Text-to-Image Generation [74.16137826891827]
G-Refineは,高画質画像の整合性を損なうことなく,低画質画像の高精細化を図った汎用画像精細機である。
このモデルは、知覚品質指標、アライメント品質指標、一般的な品質向上モジュールの3つの相互接続モジュールで構成されている。
大規模な実験により、G-Refine以降のAIGIは、4つのデータベースで10以上の品質指標でパフォーマンスが向上していることが明らかになった。
論文 参考訳(メタデータ) (2024-04-29T00:54:38Z) - CritiqueLLM: Towards an Informative Critique Generation Model for Evaluation of Large Language Model Generation [87.44350003888646]
Eval-Instructは、疑似参照でポイントワイズした批評を取得し、マルチパスプロンプトを通じてこれらの批評を修正できる。
CritiqueLLMは、ChatGPTとすべてのオープンソースベースラインを上回るように実証的に示されています。
論文 参考訳(メタデータ) (2023-11-30T16:52:42Z) - SEAL: A Framework for Systematic Evaluation of Real-World
Super-Resolution [42.60460455409881]
Real-world Super-Resolution (Real-SR)法は、様々な現実世界の画像を扱うことに焦点を当てている。
現在、これらの手法は、少数の劣化事例に対して平均的な性能でのみ評価されている。
実SRの体系的評価のためのフレームワークSEALを提案する。
論文 参考訳(メタデータ) (2023-09-06T14:02:55Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - Towards True Detail Restoration for Super-Resolution: A Benchmark and a
Quality Metric [0.0]
超高解像度(SR)法は、画像と映像の画質を向上し、コンテンツ分析の新しい可能性を生み出す。
しかし、SRの主流は、主に結果の画像の自然性を高めることに焦点を当てている。
論文 参考訳(メタデータ) (2022-03-16T20:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。