論文の概要: Subjective Annotation for a Frame Interpolation Benchmark using Artefact
Amplification
- arxiv url: http://arxiv.org/abs/2001.06409v2
- Date: Tue, 28 Apr 2020 19:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 23:23:14.489383
- Title: Subjective Annotation for a Frame Interpolation Benchmark using Artefact
Amplification
- Title(参考訳): アーティファクト増幅を用いたフレーム補間ベンチマークの主観的アノテーション
- Authors: Hui Men, Vlad Hosu, Hanhe Lin, Andr\'es Bruhn and Dietmar Saupe
- Abstract要約: 画像品質評価では、ユーザが経験した実際の品質を、簡単な測定値から完全に推定することはできない。
我々は,光学フローベンチマークの1つによって提供される補間フレームに対する主観的品質評価群集調査を行った。
まず,WAE-IQAと呼ばれる新しい完全参照手法を提案する。
- 参考スコア(独自算出の注目度): 6.544757635738911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current benchmarks for optical flow algorithms evaluate the estimation either
directly by comparing the predicted flow fields with the ground truth or
indirectly by using the predicted flow fields for frame interpolation and then
comparing the interpolated frames with the actual frames. In the latter case,
objective quality measures such as the mean squared error are typically
employed. However, it is well known that for image quality assessment, the
actual quality experienced by the user cannot be fully deduced from such simple
measures. Hence, we conducted a subjective quality assessment crowdscouring
study for the interpolated frames provided by one of the optical flow
benchmarks, the Middlebury benchmark. We collected forced-choice paired
comparisons between interpolated images and corresponding ground truth. To
increase the sensitivity of observers when judging minute difference in paired
comparisons we introduced a new method to the field of full-reference quality
assessment, called artefact amplification. From the crowdsourcing data, we
reconstructed absolute quality scale values according to Thurstone's model. As
a result, we obtained a re-ranking of the 155 participating algorithms w.r.t.
the visual quality of the interpolated frames. This re-ranking not only shows
the necessity of visual quality assessment as another evaluation metric for
optical flow and frame interpolation benchmarks, the results also provide the
ground truth for designing novel image quality assessment (IQA) methods
dedicated to perceptual quality of interpolated images. As a first step, we
proposed such a new full-reference method, called WAE-IQA. By weighing the
local differences between an interpolated image and its ground truth WAE-IQA
performed slightly better than the currently best FR-IQA approach from the
literature.
- Abstract(参考訳): 光フローアルゴリズムの現在のベンチマークでは、予測フローフィールドを地上の真実と比較するか、予測フローフィールドを用いてフレーム補間を行い、補間されたフレームと実際のフレームを比較して直接評価する。
後者の場合、平均二乗誤差などの客観的品質指標が一般的に用いられる。
しかし, 画像品質評価においては, ユーザが経験した実際の品質を, このような単純な尺度から完全に推定することはできないことが知られている。
そこで本研究では,オプティカルフローベンチマークの1つであるミドルベリーベンチマークの補間フレームについて,主観的品質評価を行った。
補間画像と対応する接地真実の強制選択対比較を収集した。
ペア比較の微妙な違いを判定する際の観察者の感度を高めるため,アーティファクト増幅と呼ばれる全参照品質評価分野に新しい手法を導入した。
クラウドソーシングデータから,thurstoneのモデルによる絶対品質尺度値を再構成した。
その結果、補間フレームの視覚的品質について、155個の参加アルゴリズムを再ランク付けした。
この再ランキングは、光学フローおよびフレーム補間ベンチマークの別評価指標として視覚的品質評価の必要性を示すだけでなく、補間画像の知覚的品質に関する新しい画像品質評価法(iqa)を設計するための基礎的真実を提供する。
まず,WAE-IQAと呼ばれる新しい完全参照手法を提案する。
補間された画像と地上の真実との局所的な差異を測ることにより、WAE-IQAは、現在最も優れたFR-IQAアプローチよりもわずかに優れている。
関連論文リスト
- Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - PIQI: Perceptual Image Quality Index based on Ensemble of Gaussian
Process Regression [2.9412539021452715]
デジタル画像の品質を評価するためにPIQI(Perceptual Image Quality Index)を提案する。
PIQIの性能は6つのベンチマークデータベースでチェックされ、12の最先端の手法と比較される。
論文 参考訳(メタデータ) (2023-05-16T06:44:17Z) - Paired Image-to-Image Translation Quality Assessment Using Multi-Method
Fusion [0.0]
本稿では,画像品質の信号のペア化と変換を併用して,後者の類似性と仮説的基底真理を推定する手法を提案する。
我々は,深部画像構造とテクスチャ類似性(DISTS)を予測するために,勾配型回帰器のアンサンブルを用いたマルチメソッドフュージョン(MMF)モデルを訓練した。
分析の結果,測定時間と予測精度の間にトレードオフが生じ,特徴制約を課すことが判明した。
論文 参考訳(メタデータ) (2022-05-09T11:05:15Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Can No-reference features help in Full-reference image quality
estimation? [20.491565297561912]
完全参照IQAタスクにおけるノン参照機能の利用について検討する。
我々のモデルは、多くの最先端アルゴリズムよりも高いSRCCとKRCCのスコアを達成する。
論文 参考訳(メタデータ) (2022-03-02T03:39:28Z) - Non-Reference Quality Monitoring of Digital Images using Gradient
Statistics and Feedforward Neural Networks [0.1657441317977376]
デジタル画像の品質を評価するために,非参照品質指標を提案する。
提案手法は,提案手法よりも高速で,画像系列の品質評価に利用することができる。
論文 参考訳(メタデータ) (2021-12-27T20:21:55Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。