論文の概要: Subjective Annotation for a Frame Interpolation Benchmark using Artefact
Amplification
- arxiv url: http://arxiv.org/abs/2001.06409v2
- Date: Tue, 28 Apr 2020 19:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 23:23:14.489383
- Title: Subjective Annotation for a Frame Interpolation Benchmark using Artefact
Amplification
- Title(参考訳): アーティファクト増幅を用いたフレーム補間ベンチマークの主観的アノテーション
- Authors: Hui Men, Vlad Hosu, Hanhe Lin, Andr\'es Bruhn and Dietmar Saupe
- Abstract要約: 画像品質評価では、ユーザが経験した実際の品質を、簡単な測定値から完全に推定することはできない。
我々は,光学フローベンチマークの1つによって提供される補間フレームに対する主観的品質評価群集調査を行った。
まず,WAE-IQAと呼ばれる新しい完全参照手法を提案する。
- 参考スコア(独自算出の注目度): 6.544757635738911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current benchmarks for optical flow algorithms evaluate the estimation either
directly by comparing the predicted flow fields with the ground truth or
indirectly by using the predicted flow fields for frame interpolation and then
comparing the interpolated frames with the actual frames. In the latter case,
objective quality measures such as the mean squared error are typically
employed. However, it is well known that for image quality assessment, the
actual quality experienced by the user cannot be fully deduced from such simple
measures. Hence, we conducted a subjective quality assessment crowdscouring
study for the interpolated frames provided by one of the optical flow
benchmarks, the Middlebury benchmark. We collected forced-choice paired
comparisons between interpolated images and corresponding ground truth. To
increase the sensitivity of observers when judging minute difference in paired
comparisons we introduced a new method to the field of full-reference quality
assessment, called artefact amplification. From the crowdsourcing data, we
reconstructed absolute quality scale values according to Thurstone's model. As
a result, we obtained a re-ranking of the 155 participating algorithms w.r.t.
the visual quality of the interpolated frames. This re-ranking not only shows
the necessity of visual quality assessment as another evaluation metric for
optical flow and frame interpolation benchmarks, the results also provide the
ground truth for designing novel image quality assessment (IQA) methods
dedicated to perceptual quality of interpolated images. As a first step, we
proposed such a new full-reference method, called WAE-IQA. By weighing the
local differences between an interpolated image and its ground truth WAE-IQA
performed slightly better than the currently best FR-IQA approach from the
literature.
- Abstract(参考訳): 光フローアルゴリズムの現在のベンチマークでは、予測フローフィールドを地上の真実と比較するか、予測フローフィールドを用いてフレーム補間を行い、補間されたフレームと実際のフレームを比較して直接評価する。
後者の場合、平均二乗誤差などの客観的品質指標が一般的に用いられる。
しかし, 画像品質評価においては, ユーザが経験した実際の品質を, このような単純な尺度から完全に推定することはできないことが知られている。
そこで本研究では,オプティカルフローベンチマークの1つであるミドルベリーベンチマークの補間フレームについて,主観的品質評価を行った。
補間画像と対応する接地真実の強制選択対比較を収集した。
ペア比較の微妙な違いを判定する際の観察者の感度を高めるため,アーティファクト増幅と呼ばれる全参照品質評価分野に新しい手法を導入した。
クラウドソーシングデータから,thurstoneのモデルによる絶対品質尺度値を再構成した。
その結果、補間フレームの視覚的品質について、155個の参加アルゴリズムを再ランク付けした。
この再ランキングは、光学フローおよびフレーム補間ベンチマークの別評価指標として視覚的品質評価の必要性を示すだけでなく、補間画像の知覚的品質に関する新しい画像品質評価法(iqa)を設計するための基礎的真実を提供する。
まず,WAE-IQAと呼ばれる新しい完全参照手法を提案する。
補間された画像と地上の真実との局所的な差異を測ることにより、WAE-IQAは、現在最も優れたFR-IQAアプローチよりもわずかに優れている。
関連論文リスト
- Foundation Models Boost Low-Level Perceptual Similarity Metrics [6.226609932118124]
ディープラーニングアプローチを用いたフルリファレンス画像品質評価(FR-IQA)では、歪んだ画像と参照画像との知覚的類似度スコアは、通常、事前訓練されたCNNまたはより最近ではトランスフォーマーネットワークから抽出された特徴間の距離測定として計算される。
この研究は、低レベルの知覚的類似度指標の設計において、これまでほとんど研究されていないこれらの基礎モデルの中間的特徴を活用する可能性を探るものである。
論文 参考訳(メタデータ) (2024-09-11T22:32:12Z) - Attention Down-Sampling Transformer, Relative Ranking and Self-Consistency for Blind Image Quality Assessment [17.04649536069553]
非参照画像品質評価は、元の参照なしで画像品質を推定する難しい領域である。
変換器エンコーダとCNNを用いて,画像から局所的および非局所的情報を抽出する機構を改良した。
非参照画像品質評価(NR-IQA)モデルの劣化に対処し,自己超越に対する自己整合性アプローチを提案する。
論文 参考訳(メタデータ) (2024-09-11T09:08:43Z) - Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - Beyond MOS: Subjective Image Quality Score Preprocessing Method Based on Perceptual Similarity [2.290956583394892]
ITU-R BT.500、ITU-T P.910、ITU-T P.913は、当初の世論点をクリアするために標準化されている。
PSPは画像間の知覚的類似性を利用して、より注釈の少ないシナリオにおける主観的バイアスを軽減する。
論文 参考訳(メタデータ) (2024-04-30T16:01:14Z) - OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - Pairwise Comparisons Are All You Need [22.798716660911833]
ブラインド画像品質評価(BIQA)アプローチは、様々な画像に一様に適用される一般的な品質基準に依存しているため、現実のシナリオでは不足することが多い。
本稿では、従来のBIQAの制限を回避すべく設計されたペアワイズ比較フレームワークであるPICNIQを紹介する。
PICNIQは、サイコメトリックスケーリングアルゴリズムを用いることで、対比較をジャストオブジェクタブルディファレンス(JOD)の品質スコアに変換し、画像品質の粒度と解釈可能な指標を提供する。
論文 参考訳(メタデータ) (2024-03-13T23:43:36Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - PIQI: Perceptual Image Quality Index based on Ensemble of Gaussian
Process Regression [2.9412539021452715]
デジタル画像の品質を評価するためにPIQI(Perceptual Image Quality Index)を提案する。
PIQIの性能は6つのベンチマークデータベースでチェックされ、12の最先端の手法と比較される。
論文 参考訳(メタデータ) (2023-05-16T06:44:17Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。