論文の概要: ERQA: Edge-Restoration Quality Assessment for Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2110.09992v1
- Date: Tue, 19 Oct 2021 14:04:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 14:35:58.742291
- Title: ERQA: Edge-Restoration Quality Assessment for Video Super-Resolution
- Title(参考訳): ERQA:ビデオ超解法のエッジ保存品質評価
- Authors: Anastasia Kirillova, Eugene Lyapustin, Anastasia Antsiferova, Dmitry
Vatolin
- Abstract要約: ERQAメトリックは、モデルがVSRを使用して実際の詳細を復元する能力を推定することを目的としている。
提案されたメトリックのコードはhttps://github.com/msu-video-group/ERQA.comで公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the growing popularity of video super-resolution (VSR), there is
still no good way to assess the quality of the restored details in upscaled
frames. Some SR methods may produce the wrong digit or an entirely different
face. Whether a method's results are trustworthy depends on how well it
restores truthful details. Image super-resolution can use natural distributions
to produce a high-resolution image that is only somewhat similar to the real
one. VSR enables exploration of additional information in neighboring frames to
restore details from the original scene. The ERQA metric, which we propose in
this paper, aims to estimate a model's ability to restore real details using
VSR. On the assumption that edges are significant for detail and character
recognition, we chose edge fidelity as the foundation for this metric.
Experimental validation of our work is based on the MSU Video Super-Resolution
Benchmark, which includes the most difficult patterns for detail restoration
and verifies the fidelity of details from the original frame. Code for the
proposed metric is publicly available at
https://github.com/msu-video-group/ERQA.
- Abstract(参考訳): ビデオ・スーパーレゾリューション(VSR)の人気が高まっているにもかかわらず、アップスケールフレームにおける復元された細部の品質を評価する良い方法はまだ存在しない。
いくつかのSR法は間違った数字や全く異なる顔を生成することがある。
メソッドの結果が信頼できるかどうかは、それがいかに真に詳しい詳細を回復するかに依存する。
画像超解像は自然分布を用いて、実際のものと少しだけ類似した高解像度画像を生成することができる。
vsrは、隣のフレームで追加情報を探索し、元のシーンから詳細を復元することができる。
本稿では,本論文で提案するERQA測度について,VSRを用いてモデルの詳細を復元する能力を推定することを目的とする。
エッジが細部や文字認識に重要であるという前提から,我々はエッジ忠実度を基準として選択した。
本研究の実験的検証はmsu video super- resolution benchmark(msu video super- resolution benchmark)に基づく。
提案されたメトリックのコードはhttps://github.com/msu-video-group/ERQAで公開されている。
関連論文リスト
- Detail-Enhancing Framework for Reference-Based Image Super-Resolution [8.899312174844725]
参照型超解像のためのDEF(Detail-Enhancing Framework)を提案する。
提案手法は,比較した数値結果を維持しながら,優れた視覚的結果が得られる。
論文 参考訳(メタデータ) (2024-05-01T10:27:22Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - Video Super-Resolution Using a Grouped Residual in Residual Network [12.691703425623055]
ビデオ超解像(VSR)は、単一画像超解像(SISR)の一般化と見なすことができる。
本稿では,VSRのためのグループ化残差ネットワーク(GRRN)を提案する。
論文 参考訳(メタデータ) (2023-10-17T13:55:43Z) - Towards Real-World Burst Image Super-Resolution: Benchmark and Method [93.73429028287038]
本稿では,複数のフレームから画像の詳細を忠実に再構成する大規模リアルタイムバースト超解像データセットであるRealBSRを確立する。
また,FBAnet(Federated Burst Affinity Network)を導入し,実世界の画像劣化下での画像間の非自明な画素幅の変位について検討する。
論文 参考訳(メタデータ) (2023-09-09T14:11:37Z) - Learning Data-Driven Vector-Quantized Degradation Model for Animation
Video Super-Resolution [59.71387128485845]
アニメーションビデオの特徴を探求し、より実用的なアニメーションVSRモデルのための実世界のアニメーションデータの豊富な事前情報を活用する。
本稿では,グローバルな構造から局所的な詳細を分解する,マルチスケールなベクトル量子化分解モデルを提案する。
先行データを抽出するために、リッチコンテンツリアルアニメーション低品質(RAL)ビデオデータセットを収集する。
論文 参考訳(メタデータ) (2023-03-17T08:11:14Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - HIME: Efficient Headshot Image Super-Resolution with Multiple Exemplars [11.81364643562714]
本稿では,HIME(Multiple Exemplars Network)法を用いた高効率なヘッドショット画像超解法を提案する。
従来の手法と比較して,我々のネットワークは入力と参照のミスアライメントを効果的に処理できる。
また、制御可能な空間範囲における局所的なテクスチャのリッチな表現を提供する相関損失を提案する。
論文 参考訳(メタデータ) (2022-03-28T16:13:28Z) - Towards True Detail Restoration for Super-Resolution: A Benchmark and a
Quality Metric [0.0]
超高解像度(SR)法は、画像と映像の画質を向上し、コンテンツ分析の新しい可能性を生み出す。
しかし、SRの主流は、主に結果の画像の自然性を高めることに焦点を当てている。
論文 参考訳(メタデータ) (2022-03-16T20:13:35Z) - RestoreDet: Degradation Equivariant Representation for Object Detection
in Low Resolution Images [81.91416537019835]
劣化した低解像度画像中のオブジェクトを検出するための新しいフレームワークであるRestoreDetを提案する。
CenterNetをベースとした本フレームワークは, 既存手法と比較して, 異種劣化状況に直面する場合に比べ, 優れた性能を達成している。
論文 参考訳(メタデータ) (2022-01-07T03:40:23Z) - AIM 2020 Challenge on Video Extreme Super-Resolution: Methods and
Results [96.74919503142014]
本稿では,ECCV 2020におけるAIM 2020ワークショップに関連する超高解像度映像についてレビューする。
トラック1は、PSNRとSSIMによって基底真理への忠実度を測定するような要求されたタスクの最先端度を測定するために設定される。
トラック2は、人間の知覚に応じてランク付けされた視覚的に満足な結果を生成することを目的としており、ユーザスタディによって評価されている。
論文 参考訳(メタデータ) (2020-09-14T09:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。