論文の概要: DeepFL-IQA: Weak Supervision for Deep IQA Feature Learning
- arxiv url: http://arxiv.org/abs/2001.08113v1
- Date: Mon, 20 Jan 2020 15:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 05:39:54.041598
- Title: DeepFL-IQA: Weak Supervision for Deep IQA Feature Learning
- Title(参考訳): DeepFL-IQA:Deep IQA機能学習のための弱スーパービジョン
- Authors: Hanhe Lin, Vlad Hosu, Dietmar Saupe
- Abstract要約: 人工歪み画像のIQAに適した特徴を学習するための新しいIQAデータセットと弱い教師付き特徴学習手法を提案する。
データセットであるKADIS-700kは、14万枚の原像と25種類の歪みがあり、合計で700kの歪んだバージョンで構成されている。
提案手法はDeepFL-IQAと呼ばれ,他の特徴に基づくノン参照IQA法よりも優れており,KADID-10k上の全参照IQA法よりも優れている。
- 参考スコア(独自算出の注目度): 8.035521056416242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-level deep-features have been driving state-of-the-art methods for
aesthetics and image quality assessment (IQA). However, most IQA benchmarks are
comprised of artificially distorted images, for which features derived from
ImageNet under-perform. We propose a new IQA dataset and a weakly supervised
feature learning approach to train features more suitable for IQA of
artificially distorted images. The dataset, KADIS-700k, is far more extensive
than similar works, consisting of 140,000 pristine images, 25 distortions
types, totaling 700k distorted versions. Our weakly supervised feature learning
is designed as a multi-task learning type training, using eleven existing
full-reference IQA metrics as proxies for differential mean opinion scores. We
also introduce a benchmark database, KADID-10k, of artificially degraded
images, each subjectively annotated by 30 crowd workers. We make use of our
derived image feature vectors for (no-reference) image quality assessment by
training and testing a shallow regression network on this database and five
other benchmark IQA databases. Our method, termed DeepFL-IQA, performs better
than other feature-based no-reference IQA methods and also better than all
tested full-reference IQA methods on KADID-10k. For the other five benchmark
IQA databases, DeepFL-IQA matches the performance of the best existing
end-to-end deep learning-based methods on average.
- Abstract(参考訳): マルチレベル深層機能は、美学と画質評価(iqa)のための最先端の手法を駆り立てている。
しかし、ほとんどのIQAベンチマークは、ImageNetのアンダーパフォーマンスから派生した特徴を持つ、人工的に歪んだ画像で構成されている。
人工歪み画像のIQAに適した特徴を学習するための新しいIQAデータセットと弱い教師付き特徴学習手法を提案する。
データセットであるKADIS-700kは、14万枚の原像と25種類の歪みがあり、合計で700kの歪んだバージョンで構成されている。
我々の弱教師付き特徴学習はマルチタスク学習型学習として設計されており、11の既存の全参照IQAメトリクスを差分平均意見スコアのプロキシとして使用しています。
また,30名の観衆が主観的にアノテートした画像のベンチマークデータベースKADID-10kを導入する。
我々は、このデータベースおよび他の5つのベンチマークIQAデータベース上で、浅い回帰ネットワークをトレーニングし、テストすることで、画像品質評価(ノン参照)に画像特徴ベクトルを用いる。
提案手法はDeepFL-IQAと呼ばれ,他の特徴に基づくノン参照IQA法よりも優れており,KADID-10k上の全参照IQA法よりも優れている。
残りの5つのベンチマークIQAデータベースでは、DeepFL-IQAは、既存の最高のエンドツーエンドのディープラーニングベースのメソッドのパフォーマンスと平均的に一致します。
関連論文リスト
- An Image Quality Assessment Dataset for Portraits [0.9786690381850354]
本稿では,PIQ23について紹介する。PIQ23は,100台のスマートフォンが取得した50のシナリオの5116枚の画像からなる,ポートレート固有のIQAデータセットである。
このデータセットには、さまざまな性別や民族の個人が含まれており、公開研究に使用される写真について、明確かつインフォームドな同意を与えている。
これらのアノテーションの詳細な統計解析により、PIQ23上での一貫性を評価することができる。
論文 参考訳(メタデータ) (2023-04-12T11:30:06Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Evaluating the Stability of Deep Image Quality Assessment With Respect
to Image Scaling [43.291753358414255]
画像品質評価(IQA)は画像処理タスクの基本的な指標である。
本稿では,画像スケールがIQAの性能に影響を及ぼす要因であることを示す。
論文 参考訳(メタデータ) (2022-07-20T12:44:13Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Deep Neural Networks for Blind Image Quality Assessment: Addressing the
Data Challenge [20.97986692607478]
主観的テストの制約により、数百万の画像からなる人格分類IQAデータセットを作成することは困難である。
EONSSと呼ばれるDNNベースのBIQAモデルを構築し、Waterloo Exploration-IIでトレーニングし、9つの主観評価IQAデータセット上でテストする。
論文 参考訳(メタデータ) (2021-09-24T19:48:52Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Continual Learning for Blind Image Quality Assessment [80.55119990128419]
ブラインド画像品質評価(BIQA)モデルは、サブポピュレーションシフトに継続的に適応できない。
最近の研究では、利用可能なすべての人間評価のIQAデータセットの組み合わせに関するBIQAメソッドのトレーニングが推奨されている。
モデルがIQAデータセットのストリームから継続的に学習するBIQAの継続的学習を策定する。
論文 参考訳(メタデータ) (2021-02-19T03:07:01Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。