論文の概要: Troubleshooting Blind Image Quality Models in the Wild
- arxiv url: http://arxiv.org/abs/2105.06747v1
- Date: Fri, 14 May 2021 10:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 18:31:09.728860
- Title: Troubleshooting Blind Image Quality Models in the Wild
- Title(参考訳): 野生のブラインド画像品質モデルにおけるトラブルシューティング
- Authors: Zhihua Wang and Haotao Wang and Tianlong Chen and Zhangyang Wang and
Kede Ma
- Abstract要約: グループ最大分化競争(gMAD)は、盲目の画像品質評価(BIQA)モデルを改善するために使用されます。
対象モデルのprunedバージョンのランダムアンサンブルを改善するため、"self-competitors"のセットを構築します。
様々な障害は、自己gMADコンペティションを通じて効率的に識別できる。
- 参考スコア(独自算出の注目度): 99.96661607178677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the group maximum differentiation competition (gMAD) has been used
to improve blind image quality assessment (BIQA) models, with the help of
full-reference metrics. When applying this type of approach to troubleshoot
"best-performing" BIQA models in the wild, we are faced with a practical
challenge: it is highly nontrivial to obtain stronger competing models for
efficient failure-spotting. Inspired by recent findings that difficult samples
of deep models may be exposed through network pruning, we construct a set of
"self-competitors," as random ensembles of pruned versions of the target model
to be improved. Diverse failures can then be efficiently identified via
self-gMAD competition. Next, we fine-tune both the target and its pruned
variants on the human-rated gMAD set. This allows all models to learn from
their respective failures, preparing themselves for the next round of self-gMAD
competition. Experimental results demonstrate that our method efficiently
troubleshoots BIQA models in the wild with improved generalizability.
- Abstract(参考訳): 近年,グループ最大分化コンペティション(gMAD)は,視線画像品質評価(BIQA)モデルの改善に活用されている。
このようなアプローチを"最高のパフォーマンス(best-performing)"biqaモデルのトラブルシュートに適用する場合,私たちは,実用的な課題に直面しています。
近年のディープモデルの難解なサンプルがネットワークプルーニングによって露出されることにインスパイアされた我々は、ターゲットモデルのプルーニングバージョンをランダムにアンサンブルして改善すべき「自己競合者」の集合を構築した。
様々な障害は、自己gMAD競合を通じて効率的に識別できる。
次に、人間の評価したgMADセット上で、ターゲットと刈り取られた変種の両方を微調整する。
これにより、すべてのモデルがそれぞれの失敗から学び、次のgMADコンテストに備えることができます。
実験結果から,BIQAモデルを野生で効率的にトラブルシュートし,一般化性を向上させた。
関連論文リスト
- LLM-Assisted Red Teaming of Diffusion Models through "Failures Are Fated, But Can Be Faded" [7.736445799116692]
『失敗は太っているが、消えることがある』は、事前学習された世代モデルにおける失敗の状況を探究し、構築するための枠組みである。
発見された障害モードから離れることで、障害状況の再構築をより望ましいものにする方法を示します。
論文 参考訳(メタデータ) (2024-10-22T06:46:09Z) - Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Black-box Adversarial Attacks Against Image Quality Assessment Models [16.11900427447442]
No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
論文 参考訳(メタデータ) (2024-02-27T14:16:39Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - Comparison of Image Quality Models for Optimization of Image Processing
Systems [41.57409136781606]
我々は、11のフル参照IQAモデルを使用して、4つの低レベル視覚タスクのためにディープニューラルネットワークをトレーニングします。
最適化された画像に対する主観的テストにより、それらの知覚的性能の観点から、競合するモデルのランク付けが可能となる。
論文 参考訳(メタデータ) (2020-05-04T09:26:40Z) - Active Fine-Tuning from gMAD Examples Improves Blind Image Quality
Assessment [29.196117743753813]
我々は,gMADの例をブラインドIQA法(BIQA法)の改善に利用できることを示す。
具体的には、まず、複数のノイズアノテータを用いたDNNベースのBIQAモデルを事前訓練する。
次に、ベースラインモデルとgMADの完全な参照IQA手法のセットを比較して、画像のペアを求める。
論文 参考訳(メタデータ) (2020-03-08T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。